Cloud Data Fusion - Preise

In diesem Dokument werden die Preise für Cloud Data Fusion erläutert. Informationen zu Preisen für andere Produkte finden Sie in der Preisliste.

Zur Preisberechnung wird die Nutzung vom Erstellen einer Cloud Data Fusion-Instanz bis zu deren Löschen in Minuten gemessen. Obwohl Stundenpreise angegeben werden, erfolgt die Abrechnung von Cloud Data Fusion pro Minute. Die Nutzung wird also in Stunden angegeben (30 Minuten entsprechen z. B. 0,5 Stunden), damit trotz minutengenauer Abrechnung ein Preis pro Stunde berechnet werden kann.

Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die unter Google Cloud SKUs für Ihre Währung angegebenen Preise.

Preisübersicht

Die Preise für Cloud Data Fusion verteilen sich auf zwei Funktionen: Pipelineentwicklung und Pipelineausführung.

Entwicklung

Für die Pipelineentwicklung bietet Cloud Data Fusion die folgenden drei Versionen an:

Cloud Data Fusion-Edition Preis pro Instanz und Stunde
Developer 0,35 $ (ca. 250 $ pro Monat)
Basic 1,80 $ (ca. 1.100 $ pro Monat)
Enterprise 4,20 $ (ca. 3.000 $ pro Monat)

Die ersten 120 Stunden pro Monat und Konto werden in der Basic-Version kostenlos angeboten.

Ausführung

Für die Ausführung von Pipelines gilt: Cloud Data Fusion erstellt Dataproc-Cluster, um Ihre Pipelines auszuführen. Diese Cluster werden Ihnen zu den aktuellen Preisen für Dataproc in Rechnung gestellt.

Vergleich von Developer, Basic und Enterprise

Leistungsvermögen Entwickler Einfach Unternehmen
Anzahl gleichzeitiger Nutzer 2 Eingeschränkt* Eingeschränkt*
Arbeitslasten Entwicklung, Produktexploration Tests, Sandbox, PoC Produktion
Support für interne IP-Adressen
Rollenbasierte Zugriffssteuerung
Visuelle Gestaltung
Connector-System
Visuelle Transformationen
Strukturiert, unstrukturiert, halbstrukturiert
Streamingpipelines
Herkunft integrierter Datasets – Feld- und Dataset-Ebene
Einbindung in Dataplex
Hochverfügbarkeit Zonal Regional Regional
Compute-Profile erstellen und anpassen
DevOps-Unterstützung: REST API, Versionsverwaltungsverwaltung
Trigger und Zeitpläne
Auswahl der Ausführungsumgebung
Gleichzeitige Pipelineausführung Begrenzt** Begrenzt**
Entwickler-SDK für Erweiterungen

<ph type="x-smartling-placeholder"></ph> * Gleichzeitige Nutzer: im Allgemeinen Cloud Data Fusion unterstützt maximal 50 Nutzer pro Instanz. Wenn RBAC ist aktiviert. Die maximale Anzahl sind 25 Nutzer.

<ph type="x-smartling-placeholder"></ph> ** Die gleichzeitige Pipelineausführung ist eingeschränkt und basierend auf der verwendeten Instanzversion. Für Zugriff auf Details zur Skalierbarkeit sich an einen Google Cloud-Ansprechpartner wenden.

Nutzung anderer Google Cloud-Ressourcen

Zusätzlich zu den Entwicklungskosten einer Cloud Data Fusion-Instanz werden Ihnen nur Ressourcen in Rechnung gestellt, die Sie zum Ausführen Ihrer Pipelines, Beispiele:

Unterstützte Regionen

Hinweis: Die Preise für Cloud Data Fusion sind derzeit für alle unterstützten Regionen gleich.

Region Standort
africa-south1 * Johannesburg, Südafrika
asia-east1 Bezirk Changhua, Taiwan
asia-east2 Hongkong
asia-northeast1 Tokio, Japan
asia-northeast2 Osaka, Japan
asia-northeast3 Seoul, Südkorea
asia-south1 Mumbai, Indien
asia-south2 Delhi, Indien
asia-southeast1 Jurong West, Singapur
asia-southeast2 Jakarta, Indonesien
australia-southeast1 Sydney, Australien
europe-north1 Hamina, Finnland
europe-southwest1 Madrid, Spanien
europe-west1 St. Ghislain, Belgien
europe-west2 London, England, Vereinigtes Königreich
europe-west3 Frankfurt, Deutschland
europe-west4 Eemshaven, Niederlande
europe-west6 Zürich, Schweiz
europe-west8 Mailand, Italien
europe-west9 Paris, Frankreich
europe-west12 * Turin, Italien
me-central1* Doha, Katar
me-central2* Dammam, Saudi-Arabien
me-west1 Tel Aviv, Israel
northamerica-northeast1 Montréal, Québec, Kanada
southamerica-east1 Osasco (São Paulo), Brasilien
southamerica-west1 Santiago, Chile
us-central1 Council Bluffs, Iowa, Nordamerika
us-east1 Moncks Corner, South Carolina, Nordamerika
us-east4 Ashburn, Northern Virginia, Nordamerika
us-east5 Columbus, Ohio, Nordamerika
us-south1 Dallas, Texas, Nordamerika
us-west1 The Dalles, Oregon, Nordamerika
us-west2 Los Angeles, Kalifornien, Nordamerika

<ph type="x-smartling-placeholder"></ph> * Datenherkunft in Cloud Data Fusion wird in africa-south1 nicht unterstützt, me-central1, me-central1 oder europe-west12

Preisbeispiel

Betrachten Sie eine Cloud Data Fusion-Instanz, die seit 24 Jahren ausgeführt wird. Stunden und in der Basic-Version gibt es keine kostenlosen Stunden mehr. Basierend auf den -Version ist die Instanzgebühr für Cloud Data Fusion in der folgende Tabelle:

Edition Kosten pro Stunde Anzahl Stunden Entwicklungskosten
Developer 0,35 $ 24 24*0,35 = 8,40 $
Einfach 1,80 $ 24 24*1,8 = 43,20 $
Unternehmen 4,20 $ 24 24*4,2 = 100,8 $

Während dieser 24 Stunden haben Sie eine Pipeline ausgeführt, die Rohdaten aus Cloud Storage durchgeführt, Transformationen durchgeführt und die Daten in BigQuery stündlich. Jede Ausführung dauerte ungefähr 15 Minuten. Die für die Ausführungen erstellten Dataproc-Cluster waren demnach jeweils 15 Minuten (0,25 Stunden) aktiv. Angenommen, jeder Dataproc-Cluster war so konfiguriert:

Posten Maschinentyp Virtuelle CPUs Hinzugefügter nichtflüchtiger Speicher Anzahl im Cluster
Master-Knoten n1-standard-4 4 500 GB 1
Worker-Knoten n1-standard-4 4 500 GB 5

Jeder Dataproc-Cluster hat 24 virtuelle CPUs: 4 für den Master und 20 verteilt auf die Worker. Zur Abrechnung von Dataproc wird der Preis für diesen Cluster anhand dieser 24 virtuellen CPUs und der Laufzeit des Clusters berechnet.

Der für Dataproc anfallende Gesamtpreis für alle Ausführungen der Pipeline lässt sich so berechnen:

Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price
                      = 24 * 24 * 0.25 * $0.01
                      = $1.44

Die Dataproc-Cluster verwenden andere Google Cloud-Produkte, die separat in Rechnung gestellt werden. Im Besonderen fallen für diese Cluster Gebühren für Compute Engine und den im nichtflüchtigen Standardspeicher bereitgestellten Speicherplatz an. Je nach Datenmenge, die die Pipeline verarbeitet, fallen Speichergebühren für Cloud Storage und BigQuery an.

Diese zusätzlichen Kosten können Sie anhand der aktuellen Preise mithilfe des Preisrechners ermitteln.

Nächste Schritte

Individuelles Angebot einholen

Mit den „Pay as you go“-Preisen von Google Cloud bezahlen Sie nur für die Dienste, die Sie nutzen. Wenden Sie sich an unser Vertriebsteam, wenn Sie ein individuelles Angebot für Ihr Unternehmen erhalten möchten.
Vertrieb kontaktieren