Gestern hat SAP auf der Veranstaltung SAP Business Unleashed 2025 ihre lang erwartete Ankündigung gemacht: Die SAP Business Data Cloud kommt! Was können wir von dieser neuen Lösung erwarten und was bedeutet das für bestehende Datasphere-Kunden?
Werfen wir zunächst einen Blick darauf, wie wir hierher gekommen sind. Vor zwei Jahren nutzte SAP die gleiche Veranstaltung (damals noch unter dem Namen "Data Unleashed"), um ihr neues Angebot - SAP Datasphere - vorzustellen. Während in dieser Zeit einige wichtige Funktionen hinzugefügt wurden, handelte es sich bei diesem Angebot im Wesentlichen um ein Rebranding der bestehenden Lösung “Data Warehouse Cloud" (DWC). Die meisten SAP-BW-Kunden zogen es vor, bei ihrem derzeitigen System zu bleiben, da sie ihre Investitionen und den gewohnten Funktionsumfang nicht aufgeben wollten, da DWC immer noch als unausgereiftes Tool angesehen wurde. Nicht-SAP-Kunden sahen DWC als zu weit hinter Wettbewerbern wie Databricks und Snowflake zurück.
SAP Datasphere hat sich jedoch in den letzten Jahren weiterentwickelt. SAP proklamierte es als strategischen Nachfolger von SAP BW, arbeitete an Funktionsparität und Alleinstellungsmerkmalen wie neue Funktionen für Citizen Developer, der nahtlosen Integration von S/4HANA und SAP Analytics Cloud (SAC) und verschiedenen Partnerschaften mit führenden Anbietern. Diese Partnerschaften trugen dazu bei, Schwachstellen im eigenen Angebot zu beheben und den Paradigmenwechsel der Öffnung der Plattform für Drittanbieterlösungen zu unterstreichen. Eine dieser Partnerschaften war die mit Databricks.
Databricks kann als Marktführer im Bereich moderner Datenplattformen angesehen werden. Sie zeichnen sich vor allem durch eine kosteneffiziente Lakehouse-Architektur und ausgefeilte Unterstützung für maschinelles Lernen und KI aus. SAP hat zwar versucht, mit Datasphere gleichzuziehen, aber dies offensichtlich jetzt aufgegeben. Die letzten zwei Jahre dieser Kooperation haben leider keine nennenswerten Ergebnisse für die Kunden gebracht, aber es scheint, dass SAP und Databricks im Stillen an etwas gearbeitet hatte. Seit gestern wissen wir es - sie haben an der Business Data Cloud gearbeitet.
Hat sich der Kreis nun geschlossen?
SAP kündigt Produkteinführung der Business Data Cloud an
Überblick über das Funktionsspektrum der SAP Business Data Cloud und die darin enthaltenen Komponenten Datasphere, Analytics Cloud, DW und SAP Databricks. Grafik veröffentlicht von SAP.
Quelle: https://news.sap.com/2025/02/sap-databricks-open-bold-new-era-data-ai/
Die Business Data Cloud wird eine Reihe von Produkten kombinieren, die gemeinsam genutzt werden können, um alle SAP- und Nicht-SAP-Daten eines Unternehmens zu verbinden.
SAP Datasphere
SAP Datasphere wird größtenteils unverändert bleiben, so dass alle Investitionen von Unternehmen in Datasphere sicher sind. Datasphere kann mit seinen bewährten Citizen-Developer-Funktionen genutzt werden, um Daten innerhalb eines Unternehmens gemeinsam zu nutzen und zentrale Datenmodelle zu erstellen, wo dies sinnvoll ist
SAP Analytics Cloud
SAP Business Data Cloud wird die SAP Analytics Cloud und ihre Planungsfunktionen unverändert nutzen.
SAP Business Warehouse
SAP Business Data Cloud bietet Kunden, die SAP BW vor Ort einsetzen, einen einfachen Weg in die Cloud. Mit der nativen Integration und dem Objektspeicher von Delta Share können Sie Daten nahtlos in ein Datenprodukt umwandeln, was die Modernisierung vereinfacht und Ihre BW-Investition maximiert.
SAP Databricks
Einige der Kernkomponenten von Databricks werden in die SAP Business Data Cloud-Produktsuite integriert: der Mosaic AI- und ML-Workspace, die Lakehouse-Governance-Schicht Unity Catalog und die SQL Warehouse Query Engine. Nach dem, was wir in der kurzen Demo gesehen haben, umfasst dies Databricks Kernfunktionen wie Jupyter Notebooks als Entwicklerumgebung sowie Apache Spark und Photon Engine als skalierbare verteilte Rechenressourcen (nur Serverless!). Neuere Ergänzungen des umfangreichen Funktionsumfangs von Databricks wie Databricks AI/BI und Genie Dashboarding-Tools, Lakeflow ETL und vor allem Delta Live Tables sind nicht Teil des integrierten Angebots.
SAP-Datenmodelle sollen nahtlos im Databricks-Katalog verfügbar sein und umgekehrt. Dies verspricht eine effiziente, zero-copy Datenintegration zwischen etablierten SAP-Geschäftsbereichsdaten und Systemen von Drittanbietern oder sogar unstrukturierten Daten. Diese Integration basiert technologisch auf Databricks' nativen Data Lakehouse-Innovationen wie dem Delta Lake-Tabellenformat und dem Delta Sharing-Austauschprotokoll.
SAP und Databricks oder SAP Databricks?
Derzeitiger Stand: SAP und Databricks
Übersichtsgrafik, wie wir unseren Kunden raten, SAP Datasphere als führendes Enterprise Business Intelligence Framework und die eigenständige Databricks Data Lakehouse Plattform zu kombinieren. Databricks bietet eine effizientere Skalierung für große Datenmengen und hochmoderne Funktionen für maschinelles Lernen und KI-Entwicklung, die SAP nicht bislang nicht mit eigenen Produkten erreichen kann.
Kürzlich haben wir ein eigenes Webinar zum Thema der Kombination von SAP Datasphere und Databricks abgehalten.
Sehen Sie sich die Aufzeichnung unseres Webinars an:
"SAP Datasphere and the Databricks Lakehouse Approach"
SAP Datasphere überzeugt als Business Layer in einem standardisierten Data Warehouse Ansatz. Es bietet zudem eine nahtlose Integration mit SAP-Systemen und stellt eine leistungsstarke semantische Schicht für Self-Service Business Intelligence und Reporting mit SAP Analytics Cloud bereit. Databricks wiederum ist besonders stark im Bereich des maschinellen Lernens und ermöglicht eine Data-Lakehouse-Architektur, die große Datenmengen kosteneffizient verwalten kann. Durch die Kombination dieser Stärken können Unternehmen eine moderne, skalierbare und intelligente Datenplattform aufbauen.
Wenn Sie an unserem Ansatz interessiert sind, lesen Sie unseren jüngsten Artikel zu diesem Thema.
Schon vor dieser Ankündigung war die Kombination aus SAP Datasphere und Databricks für viele Unternehmen eine gute Wahl. Es scheint, dass SAP hier die gleiche Idee hat, denn die gestrigen Informationen verstärken diesen Ansatz noch weiter.
Unleashed? SAP Databricks
Die Rolle von Databricks in der neuen SAP Business Data Cloud - wie von Databricks in ihrem Blogbeitrag dargestellt.
Quelle: https: https://www.databricks.com/blog/introducing-sap-databricks
SAP füllt endlich eine eklatante Lücke in ihrem Cloud-Produktportfolio in Bezug auf maschinelles Lernen, generative und agentenbasierte KI-Entwicklung, indem sie einen integrierten Databricks-Arbeitsbereich anbietet. Die zugrunde liegende Unterstützung der Delta Lake- und Delta Sharing-Technologie ermöglicht eine effizientere Zusammenarbeit über Cloud- und Anbietergrenzen hinweg. SAP betritt damit etwas verspätet das Spielfeld des offenen Data Lakehouse, in dem große Player wie Google BigQuery, Snowflake und AWS RedShift bereits technologische Kompatibilität mit dem Databricks-geführten Ökosystem bieten.
Die wichtigsten Ergänzungen des Funktionsspektrums des SAP-Cloud-Angebots sind:
-
Voll funktionsfähiges ML/AI-Experiment- und Betriebs-Framework zur Nutzung der neuesten technologischen Fortschritte
-
Zero-Copy-Datenaustausch zwischen SAP Datasphere und Databricks
-
Einheitliches Datenmanagement für strukturierte und unstrukturierte Daten im Unity Catalog und dem zugrunde liegenden Data Lakehouse
-
Bessere Integration mit Non-SAP-Datenquellen
-
Interoperabilität mit Drittanbietern, Produkten und Tools durch Delta Sharing
Weitere Nebeneffekte der erweiterten Databricks-Partnerschaft könnten für Power-User interessant sein, die sich in der Vergangenheit durch das native SAP-Tooling eingeschränkt fühlten:
-
Python- und Spark-basierte Analysen sind jetzt in einer Code-First-Umgebung verfügbar
-
Unity Catalog bietet unbegrenzte Speichermöglichkeiten
-
Verteilte Compute-Engines können enorme Datenmengen für Analysen und das Training von KI-Modellen verarbeiten
-
Die sonst oft verschlossenen SAP-Datenmodelle sind für erweiterte Analyse-Workflows verfügbar
-
Integration mit BI-Tools von Drittanbietern wie PowerBI und Tableau
Es bleibt abzuwarten, wie nahtlos und effizient die Integration von Datasphere-Modellen und Databricks Unity Catalog-Tabellen in der Praxis wirklich sein wird. Die getrennten technologischen Philosophien bleiben als solche unter dem neuen Banner der Business Data Cloud bestehen: In-Memory-Datenbank vs. Data Lakehouse. Wir sehen die Möglichkeit, dass SAP die Tür für konkurrierende Ansätze und parallele Entwicklungen innerhalb der eigenen geplanten Lösung öffnet. Werden letztendlich alle Datenobjekte aus Datasphere in Databricks zugänglich sein und umgekehrt? Wie wird auf Daten aus dem Lakehouse-Speicher für In-Memory-Abfragen auf der Datasphere-Seite zugegriffen?
Die Preisgestaltung und die Produkt-Roadmap sind weitere Diskussionsthemen, bei denen wir die Ankündigungen in naher Zukunft im Auge behalten müssen. Während die Preisgestaltung für SAP Databricks in etwa dem etablierten Databricks Unit (DBU) Verbrauchsmodell entspricht, sollen diese auf SAP Business Data Cloud Capacity Units umgerechnet werden - der genaue Modus ist noch nicht bekannt. Die Startzeitpunkte für die Business Data Cloud und SAP Databricks wurden noch nicht bekannt gegeben und hängen davon ab, welcher Hyperscaler für das Hosting gewählt wird: Die Angebote auf AWS EU/Frankfurt und AWS US-East sollen zuerst eingeführt werden - die Microsoft Azure-Version wird voraussichtlich als letzte folgen.
Unsere erste Interpretation, wie SAP Business Data Cloud das Spektrum der modernen Datenplattform-Funktionen abdeckt:
BDC integriert geschickt Databricks für alle bisher fehlenden oder unterentwickelten Funktionsbereiche wie Lakehouse Storage, Streaming Data Processing und ML/AI-Entwicklung.
Wir arbeiten hart daran, Ihnen weitere Informationen zukommen zu lassen und Ihre dringenden Fragen zu beantworten, also bleiben Sie dran.
Lassen Sie uns wissen, was Sie von der Ankündigung halten und stellen Sie uns Ihre Fragen in dem Formular unter dem Blog-Artikel.
Wenn Sie erfahren möchten, was die neue Lösung für Ihr Unternehmen bedeutet, sprechen Sie uns gerne unverbindlich an. Als erfahrener Databricks- und SAP-Partner helfen wir Ihnen, das Potenzial der Business Data Cloud und die neuen Möglichkeiten dieser Partnerschaft auszuschöpfen.
Finden Sie sich einen Zeitpunkt für ein Gespräch in unseren Kalendern:
Sebastian Uhlig: https://www.nextlytics.com/meetings/sebastian-uhlig
Irvin Rodin: https://www.nextlytics.com/meetings/irvin-rodin
Machine Learning, Datasphere, SAP Data Warehouse
