Unter dem diesjährigen Motto "Strategy Royale – Call, Raise or Fold?" versammelte sich die SAP-Community in Wiesbaden zu den DSAG Technologietagen 2025. Die zentrale Frage lautete: Wo lohnt es sich mitzugehen, wo sollte man den Einsatz erhöhen – und wo vielleicht besser aussteigen? Auf den Bereich Business Analytics bezogen, ist die Antwort eindeutig: Erhöhen. Denn mit der SAP Business Data Cloud, der Integration von Databricks und der Vision für Business AI hat SAP den größten Strategiewechsel seit der Einführung von S/4HANA eingeläutet.
Keynotes: Strategien, Erwartungen und Realitäten
Sebastian Westphal, DSAG-Fachvorstand Technologie, hob in seiner Keynote hervor, dass die BDC den größten Umbruch seit S/4HANA bedeutet und hat seitens der DSAG dazu klare Erwartungen formuliert:
- Konsistente, verlässliche Data Products
- Volle Nutzbarkeit von Databricks
- Spürbarer Mehrwert durch Insight Apps
- Transparente Migrationspfade
- Kalkulierbare Lizenzmodelle (Stichwort Capacity Units)
SAP-CTO Dr. Philipp Herzig stellte das Prinzip „AI First and Suite First“ in den Mittelpunkt: Joule als KI-Orchestrator, eingebettet in die Business Suite. Bis Ende 2025 will SAP mehr als 400 produktiv nutzbare generative KI-Szenarien bereitstellen. Ein zentrales Bindeglied ist dabei der SAP Knowledge Graph als semantische Schicht zwischen BDC und Business AI, der laut Herzig bereits heute „über 400.000 ABAP-Tabellen und 80.000 CDS Views“ abbildet.
Quelle: https://www.youtube.com/watch?v=WdTinjyl2Rw
Der Object Store rückt ins Zentrum
In zahlreichen Vorträgen von SAP, Partnern und Anwendern wurde der fundamentale Wandel in der Architektur der BDC greifbar. Früher stand SAP HANA im Mittelpunkt jeder analytischen SAP-Landschaft. In der BDC verschiebt sich dieser Fokus klar in Richtung Object Store, vergleichbar mit modernen Data Lakehouse-Architekturen und folgt damit dem Prinzip der Hyperscaler wie AWS, Azure & Co. Mit der voll integrierte Systemkomponente SAP Databricks und der Nutzung offener Standards Delta Lake und Delta Sharing zeigt sich, dass die BDC keine lose Zusammenstellung bekannter Technologien ist. Sie markiert eine tiefgreifende, technische und konzeptionelle Neuausrichtung hin zu einer offenen Datenplattform, die auf offene Formate, skalierbare Speicherstrukturen und nahtlosen Datenaustausch ohne Kopien setzt.
Data Products und Insight Apps: Mehr als Business Content
Eines der zentralen Themen war die neue Rolle von Data Products und Insight Apps in der BDC. Die von SAP aktiv gemanagten Assets gehen deutlich über den klassischen Business Content hinaus und bieten damit eine höhere betriebliche Verbindlichkeit und Integrationsreife. Bis Mitte 2025 will SAP alle wichtigen Lines-of-Business mit Data Products abdecken – nicht nur auf Basis von S/4HANA, sondern auch SuccessFactors und weitere Systeme. Parallel werden auf der Grundlage der kuratierten SAP-Datenprodukte passende Insight Apps bereitgestellt, zum Beispiel die in mehreren Vorträgen gezeigte „Working Capital App“.
Gesteuert wird alles zentral im Business Data Cloud Cockpit. Hier werden Insight Apps installiert, Data Products aktiviert und verwaltet. In einer Live-Demo zeigte SAP eindrucksvoll, wie sich Data Products flexibel als eigene Custom-Varianten anpassen und nahtlos in Databricks um ML-Funktionen anreichern lassen. Ob das Zusammenspiel zwischen allen Komponenten und insbesondere zwischen Datasphere und Databricks auch im Projektalltag so reibungslos gelingt wie in der Demo, bleibt abzuwarten.
Was bedeutet BDC für BW-Kunden?
Auch klassischen BW-Kunden, die noch nicht vollständig in die Datasphere wechseln und ihre gewohnte Umgebung verlassen wollen, wurde in Wiesbaden etwas geboten. Mit der Integration von SAP BW bzw. BW/4HANA als Private Cloud Edition in die BDC bietet SAP eine interessante Option, bestehende Investitionen zu schützen und gleichzeitig neue Potenziale für Modernisierung und Datenbereitstellung zu nutzen.
Über ein Data Provisioning Cockpit sollen sich bestehende BW-Objekte wie InfoProvider oder Queries als Data Products im Object Store veröffentlichen lassen und damit wie die standardisierten, von SAP bereitgestellten Datenprodukte innerhalb der BDC genutzt werden können. Damit entsteht ein praktikabler Brückenschlag zwischen klassischem BW und der neuen Cloud-Datenarchitektur.
Eine andere Brücke – die BW Bridge – bleibt zwar begehbar, wird von SAP aber nicht mehr als bevorzugter Übergang angesehen. Gemeinsam mit unserem Kunden GASAG haben wir ein umfangreiches Transformationsprojekt vorgestellt, in dem ein Wechsel über die BW Bridge in Richtung Datasphere realisiert wurde. Dabei war uns wichtig, transparent zu zeigen, dass diese Architekturentscheidung im Kontext der damaligen SAP-Strategie zu bewerten ist und welche Alternativen heute bestehen, wenn Unternehmen ihre BW-Investitionen sichern und gleichzeitig den Schritt in die BDC gehen möchten.
Sehen Sie sich die Aufzeichnung unseres Webinars an:
"SAP Datasphere and the Databricks Lakehouse Approach"
Update SAC und Planning
Am zweiten Tag der DSAG-Technologietage, der stärker auf das Frontend fokussiert war, standen die SAC und Planung im Mittelpunkt mehrerer Sessions. Besonders spannend war der Vortrag von Jie Deng und Max Gander, in dem deutlich wurde, wie SAP die Planungsstrategie im Rahmen der BDC weiter konkretisiert und dabei „Seamless Planning“ als das zentrale Schlüsselkonzept sieht. Neben den angekündigten Planning-enabled Insight Apps für die BDC spielt künftig auch die Integration von SAP Databricks für ML- und AI-gestützte Planungsszenarien eine wichtige Rolle
Ein Blick auf die Roadmap zeigt, wie stark SAP das Thema Planning in der SAC priorisiert und sich damit weiterhin bewusst von anderen Anbietern abhebt. Mit dem neuen SAC Kompass für Monte-Carlo-Simulationen wurde kürzlich ein vielversprechendes Feature bereitgestellt, dem wir uns in einem kommenden Blogbeitrag im Detail widmen werden. Langfristig verfolgt SAP mit GenAI in der Planung eine klare Vision – KI-gestützte Kommentierung und automatisierte Forecasts sollen zukünftig fester Bestandteil des Planungsprozesses werden. Ein kleiner Wermutstropfen: Das lang erwartete Feature für asymmetrisches Reporting in der Planung wird erst 2026 verfügbar sein.
Quelle: Foto aus Vortrag "V061: SAP Analytics Cloud für Planung, Analytics und Generative AI – Neuigkeiten und Ausblick"
Neben dem Schwerpunkt auf Planung wurden auch kommende SAC-Features vorgestellt. Besonders hervorzuheben sind die neue Watchlist mit Alerting, sowie die New Builder Experience for Tables, die die Usability für die tabellenbasierte Analyse und Planung deutlich verbessern wird. Ebenfalls präsentiert wurde der neue SAC Home Screen im Horizon Design, der sich flexibel konfigurieren lässt und echten Mehrwert als zentraler Einstiegspunkt und persönliches Launchpad bietet.
Quelle: Foto aus Vortrag "V061: SAP Analytics Cloud für Planung, Analytics und Generative AI – Neuigkeiten und Ausblick"
Fazit & Key Takeaways
Wie jedes Jahr hat sich der Besuch der DSAG-Technologietage für uns mehr als gelohnt, dieses Mal sogar mit eigenem Stand. Wir haben zahlreiche Gespräche mit Kunden, Partnern und SAP geführt und unzählige Demos von unserer NextTables-Lösung für Datasphere gezeigt. Doch was bleibt am Ende hängen? Hier sind unsere wichtigsten Erkenntnisse:
Standardisierung ist der Schlüssel
Ein roter Faden, der sich durch viele Vorträge zog: SAP-gemanagte Data Products, Insight Apps und Business AI entfalten ihren vollen Nutzen erst dann, wenn Unternehmen bereit sind, SAP-Standards zu übernehmen. Das ist keineswegs selbstverständlich, gerade wenn man sieht, wie in vielen S/4HANA-Transformationen weiterhin kundenindividuelle Logiken aus dem alten ECC-System übernommen und fortgeführt werden.
Und was ist jetzt eigentlich mit HANA?
Der Fokus auf den Object Store war auf den Technologietagen allgegenwärtig, doch eine klare strategische Einordnung der Rolle von SAP HANA in der neuen Architektur blieb aus. Ob sie generell ab einem bestimmten Layer zwingend zum Einsatz kommt, oder – wie bei modernen Lakehouse-Plattformen – die Daten vollständig im Object Store verbleiben können und die Performance über massiv parallelisierte Apache Spark-Cluster sichergestellt wird, blieb offen. Eine eindeutige Positionierung von SAP dazu wäre wünschenswert gewesen.
Die neue Rolle der SAP
Ein bemerkenswerter Aspekt, der in mehreren Sessions eher beiläufig erwähnt wurde: SAP positioniert sich zunehmend als Enabler und Verantwortlicher für durchgängige End-to-End Business- und Analytics-Prozesse. Die Integration soll „out of the box“ funktionieren, bleibt jedoch in Teilen eine Blackbox und bei Problemen läuft der Support klassisch über SAP-Tickets. Mit diesem Anspruch übernimmt SAP bewusst die Verantwortung dafür, dass Daten, Semantik und Prozesse nahtlos zusammenlaufen – von der Quelle bis zur Entscheidung. Das ist mehr als der reine Betrieb einer Cloud-Datenplattform, denn SAP steht auch für die Inhalte, deren Struktur und fachliche Konsistenz in der Verantwortung. Damit ergänzen wir die Erwartungshaltung der DSAG um einen entscheidenden Punkt: SAP muss diese neue Rolle aktiv annehmen und sie im Markt klar und verlässlich ausfüllen.
Kunden müssen mitziehen – Raise gilt für alle
Nicht nur SAP erhöht den Einsatz – auch die Kunden sind gefragt. Wer von dieser neuen Architektur profitieren will, muss die eigene Datenstrategie neu ausrichten, SAP-Standards konsequent mitgehen und bereit sein, in moderne Technologien zu investieren.
Haben Sie Fragen zur SAP Business Data Cloud oder SAP Datasphere? Wir helfen Ihnen gerne dabei. Nehmen Sie einfach Kontakt zu uns auf!
SAP Planning, Datasphere, SAP Business Data Cloud
.jpg?width=290&name=David%20Nicolay%20(1).jpg)