Skip to content
NextLytics
Megamenü_2023_Über-uns

Shaping Business Intelligence

Ob clevere Zusatzprodukte für SAP BI, Entwicklung aussagekräftiger Dashboards oder Implementierung KI-basierter Anwendungen - wir gestalten zusammen mit Ihnen die Zukunft von Business Intelligence. 

Megamenü_2023_Über-uns_1

Über uns

Als Partner mit tiefem Prozess-Know-how, Wissen der neuesten SAP-Technologien sowie hoher sozialer Kompetenz und langjähriger Projekterfahrung gestalten wir die Zukunft von Business Intelligence auch in Ihrem Unternehmen.

Megamenü_2023_Methodik

Unsere Methodik

Die Mischung aus klassischem Wasserfallmodell und agiler Methodik garantiert unseren Projekten eine hohe Effizienz und Zufriedenheit auf beiden Seiten. Erfahren Sie mehr über unsere Vorgehensweise.

Produkte
Megamenü_2023_NextTables

NextTables

Daten in SAP BW out of the Box bearbeiten: Mit NextTables wird das Editieren von Tabellen einfacher, schneller und intuitiver, egal ob Sie SAP BW on HANA, SAP S/4HANA oder SAP BW 4/HANA nutzen.

Megamenü_2023_Connector

NextLytics Connectoren

Die zunehmende Automatisierung von Prozessen erfordert die Konnektivität von IT-Systemen. Die NextLytics Connectoren ermöglichen eine Verbindung Ihres SAP Ökosystems mit diversen open-source Technologien.

IT-Services
Megamenü_2023_Data-Science

Data Science & Engineering

Bereit für die Zukunft? Als starker Partner stehen wir Ihnen bei der Konzeption, Umsetzung und Optimierung Ihrer KI-Anwendung zur Seite.

Megamenü_2023_Planning

SAP Planning

Wir gestalten neue Planungsanwendungen mithilfe von SAP BPC Embedded, IP oder  SAC Planning, die einen Mehrwert für Ihr Unternehmen schaffen.

Megamenü_2023_Dashboarding

Dashboarding

Mit unserer Expertise verhelfen wir Ihnen auf Basis von Tableau, Power BI, SAP Analytics Cloud oder SAP Lumira zu aussagekräftigen Dashboards. 

Megamenü_2023_Data-Warehouse-1

SAP Data Warehouse

Planen Sie eine Migration auf SAP HANA? Wir zeigen Ihnen, welche Herausforderungen zu beachten sind und welche Vorteile eine Migration bringt.

Business Analytics
Megamenü_2023_Procurement

Procurement Analytics

Transparente und valide Zahlen sind vor allem in Unternehmen mit dezentraler Struktur wichtig. SAP Procurement Analytics ermöglicht die Auswertung von SAP ERP-Daten in SAP BI.

Megamenü_2023_Reporting

SAP HR Reporting & Analytics

Mit unserem Standardmodell für Reporting von SAP HCM mit SAP BW beschleunigen Sie administrative Tätigkeiten und stellen Daten aus verschiedenen Systemen zentral und valide zur Verfügung.

Megamenü_2023_Dataquality

Data Quality Management

In Zeiten von Big Data und IoT kommt der Vorhaltung einer hohen Datenqualität eine enorm wichtige Bedeutung zu. Mit unserer Lösung für Datenqualitätsmanagement (DQM) behalten Sie stets den Überblick.

Karriere
Megamenü_2023_Karriere-2b

Arbeiten bei NextLytics

Wenn Du mit Freude zur Arbeit gehen möchtest und dabei Deine berufliche und persönliche Weiterentwicklung nicht zu kurz kommen soll, dann bist Du bei uns genau richtig! 

Megamenü_2023_Karriere-1

Berufserfahrene

Zeit für etwas Neues? Gehe Deinen nächsten beruflichen Schritt und gestalte Innovation und Wachstum in einem spannenden Umfeld zusammen mit uns!

Megamenü_2023_Karriere-5

Berufseinsteigende

Schluss mit grauer Theorie - Zeit, die farbenfrohe Praxis kennenzulernen! Gestalte bei uns Deinen Einstieg ins Berufsleben mit lehrreichen Projekten und Freude an der Arbeit.

Megamenü_2023_Karriere-4-1

Studierende

Du möchtest nicht bloß die Theorie studieren, sondern Dich gleichzeitig auch praktisch von ihr überzeugen? Teste mit uns Theorie und Praxis und erlebe wo sich Unterschiede zeigen.

Megamenü_2023_Karriere-3

Offene Stellen

Hier findest Du alle offenen Stellenangebote. Schau Dich um und bewirb Dich - wir freuen uns! Falls keine passende Stelle dabei ist, sende uns gerne Deine Initiativbewerbung zu.

Blog
NextLytics Newsletter Teaser
Hier für unseren monatlichen Newsletter anmelden!
Newsletter abonnieren
 

Meilenstein erreicht: NextLytics wird Databricks Partner

NextLytics ist seit kurzem offizieller Consulting Partner von Databricks! Wir freuen uns, mit diesem Schritt die erfolgreiche Arbeit mit der Data und AI Plattform Databricks aus den letzten Jahren weiter auszubauen. NextLytics steht für persönliche, vertrauensvolle und unabhängige Beratung rund um Data, Analytics und Business Intelligence. Unserer langjährigen Expertise in den Systemlandschaften der SAP Business Intelligence Produkte und Open Source Software fügen wir damit auch offiziell eine neue Facette hinzu. Wir sind überzeugt von den Möglichkeiten, die Databricks und die zugehörigen architektonischen und technischen Konzepte und Komponenten für unsere Kunden eröffnen und sehen großes Potenzial in der Kombination mit anderen Produkten aus dem breiten Spektrum der Data Science und Analytics Plattformen.

Warum Databricks?

Databricks steht für modernstes Datenmanagement und vereint das Beste aus zwei Welten: Die Flexibilität und Skalierbarkeit von Data Lake Storage mit den strukturellen Vorteilen eines Data Warehouses. Das Ergebnis ist die sogenannte Lakehouse-Architektur – eine Plattform, die Analyse, Data Engineering und Machine Learning unter einem Dach vereint. Die Integration dieser verschiedenen Spielarten gelingt derzeit keiner anderen Plattform so gut und nahtlos, wie dies bei Databricks der Fall ist. Für Anwender werden die vormals oft sperrigen Konzepte und Software-Bibliotheken für verteilte Datenspeicherung und parallelisierte, verteilte Berechnungen fest in die Infrastruktur integriert. “Big Data” sieht plötzlich aus wie eine ganze normale Datenbank und die alten Ketten technischer Beschränkungen für gewinnbringende Datenanalysen werden gesprengt. Gleichzeitig können Data Scientists und Stakeholder die in der Plattform integrierten Analytics-Tools nutzen, um Trends in den Daten zu analysieren und kritische, datengestützte Entscheidungen zu treffen.

Wir arbeiten für unsere Kunden seit mehr als zwei Jahren erfolgreich mit Databricks und Apache Spark und wissen, wie leistungsfähig diese Kombination ist. Egal, ob es um die Verarbeitung riesiger Datenmengen, die Automatisierung von zeitkritischen ETL-Prozessen oder die Optimierung von Machine Learning Workflows geht – Databricks liefert uns die Werkzeuge, um leistungsstarke, skalierbare Lösungen für unsere Kunden zu entwickeln. Gleichzeitig rückt Databricks eine strukturierte, kollaborative und Code-getriebene Arbeitsweise in den Mittelpunkt und öffnet damit den Raum, etablierte Best Practices aus der Software-Entwicklung auf die Arbeit mit großen Datenmengen zu übertragen: automatisierte Tests, Qualitätskontrollen, Review- und Freigabemechanismen für kritische Prozesse und eine komplette Änderungshistorie des verwendeten Codes als auch den in Databricks gespeicherten Daten.

2024-12-11_screenshot_table_history_Databricks_PartnerDatabricks Benutzeroberfläche des Datenkatalogs. In Databricks verwaltete Tabellen beinhalten eine komplette und einsehbare Änderungshistorie. Details zum Änderungszeitpunkt und Verlinkungen zum Notebook, aus dem die Änderungen stammen, ermöglichen eine Rückverfolgung von Datenänderungen.

2024-12-11_screenshot_deltalivetables_light_Databricks_PartnerDatabricks Delta Live Tables Benutzeroberfläche, im oberen Bereich ist die Delta Live Table selber abgebildet, im unteren Bereich sind im Eventlog alle relevanten Ereignisse und Statusänderungen aufgelistet.

Databricks als Baustein in der Systemlandschaft

Databricks glänzt als zentrale Plattformlösung für Data-basierte Herausforderungen und eröffnet eine Vielzahl Möglichkeiten hinsichtlich Integration und Kombination mit anderen Systemen. Es zeichnet sich durch eine große Anzahl von Konnektivitätsoptionen zu anderen Tools und Plattformen aus. Dazu zählen sowohl unterschiedlichste Datenquellen, deren Daten in Databricks gesammelt und verarbeitet werden können, als auch BI-Tools wie Apache Superset oder Microsoft PowerBI. Die Git-Integration für Code-Versionskontrolle vereinfacht außerdem das kollaborative Arbeiten an Data Pipelines und stellt die nötige Transparenz bei Änderungen an der Datenverarbeitungslogik sicher.

Dies ist nur ein kleiner Einblick, da Databricks sich nahtlos in die Umgebungen der großen Cloud-Anbieter Microsoft Azure, Amazon Web Services und Google Cloud Platform einfügt, was ermöglicht, eine Vielzahl von personalisierten Anbindungen für verschiedenste Use-Cases einzurichten.

Was bedeutet die Partnerschaft für unsere Kunden?

Durch die Partnerschaft können wir unseren Kunden noch umfassendere Unterstützung bieten – sowohl technisch als auch strategisch. Wir stellen exemplarisch fünf Möglichektien vor, wie wir bei der Arbeit mit Databricks Mehrwerte für unsere Kunden generieren:

1. Optimierte Data Pipelines

Mit Databricks entwickeln wir skalierbare Data Pipelines, die selbst bei großen Datenmengen effizient arbeiten. Durch den Einsatz von Databricks Features wie Delta Lake und Delta Live Tables sorgen wir für Datentransparenz, Verlässlichkeit und die Möglichkeit, Analysen in nahezu Echtzeit durchzuführen.


Wir unterstützen Sie gerne!

Haben Sie noch Fragen oder benötigen Unterstützung bei Ihrem nächsten  KI-Projekt?   Wir stehen Ihnen bei der Implementierung oder Optimierung Ihrer  KI-basierten Anwendung mit unserem Know-how gerne zur Verfügung und zeigen  Ihnen, wie Machine Learning einen Mehrwert für Sie und Ihr Unternehmen  generieren kann.   Unverbindlich beraten lassen   


 

2. Best Practices für eure Entwicklerteams

Unser Anspruch ist es, nicht nur funktionierende Lösungen zu bauen, sondern auch Ihr Team zu stärken. Wir bringen DevOps Best Practices mit, die eure Entwickler unterstützen – von standardisierten Workflows für den Betrieb von Databricks bis hin zu maßgeschneiderten Python-Bibliotheken, die wir für die Arbeit mit Databricks und Spark entwickelt haben.

2024-12-10_databricks-devops-best-practices-git-terraform_Databricks_Partner

Databricks DevOps Prozesse am Beispiel mit Azure DevOps: oberhalb der drei Databricks Systemumgebungen ist der Infrastructure-as-Code Prozess dargestellt, der Systemkomponenten wie Workspaces und Berechtigungsmanagement, Spark Cluster, Databricks Jobs, etc. mittels Terraform definiert, prüft und ausgerollt. In der unteren Hälfte ist der Entwicklungsprozess für die Datenverarbeitung im Lakehouse skizziert. SQL und Python Notebook sowie zentrale Python-Bibliotheken werden auf dem Databricks Dev-Workspace entwickelt, mit Git versioniert und synchronisiert, automatisch getestet und per Deployment-Pipeline ausgerollt.

3. Machine Learning leicht gemacht

Databricks bietet die perfekte Umgebung, um Machine Learning Modelle zu trainieren, zu testen und in Produktion zu bringen. Mit Tools wie MLflow unterstützen wir Sie dabei, den gesamten ML-Lifecycle zu managen – von der ersten Idee bis zum Deployment.

4. Integration in eure Cloud-Umgebung

Egal ob AWS, Azure oder Google Cloud – wir sorgen dafür, dass Databricks nahtlos in Ihre bestehende Infrastruktur integriert wird. So können Sie Ihre Datenplattform effizient nutzen, ohne Ihre Architektur von Grund auf neu aufzubauen.

5. SAP und Databricks

Produkte aus der Schmiede von SAP finden sich in vielen Unternehmen wieder, bringen aber einige Hürden mit, wenn es zur Integration mit Systemen anderer Anbieter kommt. Wir kennen beide Welten und helfen unseren Kunden, für jeden Fall den besten Weg zu finden, Daten zwischen SAP und Databricks auszutauschen. Als Partner sowohl von SAP und Databricks kennen wir die Roadmap beider Anbieter und bleiben für unsere Kunden auf dem Laufenden, was die Integrationsmöglichkeiten angeht.

HighRes_2024-12-11_databricks_sap_cdc_sequence-diagram_Databricks_Partner

Schematischer Ablauf einer Streaming Data Pipeline zwischen SAP Systemen und Databricks per Change Data Capture Verfahren. SAP-seitig müssen z.B. über CDS-Views delta-fähige Datenobjekte eingerichtet werden, die dann per Batch-Routine oder echter live Abfrage ins Data Lakehouse übertragen werden können.

Unsere Vision: Daten in Wert verwandeln

Unsere Mission ist es, Unternehmen bei ihrer datengetriebenen Transformation zu begleiten. Daten sind heute eine der wichtigsten Ressourcen – aber erst, wenn sie sinnvoll genutzt werden, entfalten sie ihren wahren Wert.

Mit Databricks haben wir eine Plattform an unserer Seite, die es uns ermöglicht, genau das zu erreichen:

  • Daten schneller verarbeiten
  • Prozesse skalierbar gestalten
  • Datenbasierte Entscheidungen erleichtern

Und das Beste: Mit der Lakehouse-Architektur von Databricks können wir die klassischen Grenzen zwischen Business Intelligence, Data Engineering und Data Science aufheben und alles in einer Plattform vereinen.

Gemeinsam in die Zukunft

Wir bei NextLytics sind überzeugt, dass die Partnerschaft mit Databricks ein großer Schritt in die richtige Richtung ist. Gemeinsam mit unseren Kunden möchten wir die Datenplattformen der Zukunft bauen – Plattformen, die nicht nur leistungsfähig, sondern auch nachhaltig und flexibel sind.

Sie wollen mehr darüber erfahren, wie wir Sie mit Databricks unterstützen können? Dann sprechen Sie uns gerne an – wir freuen uns auf den Austausch mit Ihnen!

Erfahren Sie mehr über Machine Learning und KI

avatar

Markus Suhr

Markus Suhr ist seit 2022 als Senior Berater für Machine Learning und Data Engineering bei der NextLytics AG tätig. Mit einschlägiger Erfahrung als Systemarchitekt und Teamleiter im Bereich Data Engineering kennt er sich bestens mit Microservices, Datenbanken und Workflow Orchestrierung aus - insbesondere im Bereich der Open Source Lösungen. In seiner Freizeit versucht er, das komplexe System des Gemüseanbaus im eigenen Garten zu optimieren.

Sie haben eine Frage zum Blog?
Fragen Sie Markus Suhr

Gender Hinweis Aufgrund der besseren Lesbarkeit wird im Text das generische Maskulinum verwendet. Gemeint sind jedoch immer alle Menschen.
Meilenstein erreicht: NextLytics wird Databricks Partner
7:28

Blog - NextLytics AG 

Welcome to our blog. In this section we regularly report on news and background information on topics such as SAP Business Intelligence (BI), SAP Dashboarding with Lumira Designer or SAP Analytics Cloud, Machine Learning with SAP BW, Data Science and Planning with SAP Business Planning and Consolidation (BPC), SAP Integrated Planning (IP) and SAC Planning and much more.

Informieren Sie mich über Neuigkeiten

Verwandte Beiträge

Letzte Beiträge