Skip to content
NextLytics
Megamenü_2023_Über-uns

Shaping Business Intelligence

Ob clevere Zusatzprodukte für SAP BI, Entwicklung aussagekräftiger Dashboards oder Implementierung KI-basierter Anwendungen - wir gestalten zusammen mit Ihnen die Zukunft von Business Intelligence. 

Megamenü_2023_Über-uns_1

Über uns

Als Partner mit tiefem Prozess-Know-how, Wissen der neuesten SAP-Technologien sowie hoher sozialer Kompetenz und langjähriger Projekterfahrung gestalten wir die Zukunft von Business Intelligence auch in Ihrem Unternehmen.

Megamenü_2023_Methodik

Unsere Methodik

Die Mischung aus klassischem Wasserfallmodell und agiler Methodik garantiert unseren Projekten eine hohe Effizienz und Zufriedenheit auf beiden Seiten. Erfahren Sie mehr über unsere Vorgehensweise.

Produkte
Megamenü_2023_NextTables

NextTables

Daten in SAP BW out of the Box bearbeiten: Mit NextTables wird das Editieren von Tabellen einfacher, schneller und intuitiver, egal ob Sie SAP BW on HANA, SAP S/4HANA oder SAP BW 4/HANA nutzen.

Megamenü_2023_Connector

NextLytics Connectoren

Die zunehmende Automatisierung von Prozessen erfordert die Konnektivität von IT-Systemen. Die NextLytics Connectoren ermöglichen eine Verbindung Ihres SAP Ökosystems mit diversen open-source Technologien.

IT-Services
Megamenü_2023_Data-Science

Data Science & Engineering

Bereit für die Zukunft? Als starker Partner stehen wir Ihnen bei der Konzeption, Umsetzung und Optimierung Ihrer KI-Anwendung zur Seite.

Megamenü_2023_Planning

SAP Planning

Wir gestalten neue Planungsanwendungen mithilfe von SAP BPC Embedded, IP oder  SAC Planning, die einen Mehrwert für Ihr Unternehmen schaffen.

Megamenü_2023_Dashboarding

Dashboarding

Mit unserer Expertise verhelfen wir Ihnen auf Basis von Tableau, Power BI, SAP Analytics Cloud oder SAP Lumira zu aussagekräftigen Dashboards. 

Megamenü_2023_Data-Warehouse-1

SAP Data Warehouse

Planen Sie eine Migration auf SAP HANA? Wir zeigen Ihnen, welche Herausforderungen zu beachten sind und welche Vorteile eine Migration bringt.

Business Analytics
Megamenü_2023_Procurement

Procurement Analytics

Transparente und valide Zahlen sind vor allem in Unternehmen mit dezentraler Struktur wichtig. SAP Procurement Analytics ermöglicht die Auswertung von SAP ERP-Daten in SAP BI.

Megamenü_2023_Reporting

SAP HR Reporting & Analytics

Mit unserem Standardmodell für Reporting von SAP HCM mit SAP BW beschleunigen Sie administrative Tätigkeiten und stellen Daten aus verschiedenen Systemen zentral und valide zur Verfügung.

Megamenü_2023_Dataquality

Data Quality Management

In Zeiten von Big Data und IoT kommt der Vorhaltung einer hohen Datenqualität eine enorm wichtige Bedeutung zu. Mit unserer Lösung für Datenqualitätsmanagement (DQM) behalten Sie stets den Überblick.

Karriere
Megamenü_2023_Karriere-2b

Arbeiten bei NextLytics

Wenn Du mit Freude zur Arbeit gehen möchtest und dabei Deine berufliche und persönliche Weiterentwicklung nicht zu kurz kommen soll, dann bist Du bei uns genau richtig! 

Megamenü_2023_Karriere-1

Berufserfahrene

Zeit für etwas Neues? Gehe Deinen nächsten beruflichen Schritt und gestalte Innovation und Wachstum in einem spannenden Umfeld zusammen mit uns!

Megamenü_2023_Karriere-5

Berufseinsteigende

Schluss mit grauer Theorie - Zeit, die farbenfrohe Praxis kennenzulernen! Gestalte bei uns Deinen Einstieg ins Berufsleben mit lehrreichen Projekten und Freude an der Arbeit.

Megamenü_2023_Karriere-4-1

Studierende

Du möchtest nicht bloß die Theorie studieren, sondern Dich gleichzeitig auch praktisch von ihr überzeugen? Teste mit uns Theorie und Praxis und erlebe wo sich Unterschiede zeigen.

Megamenü_2023_Karriere-3

Offene Stellen

Hier findest Du alle offenen Stellenangebote. Schau Dich um und bewirb Dich - wir freuen uns! Falls keine passende Stelle dabei ist, sende uns gerne Deine Initiativbewerbung zu.

Blog
NextLytics Newsletter Teaser
Hier für unseren monatlichen Newsletter anmelden!
Newsletter abonnieren
 

Workflow-Orchestrierung auf dem neuesten Stand der Technik mit Apache Airflow

Verwalten Sie alle Ihre digitalen Workflows und halten Sie Ihre Daten immer aktuell

Automatisierte digitale Arbeitsabläufe sind der Schlüssel zu effizienten und erfolgreichen Geschäftsprozessen: Abteilungen können sich auf die wichtigen Entscheidungen konzentrieren und haben immer die neusten Berichte zur Verfügung, analytische Dashboards zeigen aktuelle Informationen an und Vorhersagemodelle werden mit den bestmöglichen Daten trainiert. Verfügbarkeit und Nachvollziehbarkeit von Daten sind entscheidend für das Vertrauen in datengesteuerte Entscheidungsfindung und Planung. Vertrauen Sie auf die weltweit beliebteste Open-Source-Plattform zur Workflow-Orchestrierung, damit Ihre Workflows wie am Schnürchen laufen: Apache Airflow.

Apache Airflow

 

Apache Airflow ist das führende Open-Source-Framework für die Workflow-Orchestrierung. Es führt die zeitkritischen Prozesse und Datenpipelines von Hunderten von Unternehmen weltweit aus, darunter Pioniere des datenzentrierten Geschäftsmodells wie AirBnB, Pinterest, Spotify oder Zalando. Die Software-as-a-Service-Giganten AWS und Google Cloud Platform bieten Airflow als Teil ihres regulären Servicekatalogs an, und Astronomer hat sogar sein ganzes Produkt und Unternehmen um das Open-Source-Projekt herum aufgebaut.

Der Erfolg von Airflow beruht auf den Grundprinzipien des Projekts: Skalierbarkeit, Erweiterbarkeit, Dynamik und Eleganz. Die modulare Microservices-Architektur, die auf der Programmiersprache Python basiert, eignet sich für alle technischen Anforderungen, die auftreten können. Die Definitionen der Arbeitsabläufe in Airflow werden in Python-Code ausgedrückt, wodurch das System für jeden, der über etwas Programmiererfahrung verfügt, leicht zu erlernen ist. Da Airflow kein spezielles Datenpipeline-Tool ist, sind der Automatisierung von Geschäftslogik mit dem System keine Grenzen gesetzt. Das erweiterte Airflow-Ökosystem bietet Konnektor-Bibliotheken für fast alle denkbaren Systeme von Drittanbietern, darunter AWS, Azure, Oracle, Exasol, Salesforce und Snowflake. NextLytics kann Ihnen sogar eine SAP-Integration bieten! Und nicht zuletzt sind aufgrund der freien Apache-Softwarelizenz keine Lizenzgebühren oder Anbieterbindung zu befürchten.

Zuverlässige Workflow-Orchestrierung ist eine absolute Notwendigkeit für die digitale Organisation. Lesen Sie weiter oder laden Sie unser Whitepaper herunter, um mehr darüber zu erfahren, wie Airflow zum anhaltenden Erfolg Ihres Unternehmens beitragen kann und wie NextLytics Sie auf diesem Weg unterstützen kann.

Whitepaper: Effektives Workflowmanagement mit Apache Airflow 2.0 

Wie funktioniert Workflowmanagement mit Apache Airflow? Welche Anwendungsszenarien sind möglich? Mit welchen Neuerungen reagiert das neue Major-Release auf die aktuelle Herausforderungen des Workflowmanagement?  

Digitale Workflows mit der Open-Source Plattform Apache Airflow

Erweiterte Arbeitsabläufe in Python erstellen

In Apache Airflow werden die Workflows mit der Programmiersprache Python erstellt. Die Einstiegshürde ist niedrig. In wenigen Minuten können Sie selbst komplexe Workflows mit externen Abhängigkeiten zu Drittsystemen und bedingten Verzweigungen definieren.

Modubild_Icons_1

 

Workflows planen, ausführen und überwachen

Die programmgesteuerte Planung, Ausführung und Überwachung von Workflows verläuft dank des Zusammenspiels der Komponenten reibungslos. Leistung und Verfügbarkeit lassen sich an Ihre anspruchsvollsten Anforderungen anpassen.

Modubild_Icons_5

 

Bestens geeignet für Machine Learning

Hier werden Ihre Anforderungen an Machine Learning optimal erfüllt. Selbst ihre komplexen Workflows können mit Apache Airflow ideal orchestriert und verwaltet werden. Die unterschiedlichen Anforderungen an Software und Hardware können problemlos umgesetzt werden.

Modubild_Icons_4

 

Zuverlässige Orchestrierung von Drittsystemen

Bereits in der Standardinstallation von Apache Airflow sind zahlreiche Integrationen zu gängigen Drittsystemen enthalten. So können Sie im Handumdrehen eine robuste Anbindung realisieren. Ohne Risiko: Die Verbindungsdaten werden verschlüsselt im Backend gespeichert.

Modubild_Icons_2

 

Ideal für den Unternehmenskontext

Die Anforderungen von Start-ups und großen Unternehmen werden durch die hervorragende Skalierbarkeit gleichermaßen erfüllt. Als Top-Level-Projekt der Apache Software Foundation und mit ihren Ursprüngen bei Airbnb war der wirtschaftliche Einsatz im großen Maßstab von Anfang an vorgesehen.

Modubild_Icons_3

 

Ein Blick in die umfangreiche intuitive Weboberfläche

Ein wesentlicher Vorteil von Apache Airflow ist das moderne, umfangreiche Webinterface. Mit rollenbasierter Authentifizierung liefert die Oberfläche Ihnen einen schnellen Überblick oder dient als einfacher Zugriffspunkt für die Verwaltung und das Monitoring der Workflows.

02_Beispiel_Startseite
06_Bearbeitung_Task
07_Logs_über_Weboberfläche
01_Beispiel_Workflow
05_Komplexe_Workflows
04_Tree_View

Die Orchestrierung von Drittsystemen wird durch zahlreiche bestehende Integrationen realisiert.

  • Apache Hive
  • Kubernetes-Engine
  • Amazon DynamoDB
  • Amazon S3
  • Amazon SageMaker
  • Databricks
  • Hadoop Distributed Filesystem (HDFS)
  • Bigtable
  • Google Cloud-Storage (GCS)
  • Google BigQuery
  • Google Cloud ML Engine
  • Azure Blob Storage
  • Azure Data Lake
  • ...
Apache Airflow_1

 

Die Workflowmanagement-Plattform für Ihre Anforderungen

Flexibilität durch benutzerdefinierte Individualisierung
Die Anpassungsfähigkeit ist durch zahlreiche Plugins, Makros und individuelle Klassen gegeben. Da Airflow vollständig auf Python basiert, ist die Plattform theoretisch bis in die Grundlagen veränderbar. Passen Sie Apache Airflow jederzeit an Ihre aktuellen Bedürfnisse an.

Vollständig skalierbar
Eine Skalierung mit gängigen Systemen wie Celery, Kubernetes und Mesos ist jederzeit möglich. In diesem Zusammenhang kann eine leichtgewichtige Containerisierung installiert werden

Völlig kostenlos
Die Workflow-Management-Plattform ist ohne Lizenzgebühren und mit minimalem Installationsaufwand schnell verfügbar. Sie können immer die neuesten Versionen in vollem Umfang nutzen, ohne dass Gebühren anfallen.

Profitieren von einer weltweiten Community
Als De-facto-Standard für Workflow-Management umfasst die Airflow Community nicht nur Anwender, sondern die Plattform profitiert auch von engagierten Entwicklern aus aller Welt. Aktuelle Ideen und deren Umsetzung in Code sind online zu finden.

Agilität durch Einfachheit
Die Workflow-Definition wird durch die Implementierung in Python stark beschleunigt und die Workflows profitieren von der gebotenen Flexibilität. In der Web-Oberfläche mit hervorragender Usability können Fehlerbehebungen und Änderungen an den Workflows schnell umgesetzt werden.

Modernes Workflow-Management mit Apache Airflow 2.x

Die aktuelle Hauptversion von Apache Airflow bietet eine moderne Benutzeroberfläche und eine Vielzahl zeitgemäßer Funktionen:

  • Voll funktionsfähige REST-API mit zahlreichen Endpunkten für die Zwei-Wege-Integration von Airflow in verschiedene Systeme wie SAP BW
  • Funktionale Definition von Workflows zur Implementierung von Datenpipelines und verbesserter Datenaustausch zwischen Aufgaben im Workflow mit der TaskFlow-API
  • Just-in-time-Planung auf der Grundlage der Erkennung von Änderungen oder der Verfügbarkeit der erforderlichen Datenelemente
  • Dynamische Aufgabenerstellung und Skalierung auf Basis von Metriken des aktuellen Datenflusses
  • Verbesserte Überwachung der Geschäftslogik durch Integration mit Data-Observability-Frameworks
  • Erhöhte Benutzerfreundlichkeit in vielen Bereichen (vereinfachter Kubernetes-Operator, wiederverwendbare Aufgabengruppen, automatische Aktualisierung der Weboberfläche)
Apache Airflow_2

 

Apache Airflow im Tagesgeschäft

Icon_Datenübertragung

Automatische Dateiübertragung

Durch die Vielzahl von Integrationen zu anderen Systemen kann der Transfer von Daten und Dateien einfach realisiert werden. Über so genannte Sensoren werden in regelmäßigen Abständen Startbedingungen wie das Vorhandensein einer Datei überprüft. So kann beispielsweise eine CSV-Datei aus dem Cloud-Service in eine Datenbank geladen werden. Auf diese Weise können unnötige manuelle Arbeiten automatisiert werden.


Icon_Automatisierung

Ansteuerung von externen Prozessketten über API

Auch wenn es keinen einfachen Weg zur Systemintegration per Task-Operator gibt (und die Community noch keine Lösung bereitgestellt hat), ist die Anbindung über APIs und HTTP-Requests jederzeit möglich. So kann z.B. eine Prozesskette im SAP BW synchron gestartet und verfolgt werden. Umgekehrt ist die Systemintegration über Airflows hervorragende API problemlos möglich.

Icon_Projekt

Ausführen von ETL-Workflows

Ihr Datenmanagement wird am meisten von Apache Airflow profitieren. Noch nie war es so einfach, unterschiedliche strukturierte Datenquellen in einer Zieltabelle zusammenzuführen. Ursprünglich wurde Airflow speziell für die Bedürfnisse von Extract-Transform-Load (ETL) Workflows entwickelt und bietet intelligente Konzepte wie wiederverwendbare Workflow-Teile, um auch komplexe Workflows schnell und robust zu erstellen.


Icon_MachineLearning

Machine Learning Prozesse implementieren

Nicht nur bei der Entwicklung einer Machine Learning Anwendung gibt es viele Prozesse, die idealerweise als Workflow implementiert werden. Auch die produktive Ausführung eines Modells kann als Workflow implementiert werden und so z.B. aktuelle Prognosedaten in festen Intervallen bereitstellen. Die Datenaufbereitung und das Training der aktuellen Modellversion kann mit Airflow einfach realisiert werden.

 Sie haben Fragen oder benötigen Unterstützung für Ihr nächstes Projekt?

 
Wir stehen Ihnen als erfahrener Projektpartner zur Seite und unterstützen Sie dabei, Datenprobleme – von der Integration bis zum Einsatz von Machine-Learning-Modellen – effektiv zu lösen.

Unsere Dienstleistungen:

  • Betrieb
  • Implementierung
  • Entwicklungspartner in der Cloud oder vor Ort
  • Unternehmensunterstützung
  • Maßgeschneiderte Dienstleistungen

Möchten Sie mehr über Machine Learning erfahren?

In unserem Blog finden Sie weitere interessante Artikel zu diesem Thema

Business Data Cloud - What is it all about?

Yesterday we saw SAP present their long awaited announcement at the SAP Business Unleashed 2025...

Business Data Cloud - What is it all about?

Data Platform Architecture with SAP Datasphere & Databricks

As digitalization advances, the amount of data that companies have to process is growing, along...

Data Platform Architecture with SAP Datasphere & Databricks

Ingesting Data into Databricks Unity Catalog via Apache Airflow with Daft

Openness at the core of the Data Lakehouse

Data Lakehouse is the future architectural pattern to...

Ingesting Data into Databricks Unity Catalog via Apache Airflow with Daft
Inhaltsverzeichnis
Gender Hinweis Aufgrund der besseren Lesbarkeit wird im Text das generische Maskulinum verwendet. Gemeint sind jedoch immer alle Menschen.
Whitepaper Weiteres Blogartikel