Skip to content
NextLytics
Megamenü_2023_Über-uns

Shaping Business Intelligence

Ob clevere Zusatzprodukte für SAP BI, Entwicklung aussagekräftiger Dashboards oder Implementierung KI-basierter Anwendungen - wir gestalten zusammen mit Ihnen die Zukunft von Business Intelligence. 

Megamenü_2023_Über-uns_1

Über uns

Als Partner mit tiefem Prozess-Know-how, Wissen der neuesten SAP-Technologien sowie hoher sozialer Kompetenz und langjähriger Projekterfahrung gestalten wir die Zukunft von Business Intelligence auch in Ihrem Unternehmen.

Megamenü_2023_Methodik

Unsere Methodik

Die Mischung aus klassischem Wasserfallmodell und agiler Methodik garantiert unseren Projekten eine hohe Effizienz und Zufriedenheit auf beiden Seiten. Erfahren Sie mehr über unsere Vorgehensweise.

Produkte
Megamenü_2023_NextTables

NextTables

Daten in SAP BW out of the Box bearbeiten: Mit NextTables wird das Editieren von Tabellen einfacher, schneller und intuitiver, egal ob Sie SAP BW on HANA, SAP S/4HANA oder SAP BW 4/HANA nutzen.

Megamenü_2023_Connector

NextLytics Connectoren

Die zunehmende Automatisierung von Prozessen erfordert die Konnektivität von IT-Systemen. Die NextLytics Connectoren ermöglichen eine Verbindung Ihres SAP Ökosystems mit diversen open-source Technologien.

IT-Services
Megamenü_2023_Data-Science

Data Science & Engineering

Bereit für die Zukunft? Als starker Partner stehen wir Ihnen bei der Konzeption, Umsetzung und Optimierung Ihrer KI-Anwendung zur Seite.

Megamenü_2023_Planning

SAP Planning

Wir gestalten neue Planungsanwendungen mithilfe von SAP BPC Embedded, IP oder  SAC Planning, die einen Mehrwert für Ihr Unternehmen schaffen.

Megamenü_2023_Dashboarding

Dashboarding

Mit unserer Expertise verhelfen wir Ihnen auf Basis von Tableau, Power BI, SAP Analytics Cloud oder SAP Lumira zu aussagekräftigen Dashboards. 

Megamenü_2023_Data-Warehouse-1

SAP Data Warehouse

Planen Sie eine Migration auf SAP HANA? Wir zeigen Ihnen, welche Herausforderungen zu beachten sind und welche Vorteile eine Migration bringt.

Business Analytics
Megamenü_2023_Procurement

Procurement Analytics

Transparente und valide Zahlen sind vor allem in Unternehmen mit dezentraler Struktur wichtig. SAP Procurement Analytics ermöglicht die Auswertung von SAP ERP-Daten in SAP BI.

Megamenü_2023_Reporting

SAP HR Reporting & Analytics

Mit unserem Standardmodell für Reporting von SAP HCM mit SAP BW beschleunigen Sie administrative Tätigkeiten und stellen Daten aus verschiedenen Systemen zentral und valide zur Verfügung.

Megamenü_2023_Dataquality

Data Quality Management

In Zeiten von Big Data und IoT kommt der Vorhaltung einer hohen Datenqualität eine enorm wichtige Bedeutung zu. Mit unserer Lösung für Datenqualitätsmanagement (DQM) behalten Sie stets den Überblick.

Karriere
Megamenü_2023_Karriere-2b

Arbeiten bei NextLytics

Wenn Du mit Freude zur Arbeit gehen möchtest und dabei Deine berufliche und persönliche Weiterentwicklung nicht zu kurz kommen soll, dann bist Du bei uns genau richtig! 

Megamenü_2023_Karriere-1

Berufserfahrene

Zeit für etwas Neues? Gehe Deinen nächsten beruflichen Schritt und gestalte Innovation und Wachstum in einem spannenden Umfeld zusammen mit uns!

Megamenü_2023_Karriere-5

Berufseinsteigende

Schluss mit grauer Theorie - Zeit, die farbenfrohe Praxis kennenzulernen! Gestalte bei uns Deinen Einstieg ins Berufsleben mit lehrreichen Projekten und Freude an der Arbeit.

Megamenü_2023_Karriere-4-1

Studierende

Du möchtest nicht bloß die Theorie studieren, sondern Dich gleichzeitig auch praktisch von ihr überzeugen? Teste mit uns Theorie und Praxis und erlebe wo sich Unterschiede zeigen.

Megamenü_2023_Karriere-3

Offene Stellen

Hier findest Du alle offenen Stellenangebote. Schau Dich um und bewirb Dich - wir freuen uns! Falls keine passende Stelle dabei ist, sende uns gerne Deine Initiativbewerbung zu.

Blog
NextLytics Newsletter Teaser
Hier für unseren monatlichen Newsletter anmelden!
Newsletter abonnieren
 

Apache Airflow 2.0 - Neue Funktionen für Ihr Workflowmanagement

Pünktlich zum Jahresabschluss kommt das herbeigesehnte Major Update der Workflowmanagement-Plattform Airflow. Mit Apache Airflow 2.0 werden langjährige Benutzer durch eine noch schnellere Ausführung ihrer Workflows belohnt und Neueinsteiger profitieren an vielen Stellen von der gesteigerten Benutzerfreundlichkeit. Dabei bleibt die Open-Source Workflowmanagement-Plattform mit der hervorragenden Skalierbarkeit unter der Apache Lizenz stets kostenlos nutzbar.

In diesem Artikel präsentieren wir Ihnen die wichtigsten Neuerungen und helfen Ihnen zu einem State of the Art Workflowmanagement. Falls Sie Apache Airflow gerne von Grund auf kennenlernen wollen, empfehlen wir Ihnen die Lektüre unseres Whitepapers "Effektives Workflowmanagement mit Apache Airflow 2.0". Dort werden die wichtigsten Konzepte näher erklärt und Sie erhalten praktische Anwendungsideen bezüglich der neuen Funktionen im Major Release.

 

Was ist Apache Airflow?

Vorab eine Zusammenfassung der wichtigsten Ideen der Workflowmanagement-Plattform. In Airflow dreht sich alles um Workflow-Objekte. Diese sind technisch als gerichtete, nicht zyklische Graphen (directed acyclic graph - DAG) implementiert. Ein solcher Workflow kann beispielsweise das Zusammenführen mehrerer Datenquellen und das anschließende Ausführen eines Analyseskriptes beinhalten. Airflow übernimmt dabei die Terminierung der Aufgaben unter Beachtung der Abhängigkeiten und orchestriert die beteiligten Systeme. Die Integrationen zu Amazon S3, Apache Spark, Google BigQuery, Azure Data Lake und vielen Weiteren sind direkt in der offiziellen Installation enthalten oder sind über produktionsreife Beiträge der Community ergänzt.

Die Hauptfunktionen von Apache Airflow sind:

  • Definieren, Ausführen und Überwachen von Workflows
  • Orchestrierung von Drittsystemen zur Ausführung von Aufgaben
  • Bereitstellen einer Web-Oberfläche für eine ausgezeichnete Übersicht und umfassende Verwaltungsfunktionen

Moderne Benutzeroberfläche

Im Gegensatz zu anderen Open-Source-Tools ist die Weboberfläche von Apache Airflow keine vernachlässigte Begleiterscheinung. Die grafische Oberfläche leitet den Anwender durch administrative Aufgaben wie die Verwaltung von Workflows und auch das Benutzermanagement. Zahlreiche Visualisierungen des Aufbaus eines Workflows und der zeitlichen Evaluation der Ausführungszeiten bieten seit jeher eine gute Übersicht über den aktuellen Status der Workflowläufe.

In der neuen Benutzeroberfläche von Apache Airflow 2.0 - im leichtgewichtigen Design - tauchen selten genutzte Funktionen in den Hintergrund und schaffen Platz für mehr Übersichtlichkeit. Beispielsweise ist das Pausieren, Starten und Löschen eines Workflows direkt von der Startseite aus möglich, während das detaillierte Monitoring und die Codeansicht in ein Kontextmenü rücken.

Startmenü Apache Airflow 2.0
Screenshot des Startmenüs in Apache Airflow 2.0

 

Ein weiteres Highlight der grafischen Benutzeroberfläche ist die Auto-Refresh-Option, die das Live-Monitoring wesentlich angenehmer gestaltet.

Airflow API

Auch die Programmierschnittstelle zu Airflow darf sich über ein Upgrade freuen. In der neuen Version ist diese aus dem experimentellen Status herausgewachsen. Zwar bleibt die alte Schnittstelle vorerst aktiv, jedoch lohnt sich der Blick in die neue API dank vieler zusätzlicher Funktionen mit durchgängiger OpenAPI Spezifikation. Insgesamt werden alle Funktionen der Weboberfläche des experimentellen Vorgängers und typische Funktionen des Command-Line-Interfaces abgedeckt. Während der Entwicklung standen auch Sicherheitsaspekte im Vordergrund und das Rechtemanagement rund um die API und die Weboberfläche wurde vereinheitlicht.

Verbesserte Geschwindigkeit des Schedulers

Eine architektonisch tiefgreifende Änderung im neuen Major Release betrifft die Scheduler Komponente. Der Scheduler überwacht alle Workflows und die darin enthaltenen Aufgaben und startet diese sobald der Zeitpunkt gekommen ist und interne Abhängigkeiten erfüllt sind.

In der Community besteht seit langen die Forderungen nach einer gesteigerten Performance. Diese wird endlich erfüllt. Der neue Scheduler überzeugt mit einer enormen Geschwindigkeitsverbesserung und der Möglichkeit, mehrere Scheduler-Instanzen in einem active/active Modell zu betreiben. Damit wurde die Erreichbarkeit und die Ausfallsicherheit in diesem Zuge ebenfalls erhöht.


Optimieren Sie Ihr Workflowmanagement

mit Apache Airflow  

NextLyitcs Whitepaper Apache Airflow DE



Wiederverwenden von Teilen des Workflows mit TaskGroups

Wiederverwendbare Codeteile sorgen für Effektivität in der Programmierung und verbessern die Wartbarkeit. Im vorherigen Konzept der SubDAGs konnten diese Vorteile genutzt werden, jedoch nur mit negativen Auswirkungen auf die Performance. Eingebundene Workflowteile unterstützten keine parallele Ausführung und wurden deshalb seltener als gewollt eingesetzt. In Airflow 2.0 steht dasselbe Konzept ohne Nachteile unter dem Begriff TaskGroups bereit.

Verschachtelte Darstellung der TaskGroups in der Airflow Oberfläche

Verschachtelte Darstellung der TaskGroups in der Airflow Oberfläche

 

TaskFlow API

Mit der Programmiersprache Python werden die Workflows leicht angelegt. Neben der Definition von Aufgaben und deren Abhängigkeiten (ergo der Konkretisierung des Workflows selbst), können auch einzelne Python-Funktionen als Workflowschritt ausgeführt werden. Dafür wird die Aufgabe mit dem sogenannten PythonOperator spezifiziert.

Werden mehrere Python-Operatoren nacheinander verwendet, sind diese nun besser verknüpfbar und können leichter den Output der vorhergehenden Funktion nutzen. Die Zuordnung des Outputs erfolgt automatisch im Hintergrund - auch auf verteilten Systemen - und die Aufgabenreihenfolge wird implizit abgeleitet statt explizit gefordert zu sein.

Beispielhafter Workflow mit drei Python Funktionen hintereinander
Beispielhafter Workflow mit drei Python Funktionen hintereinander

 

Smart Sensor

In Apache Airflow werden Aufgaben sequenziell ausgeführt. Dabei gibt es Fälle, in denen es sinnvoll ist, die Ausführung des Workflows vorübergehend zu unterbrechen, wenn bestimmte Bedingungen (z. B. Daten vorhanden) nicht erfüllt sind. Das geschieht durch die sogenannten Sensoren. Diese prüfen in festen Intervallen verschiedenste Voraussetzungen und setzen den Workflow erst nach Erfüllung dieser fort. Bei übermäßiger Nutzung binden die Sensoren jedoch einen wesentlichen Teil der verfügbaren Ressourcen im Airflow Cluster mit ihren häufigen Abfragen.
Im neuen Modus Smart Sensors werden die Sensoren gebündelt ausgeführt und verbrauchen deshalb weniger Ressourcen. Das early-access Feature wurde bereits ausgiebig getestet, jedoch kann es zu Kompatibilitätsproblemen in zukünftigen Versionen kommen, falls ungeplante strukturelle Änderungen auftreten.

Neben den vorgestellten Änderungen wurden auch weitere Schritte zur Steigerung der Benutzerfreundlichkeit unternommen. Beispielsweise wurde die Ausführung von Airflow in einem Kubernetes-Cluster vereinfacht und optimiert.

Unser Fazit - Apache Airflow 2.0

Es gibt viele gute Gründe für den Einsatz von Apache Airflow 2.0. - nutzen Sie das Potential des neuen Major Release!
Falls Sie Unterstützung bei der passgenauen Konfiguration benötigen oder Ihre bestehende Installation upgraden wollen, nehmen Sie gerne Kontakt mit uns auf. Wir geben unser Wissen ebenfalls in praxisnahen Workshops weiter - sprechen Sie uns gerne jederzeit an!

Erfahren Sie mehr über Apache Airflow

,

avatar

Luise Wiesalla

Luise Wiesalla ist seit 2019 als Werkstudentin / studentische Beraterin im Bereich Data Analytics und Machine Learning bei der NextLytics AG tätig. Sie hat Erfahrung mit Full-Stack-Data-Science-Projekten und dem Einsatz der open-source Workflow-Management-Lösung Apache Airflow. Ihre Freizeit verbringt sie gerne damit, ihre Umgebung zu erkunden und in Bewegung zu sein.

Sie haben eine Frage zum Blog?
Fragen Sie Luise Wiesalla

Gender Hinweis Aufgrund der besseren Lesbarkeit wird im Text das generische Maskulinum verwendet. Gemeint sind jedoch immer alle Menschen.

Blog - NextLytics AG 

Welcome to our blog. In this section we regularly report on news and background information on topics such as SAP Business Intelligence (BI), SAP Dashboarding with Lumira Designer or SAP Analytics Cloud, Machine Learning with SAP BW, Data Science and Planning with SAP Business Planning and Consolidation (BPC), SAP Integrated Planning (IP) and SAC Planning and much more.

Informieren Sie mich über Neuigkeiten

Verwandte Beiträge

Letzte Beiträge