Neue Möglichkeiten mit SAP Daten
Partnerschaft zweier Powerhouses
Die Partnerschaft zwischen SAP und Databricks bringt zwei Welten zusammen, Geschäftsdaten aus SAP-Systemen und die moderne Analytics- und Machine Learning Infrastruktur von Databricks. Beide Unternehmen sind führend auf ihrem Gebiet, was diese Symbiose für Kunden sehr attraktiv macht. Databricks ist nun direkt eingebettet in die dieses Jahr gestartete SAP Business Data Cloud, was die Nutzung von Databricks Funktionen im SAP Kontext einfacher denn je macht. Doch was können Unternehmen mit SAP Databricks nun genau erreichen?
Features und Vorteile
Das bringt Databricks
Mit SAP Databricks kommt die bekannte Databricks Ul: Notebooks. Jupyter Notebooks sind der von vielen Data Scientists und Engineers bevorzugte Weg um mit Daten zu arbeiten. Notebooks erlauben es in Codefeldern mit Python/R/SQL zu arbeiten und dazwischen erklärenden Text zu schreiben oder Grafiken zu erstellen.
Dank der modularen Struktur eines Notebooks muss nicht immer der gesamte Code ausgeführt werden, was das Entwickeln und Testen von Code erleichtert. Durch das Arbeiten mit Python können auch externe Libraries wie Scikit-learn oder Matplotlib verwendet werden um die Auswahl an Funktionen und Algorithmen weiter zu erhöhen.
Features wie Code-Completion oder ein Al-Copilot zum Generieren von Code erleichtern und beschleunigen das Arbeiten mit Notebooks enorm.
End-to-End-Verwaltung des Machine-Learning-Lebenszyklus – vom Experimentieren über das Tracking bis zum Deployment. Dazu gehören
MLFlow Tracking
- Protokollieren von Abfrageexperimenten: Code, Daten, Konfiguration
- Metriken protokollieren und für Leistungskennzahlen vergleichen
- Ausgabeartefakte wie trainierte Modelle und Diagramme speichern und verwalten
- Quellcode der Modelle aus dem Durchlauf speichern
MLFlow Projects
- Verpackungsformat für reproduzierbare Ausführungen auf jeder Plattform
- Verpackung des gesamten Projekts und seiner Abhängigkeiten
- Reproduzierbarkeit
- Einfache Ausführung
- Versionierung und Teilen
MLFlow models
Modell Format das verschiedene Deployment Tools unterstützt
MLFlow model registry
Zentralisiertes und kooperatives Model Lifecycle Management
Ähnlich zu anderen AutoML Lösungen kann mit Databricks AutoML in kurzer Zeit ein Machine Learning Projekt gestartet werden. Anstatt alles selbst zu definieren und konfigurieren, wird ein Projekt erstellt und kann angepasst werden. Databricks AutoML bringt
- Automatisch generierte Notebooks
- Sicherstellung von Best Practices
- Transparente Lösung —> Der gesamte Code ist sichtbar
Nahtlose Zusammenarbeit mit der SAP Datasphere
BDC Integration macht Databricks zur wohl besten ML Möglichkeit
Dank der engen Integration mit SAP Datasphere lassen sich SAP-Datenmodelle samt ihrer Business-Semantik sicher und kontrolliert in Databricks verfügbar machen – ohne komplexe Datenextraktionen oder manuelle Zwischenschritte. Unternehmen profitieren dadurch von:
- Einheitlichen Datenmodellen: SAP-Daten werden inklusive Kontext (z. B. Zeitreihenlogik, Währungen, Hierarchien) übergeben.
- Data Governance: Zugriff und Berechtigungen werden über Datasphere zentral gesteuert.
- Aktualität und Konsistenz: Analysen und ML-Modelle basieren stets auf aktuellen und konsistenten SAP-Daten – ideal für operative Entscheidungen.
Databricks bringt Geschwindigkeit, Flexibilität und moderne ML-Infrastruktur – SAP sorgt für Datenqualität, Kontext und Governance. Gemeinsam schaffen sie eine Plattform, die sowohl Data Scientists als auch Fachbereiche in die Lage versetzt, datengetriebenes Arbeiten neu zu denken.
Das macht die Integration so stark
Kontext und technische Strukturen bleiben erhalten
Data Products
Über die SAP Datasphere lassen sich kuratierte Data Products definieren, die nicht nur die reinen Daten, sondern auch deren Kontext, Struktur und Geschäftslogik enthalten. Diese Data Products können über Delta Sharing direkt mit Databricks geteilt werden – inklusive aller relevanten Metadaten. Das gewährleistet konsistente Analysen und beschleunigt die Entwicklung von Machine-Learning-Modellen.
Nahtlose Datenbrücke zwischen Datasphere und Databricks
Delta Sharing
Delta Sharing ermöglicht es, Data Products aus der SAP Datasphere direkt und kontrolliert mit Databricks zu teilen – und umgekehrt. So lassen sich Daten ohne redundante Kopien austauschen. Unternehmen können ihre Daten nahtlos in Databricks mit moderner Data Science anreichern – mit Analysen, Machine Learning und KI-gestützten Anwendungen.
Beispiel Workflow
Training von Machine Learning Modellen
Von der Idee bis zur produktiven Anwendung
ML-Workflows mit Databricks
Databricks bietet eine durchgängige Umgebung für den kompletten Lebenszyklus von Machine Learning – von der ersten Datenexploration über das Modelltraining bis hin zum produktiven Einsatz. Besonders im Zusammenspiel mit MLflow, der integrierten Open-Source-Plattform für ML-Operations, lassen sich Machine-Learning-Prozesse strukturiert, reproduzierbar und skalierbar gestalten.
1. Modelltraining: Flexibilität trifft Rechenpower
Data Scientists können in Databricks-Notebooks mit Python, R oder Scala arbeiten und dabei auf Spark-basierte Datenpipelines zugreifen. Dadurch lassen sich selbst große SAP-Datenmengen effizient verarbeiten und für das Modelltraining nutzen – sei es für Regression, Klassifikation oder Deep Learning. Dank GPU-Unterstützung und automatisierter Cluster-Verwaltung ist das Training auch rechenintensiver Modelle kein Problem.
2. Modell-Tracking mit MLflow
Jeder Trainingslauf kann mit MLflow Tracking versioniert, dokumentiert und verglichen werden – inklusive Hyperparametern, Metriken, Modellen und Datenpfaden. So behalten Teams auch bei vielen Iterationen und Teammitgliedern jederzeit den Überblick. Das erleichtert die Auswahl des besten Modells und schafft Nachvollziehbarkeit – ein Muss für produktive ML-Prozesse.
3. Modellbereitstellung (Serving)
Sobald ein Modell produktionsreif ist, kann es mit wenigen Klicks in MLflow Models deployed werden – z. B. als REST-API, für Echtzeit-Scoring oder Batch-Prozesse. Optional lassen sich Modelle auch in Model Registries verwalten, versionieren und mit Freigabeprozessen versehen. So wird Machine Learning nicht nur entwickelt, sondern stabil in Geschäftsprozesse integriert.
SAP Databricks bietet einen professionellen ML-Workflow „end-to-end“ – vom Datenzugriff über die Modellentwicklung bis hin zur produktiven Bereitstellung. Durch die Verbindung mit SAP-Daten über Datasphere entsteht ein leistungsstarker, praxisnaher Ansatz für moderne Data Science im Unternehmen.
Wenn SAP-Daten auf moderne Data Science treffen
Typische Use Cases mit Databricks
Fazit
Mehrwert der SAP × Databricks-Integration
Mit dem Delta Share Protokoll verbinden SAP und Databricks das Beste aus zwei Welten:
Die zuverlässige, kontextreiche Datenhaltung der SAP Datasphere und die Offenheit sowie Leistungsfähigkeit der Databricks Lakehouse-Architektur. Unternehmen profitieren von einem durchgängigen, skalierbaren und sicheren Workflow – von der ERP-Quelle bis zum produktiven Machine-Learning-Modell.
- + Keine redundanten Exporte oder Kopien – Daten werden kontrolliert und ohne Medienbrüche geteilt
- + Business-Semantik bleibt erhalten – klar definierte Modelle werden nahtlos weitergegeben
- + Moderne Analyse- und ML-Tools – volle Unterstützung von Apache Spark, Delta Lake und MLflow
- + Schneller Projektstart – Data Scientists können direkt mit SAP-Daten arbeiten, ohne zusätzliche Extraktionslogik
Diese enge Integration macht datengetriebene Innovation einfacher, schneller und sicherer – und schafft die Grundlage für nachhaltigen Geschäftserfolg.
Databricks Discovery Session anfragen
Weitere Fragen?
- Erhalten Sie Einblicke in die Umgebung von (SAP) Databricks
- Lernen Sie mögliche Use Cases kennen
- Diskutieren Sie mit unseren Experten, die Einbindung in Ihre SAP Business Data Cloud Strategie