// all eon closed by default on whole website

Neue Partnerschaft bringt State-of-the-Art ML in die Business Data Cloud

Machine Learning mit SAP Databricks

Neue Möglichkeiten mit SAP Daten

Partnerschaft zweier Powerhouses

Die Partnerschaft zwischen SAP und Databricks bringt zwei Welten zusammen, Geschäftsdaten aus SAP-Systemen und die moderne Analytics- und Machine Learning Infrastruktur von Databricks. Beide Unternehmen sind führend auf ihrem Gebiet, was diese Symbiose für Kunden sehr attraktiv macht. Databricks ist nun direkt eingebettet in die dieses Jahr gestartete SAP Business Data Cloud, was die Nutzung von Databricks Funktionen im SAP Kontext einfacher denn je macht. Doch was können Unternehmen mit SAP Databricks nun genau erreichen?

Features und Vorteile

Das bringt Databricks

Notebooks
MLFlow
AutoML

Mit SAP Databricks kommt die bekannte Databricks Ul: Notebooks. Jupyter Notebooks sind der von vielen Data Scientists und Engineers bevorzugte Weg um mit Daten zu arbeiten. Notebooks erlauben es in Codefeldern mit Python/R/SQL zu arbeiten und dazwischen erklärenden Text zu schreiben oder Grafiken zu erstellen.

Dank der modularen Struktur eines Notebooks muss nicht immer der gesamte Code ausgeführt werden, was das Entwickeln und Testen von Code erleichtert. Durch das Arbeiten mit Python können auch externe Libraries wie Scikit-learn oder Matplotlib verwendet werden um die Auswahl an Funktionen und Algorithmen weiter zu erhöhen.

Features wie Code-Completion oder ein Al-Copilot zum Generieren von Code erleichtern und beschleunigen das Arbeiten mit Notebooks enorm.

End-to-End-Verwaltung des Machine-Learning-Lebenszyklus – vom Experimentieren über das Tracking bis zum Deployment. Dazu gehören

MLFlow Tracking

  • Protokollieren von Abfrageexperimenten: Code, Daten, Konfiguration
  • Metriken protokollieren und für Leistungskennzahlen vergleichen
  • Ausgabeartefakte wie trainierte Modelle und Diagramme speichern und verwalten
  • Quellcode der Modelle aus dem Durchlauf speichern

MLFlow Projects

  • Verpackungsformat für reproduzierbare Ausführungen auf jeder Plattform
  • Verpackung des gesamten Projekts und seiner Abhängigkeiten
  • Reproduzierbarkeit
  • Einfache Ausführung
  • Versionierung und Teilen

MLFlow models

Modell Format das verschiedene Deployment Tools unterstützt

MLFlow model registry

Zentralisiertes und kooperatives Model Lifecycle Management

Ähnlich zu anderen AutoML Lösungen kann mit Databricks AutoML in kurzer Zeit ein Machine Learning Projekt gestartet werden. Anstatt alles selbst zu definieren und konfigurieren, wird ein Projekt erstellt und kann angepasst werden. Databricks AutoML bringt

  • Automatisch generierte Notebooks
  • Sicherstellung von Best Practices
  • Transparente Lösung —> Der gesamte Code ist sichtbar

Nahtlose Zusammenarbeit mit der SAP Datasphere

BDC Integration macht Databricks zur wohl besten ML Möglichkeit

Dank der engen Integration mit SAP Datasphere lassen sich SAP-Datenmodelle samt ihrer Business-Semantik sicher und kontrolliert in Databricks verfügbar machen – ohne komplexe Datenextraktionen oder manuelle Zwischenschritte. Unternehmen profitieren dadurch von:

  • Einheitlichen Datenmodellen: SAP-Daten werden inklusive Kontext (z. B. Zeitreihenlogik, Währungen, Hierarchien) übergeben.
  • Data Governance: Zugriff und Berechtigungen werden über Datasphere zentral gesteuert.
  • Aktualität und Konsistenz: Analysen und ML-Modelle basieren stets auf aktuellen und konsistenten SAP-Daten – ideal für operative Entscheidungen.

Databricks bringt Geschwindigkeit, Flexibilität und moderne ML-Infrastruktur – SAP sorgt für Datenqualität, Kontext und Governance. Gemeinsam schaffen sie eine Plattform, die sowohl Data Scientists als auch Fachbereiche in die Lage versetzt, datengetriebenes Arbeiten neu zu denken.

Das macht die Integration so stark

Kontext und technische Strukturen bleiben erhalten

Data Products

Über die SAP Datasphere lassen sich kuratierte Data Products definieren, die nicht nur die reinen Daten, sondern auch deren Kontext, Struktur und Geschäftslogik enthalten. Diese Data Products können über Delta Sharing direkt mit Databricks geteilt werden – inklusive aller relevanten Metadaten. Das gewährleistet konsistente Analysen und beschleunigt die Entwicklung von Machine-Learning-Modellen.

Nahtlose Datenbrücke zwischen Datasphere und Databricks

Delta Sharing

Delta Sharing ermöglicht es, Data Products aus der SAP Datasphere direkt und kontrolliert mit Databricks zu teilen – und umgekehrt. So lassen sich Daten ohne redundante Kopien austauschen. Unternehmen können ihre Daten nahtlos in Databricks mit moderner Data Science anreichern – mit Analysen, Machine Learning und KI-gestützten Anwendungen.

Beispiel Workflow

Training von Machine Learning Modellen

Von der Idee bis zur produktiven Anwendung

ML-Workflows mit Databricks

Databricks bietet eine durchgängige Umgebung für den kompletten Lebenszyklus von Machine Learning – von der ersten Datenexploration über das Modelltraining bis hin zum produktiven Einsatz. Besonders im Zusammenspiel mit MLflow, der integrierten Open-Source-Plattform für ML-Operations, lassen sich Machine-Learning-Prozesse strukturiert, reproduzierbar und skalierbar gestalten.

1. Modelltraining: Flexibilität trifft Rechenpower

Data Scientists können in Databricks-Notebooks mit Python, R oder Scala arbeiten und dabei auf Spark-basierte Datenpipelines zugreifen. Dadurch lassen sich selbst große SAP-Datenmengen effizient verarbeiten und für das Modelltraining nutzen – sei es für Regression, Klassifikation oder Deep Learning. Dank GPU-Unterstützung und automatisierter Cluster-Verwaltung ist das Training auch rechenintensiver Modelle kein Problem.

2. Modell-Tracking mit MLflow

Jeder Trainingslauf kann mit MLflow Tracking versioniert, dokumentiert und verglichen werden – inklusive Hyperparametern, Metriken, Modellen und Datenpfaden. So behalten Teams auch bei vielen Iterationen und Teammitgliedern jederzeit den Überblick. Das erleichtert die Auswahl des besten Modells und schafft Nachvollziehbarkeit – ein Muss für produktive ML-Prozesse.

3. Modellbereitstellung (Serving)

Sobald ein Modell produktionsreif ist, kann es mit wenigen Klicks in MLflow Models deployed werden – z. B. als REST-API, für Echtzeit-Scoring oder Batch-Prozesse. Optional lassen sich Modelle auch in Model Registries verwalten, versionieren und mit Freigabeprozessen versehen. So wird Machine Learning nicht nur entwickelt, sondern stabil in Geschäftsprozesse integriert.

SAP Databricks bietet einen professionellen ML-Workflow „end-to-end“ – vom Datenzugriff über die Modellentwicklung bis hin zur produktiven Bereitstellung. Durch die Verbindung mit SAP-Daten über Datasphere entsteht ein leistungsstarker, praxisnaher Ansatz für moderne Data Science im Unternehmen.

Wenn SAP-Daten auf moderne Data Science treffen

Typische Use Cases mit Databricks

Fazit

Mehrwert der SAP × Databricks-Integration

Mit dem Delta Share Protokoll verbinden SAP und Databricks das Beste aus zwei Welten:
Die zuverlässige, kontextreiche Datenhaltung der SAP Datasphere und die Offenheit sowie Leistungsfähigkeit der Databricks Lakehouse-Architektur. Unternehmen profitieren von einem durchgängigen, skalierbaren und sicheren Workflow – von der ERP-Quelle bis zum produktiven Machine-Learning-Modell.

  • + Keine redundanten Exporte oder Kopien – Daten werden kontrolliert und ohne Medienbrüche geteilt
  • + Business-Semantik bleibt erhalten – klar definierte Modelle werden nahtlos weitergegeben
  • + Moderne Analyse- und ML-Tools – volle Unterstützung von Apache Spark, Delta Lake und MLflow
  • + Schneller Projektstart – Data Scientists können direkt mit SAP-Daten arbeiten, ohne zusätzliche Extraktionslogik

Diese enge Integration macht datengetriebene Innovation einfacher, schneller und sicherer – und schafft die Grundlage für nachhaltigen Geschäftserfolg.

Databricks Discovery Session anfragen

Weitere Fragen?

  • Erhalten Sie Einblicke in die Umgebung von (SAP) Databricks
  • Lernen Sie mögliche Use Cases kennen
  • Diskutieren Sie mit unseren Experten, die Einbindung in Ihre SAP Business Data Cloud Strategie

Entdecken Sie weitere Insights zum Thema

Insights zum Weiterlesen

SAP AI Core

SAP AI Core ist die zentrale Infrastrukturkomponente innerhalb der SAP Business Technology Platform (BTP) für den produktiven Einsatz von Machine-Learning-Modellen. Erfah...

SAP Analytics Cloud Smart Predict

SAP Analytics Cloud (SAC) ist die zentrale Plattform für Reporting, Planung und Analyse im SAP-Umfeld. Neben klassischen BI-Funktionalitäten bietet sie mit Smart Predict ...

Machine Learning mit SAP Databricks

Erfahren Sie, wie SAP Databricks Unternehmen ermöglicht, moderne Machine-Learning-Modelle direkt auf ihren SAP-Daten zu entwickeln, zu trainieren und zu operationalisiere...

SAP HANA ML

SAP HANA ML steht für Machine Learning direkt auf der SAP HANA-Datenbank – ohne Datenreplikation, ohne Medienbruch und ohne externe Analyseumgebungen.

SAP AI Core

SAP AI Core ist die zentrale Infrastrukturkomponente innerhalb der SAP Business Technology Platform (BTP) für den produktiven Einsatz von Machine-Learning-Modellen. Erfah...

SAP Analytics Cloud Smart Predict

SAP Analytics Cloud (SAC) ist die zentrale Plattform für Reporting, Planung und Analyse im SAP-Umfeld. Neben klassischen BI-Funktionalitäten bietet sie mit Smart Predict ...

Machine Learning mit SAP Databricks

Erfahren Sie, wie SAP Databricks Unternehmen ermöglicht, moderne Machine-Learning-Modelle direkt auf ihren SAP-Daten zu entwickeln, zu trainieren und zu operationalisiere...

SAP HANA ML

SAP HANA ML steht für Machine Learning direkt auf der SAP HANA-Datenbank – ohne Datenreplikation, ohne Medienbruch und ohne externe Analyseumgebungen.

Machine Learning mit SAP Databricks

Erfahren Sie, wie SAP Databricks Unternehmen ermöglicht, moderne Machine-Learning-Modelle direkt auf ihren SAP-Daten zu entwickeln, zu trainieren und zu operationalisiere...