In einer zunehmend datengetriebenen Welt stoßen Unternehmen aller Branchen an Grenzen, wenn es darum geht, aus ihren Daten verwertbare Erkenntnisse zu gewinnen. Daten liegen verstreut in verschiedenen Systemen, werden mehrfach kopiert, und jeder Verarbeitungsschritt benötigt ein anderes Tool: ETL in Azure Data Factory, Analyse in Synapse, Reporting in Power BI – oft ohne durchgängige Sicherheits- oder Governance-Modelle. Diese Fragmentierung erzeugt nicht nur hohe Komplexität und Kosten, sondern auch lange „Time to Insights“. Mit Microsoft Fabric bringt Microsoft eine völlig neue Datenplattform auf den Markt, die den Anspruch erhebt, all diese Herausforderungen zu lösen – und das in einem vollständig integrierten, cloudnativen Software-as-a-Service (SaaS)-Modell.
Was ist Microsoft Fabric?
Microsoft Fabric ist eine End-to-End-Datenplattform, die nahezu alle Rollen im Datenlebenszyklus anspricht: Data Engineers, Data Scientists, Analysten, BI-Entwickler, IT-Sicherheit und Fachbereiche. Es kombiniert bestehende Technologien wie Azure Synapse, Power BI, Azure Data Factory, Azure Data Lake, Azure Stream Analytics und Azure Machine Learning in einem einzigen, durchgängig verwalteten SaaS-Dienst.
Anders als bisherige Plattformansätze bietet Microsoft Fabric:
- Eine zentrale Speicherstruktur (OneLake) für alle Workloads
- Eine gemeinsame Authentifizierung & Autorisierung für alle Komponenten (Microsoft Entra ID)
- Eine nahtlose Integration von Tools, ohne Datenbewegung oder Exporte
- Eine einheitliche Abrechnung pro Kapazität (z. B. F64, F128 etc.)
- Eine zentrale Verwaltungs- und Entwicklungsoberfläche über das Power BI-Portal

ein typischer Ablauf

OneLake: Das Fundament von Microsoft Fabric
Im Zentrum von Fabric steht OneLake – der „OneDrive für Daten“. OneLake ist ein globaler, mandantenweiter Data Lake, der alle Daten – strukturiert, semi-strukturiert und unstrukturiert – auf Basis von Delta-Parquet speichert.
Wichtige Merkmale:
- ADLS Gen2-basiert: bewährte, skalierbare Cloud-Storage-Technologie
- Strukturierte Daten in Delta Tables: Transaktionssicherheit (ACID), Time Travel, effiziente Leseperformance durch V-Order
- Shortcuts: Einbinden externer Quellen wie AWS S3, ADLS anderer Tenants oder lokale Filesysteme ohne Kopieren
- Mirroring: Realtime-Synchronisierung aus z. B. Azure SQL, Snowflake, MongoDB
Alle Workloads – Lakehouse, Data Warehouse, Dataflow, Real-Time Analytics, Machine Learning, Power BI – greifen konsistent auf OneLake zu. Damit entsteht ein einheitlicher Datenraum, der Silos eliminiert.
Die Workloads im Detail: Vom Ingest bis zur Analyse
Fabric besteht aus sogenannten Workloads, die spezifische Aufgaben im Datenlebenszyklus übernehmen. Alle greifen auf OneLake zu, arbeiten mit denselben Daten und können miteinander orchestriert werden:
1. Data Factory – Datenintegration und Orchestrierung
- Data Pipelines: klassische ETL/ELT-Steuerung (Copy Activities, Notebook-Execution, Stored Procedures, Bedingungen, Schleifen, Trigger)

- Dataflow Gen2: Power-Query-basierte visuelle Datenaufbereitung im Low-Code-Ansatz

- + über 200 Konnektoren für Cloud- und On-Premises-Systeme
2. Synapse Data Engineering – Codebasierte Transformationen
- Ausführung von Apache Spark Notebooks (PySpark, Scala, Spark SQL)
- Einsatz für große, komplexe Datenmengen mit programmatischer Flexibilität
- Spark Job Definitions und wiederverwendbare Libraries möglich
3. Synapse Data Science – Machine Learning integriert

- ML-Workflows mit Experiment → Model → Run-Struktur
- Notebooks für Feature Engineering, Modelltraining, Evaluierung
- Integration mit Azure ML für Modellregistry, Deployment, MLOps
- Modelle als Web-APIs zur Echtzeitvorhersage nutzbar
4. Synapse Data Warehousing – Strukturierte Analyse in Hochgeschwindigkeit

- Polaris MPP Engine: Spaltenbasiertes, in-memory-verteiltes System
- ACID-konforme Delta-Parquet Tabellen im Hintergrund
- Vollständige T-SQL-Unterstützung: Views, Joins, Stored Procedures, CTAS, INSERT-SELECT etc.
- Nutzung durch Power BI, SSMS, Azure Data Studio, Drittanbieter-Tools via SQL Endpoint (TDS-Protokoll)
5. Synapse Real-Time Analytics – Beobachtungsdaten in Echtzeit
- Stream-Analyse aus IoT-Geräten, Logs, Clickstreams
- Hochperformante Query Engine mit Kusto Query Language (KQL)
- Einsatzfälle: Fraud Detection, Telemetrie, Monitoring, Alerting
6. Power BI – Visualisierung und Distribution

- Vollständig in Fabric integriert, kein separates Deployment notwendig
- Reports (interaktiv), Dashboards (KPI-Übersichten), Paginated Reports (druckbare Formulare)
- Power BI Apps als Container für gruppierte Inhalte (inkl. Rollensteuerung)
- Anbindung über Direct Query, Import oder Direct Lake (ohne Zwischenspeicherung!)
7. Data Activator – Ereignisgesteuerte Automatisierung

- Überwachung von Daten auf definierte Muster, Schwellen oder Anomalien
- Automatisches Auslösen von Aktionen: E-Mails, Teams-Nachrichten, Power Automate Flows
- Einsatz für Monitoring von Logistikketten, SLAs, Messdaten u. v. m.
Lakehouse vs. Data Warehouse – Gemeinsamkeiten und Unterschiede
Merkmal | Lakehouse | Data Warehouse |
---|---|---|
Speicherformat | Delta-Parquet | Delta-Parquet |
Zugriffstechnologien | Spark, SQL Endpoint | T-SQL, SQL Endpoint (MPP) |
Komplexität der Daten | Flexibel (auch semi-/unstrukturiert) | Stark strukturiert |
Transformation | Spark, Notebooks, Dataflow Gen2 | T-SQL, Stored Procedures |
Performance | Gut (je nach Abfrage) | Sehr hoch (optimiert für BI-Abfragen) |
Typischer Anwendungsfall | Data Engineering, Explorative Analyse | BI-Reporting, Standardauswertungen |
Beide arbeiten mit OneLake, beide nutzen Delta-Parquet – aber sie adressieren unterschiedliche Nutzungsprofile.
Semantisches Modell: Die Schicht für Endanwender
Das semantische Modell dient als abstrahierte, geschäftsnahe Sicht auf die Daten. Es definiert:
- Beziehungen (1:n, n:n)
- Measures und KPIs
- Hierarchien (z. B. Zeit, Organisation)
- Sicherheitsrollen (z. B. RLS)
Ein semantisches Modell kann:
- direkt auf einem Warehouse oder Lakehouse basieren (Direct Lake / Direct Query)
- als Import-Modell in Power BI genutzt werden (hohe Performance)
- in Power BI erstellt oder automatisch aus dem Warehouse generiert werden
Die Entscheidung zwischen Import-Modus und Direct Query beeinflusst:
- Datenaktualität (Realtime vs. Snapshot)
- Performance
- Datenhaltung (Duplikation in Power BI Cache oder nicht)
Visualisierung & Distribution
- Reports: Mehrseitige, interaktive Berichte mit Drill-Down, Tooltips, Filter
- Paginated Reports: Feste Layouts, ideal für Rechnungen, Verträge, Listen
- Dashboards: KPI-Zusammenfassungen aus mehreren Reports
- Power BI Apps: Gruppenorientierte Sammlung von Inhalten, rollenbasiert verteilt
- Excel: Verbindung mit semantischem Modell über Pivot-Tabellen, vertraute Benutzeroberfläche
Sicherheit & Governance: Von Anfang an mitgedacht
- Microsoft Purview-Integration:
- Automatisches Scannen, Klassifizieren und Nachverfolgen von Datenquellen und Berichten
- Data Lineage:
- Nachvollziehbarkeit von Quelle bis zur Visualisierung
- Rollen- und Rechtevergabe:
- Row-Level Security (RLS), Objekt-Level Security (OLS)
- OneSecurity:
- Einheitliches Sicherheitsmodell für alle Fabric-Komponenten
Warum Microsoft Fabric? – Die Vorteile im Überblick
Vorteil | Beschreibung |
---|---|
End-to-End Plattform | Alle Datenprozesse in einem integrierten System |
Zentrale Datenhaltung | OneLake als gemeinsamer Speicher für alle Workloads |
Skalierbarkeit | Spark + MPP-Engine + Serverless + Kapazitätsmodell |
Self-Service + IT-Kontrolle | Citizen BI + Governance + Sicherheit |
Keine Infrastruktur-Last | SaaS-Modell, keine VMs, keine Netzwerkkonfiguration |
Flexibilität der Werkzeuge | Code (Notebooks, Spark) und Low-Code (Dataflows, Power Query) kombiniert |
Fazit: Ein neues Paradigma für Datenplattformen
Microsoft Fabric löst viele Probleme, die klassische BI- und Data-Plattformen mit sich bringen: Komplexität, Brücken zwischen Tools, inkonsistente Sicherheit, redundante Datenhaltung und fragmentierte Benutzererfahrung.
Mit einem einheitlichen Speicher (OneLake), einem konsistenten Sicherheitsmodell (OneSecurity), einer integrierten Entwicklungsumgebung und vielseitigen Werkzeugen für alle Rollen entsteht eine Plattform, die für Unternehmen jeder Größe skalierbar und zukunftssicher ist.
Microsoft Fabric ist nicht nur ein weiteres Produkt – es ist ein neues Fundament für datengetriebene Entscheidungen im gesamten Unternehmen.