Business-Logik in Microsoft Fabric richtig denken: Warum Logik im BI-Tool heute ein Architekturfehler ist
- David Sanadze

- 10. Dez.
- 3 Min. Lesezeit
Aktualisiert: vor 2 Tagen
Zentrale Business-Logik in Microsoft Fabric als Voraussetzung für skalierbare Analytics, saubere Governance und KI-Readiness
In vielen Unternehmen liegt ein erheblicher Teil der fachlichen Logik noch immer im BI-Tool. KPIs, Zeitvergleiche, Filterregeln und Geschäftsdefinitionen werden direkt in Power BI, Qlik oder MicroStrategy modelliert. Dashboards sind damit nicht nur Konsumenten von Daten, sondern Träger der fachlichen Wahrheit.
Was lange Zeit als Best Practice galt, ist heute jedoch ein strukturelles Architekturproblem. Nicht, weil BI-Tools ungeeignet wären, sondern weil sich Datenplattformen fundamental weiterentwickelt haben.
Dieser Artikel erklärt, warum sich dieses Muster historisch etabliert hat, warum es in modernen Architekturen nicht mehr skaliert und und wie Business-Logik in Microsoft Fabric sauber, skalierbar und technisch belastbar umgesetzt werden kann.
Warum Business-Logik historisch im BI-Tool lag
In klassischen Data-Warehouse-Architekturen war die Trennung klar:
relationale Datenbanken wie SQL Server, Oracle oder DB2
Zeilenbasierter Speicher (Row-based Storage), primär für transaktionale Workloads optimiert
begrenzte Performance für komplexe Aggregationen und KPI-Berechnungen
Komplexe analytische Logik war zwar möglich, aber teuer, langsam oder nur mit hohem Optimierungsaufwand realisierbar.
Die Konsequenz war logisch:
Das DWH stellte möglichst granulare Daten bereit
Fachliche Logik wurde in OLAP-Cubes ausgelagert, etwa SSAS oder SAP BW
Oder direkt im BI-Tool umgesetzt, nahe an der Visualisierung
Dieser Ansatz war performant, pragmatisch und zur damaligen Zeit technisch sinnvoll.
Warum dieses Muster heute nicht mehr funktioniert
Mit modernen Cloud-Datenplattformen haben sich die technischen Rahmenbedingungen grundlegend geändert.
Microsoft Fabric vereint:
columnar Storage
massiv parallele Verarbeitung
skalierbare Compute-Ressourcen
Engines, die explizit für analytische Workloads gebaut sind
Komplexe Berechnungen sind heute kein Sonderfall mehr, sondern ein Standard-Use-Case der Plattform.
Wer dennoch weiterhin Business-Logik ins BI-Tool verlagert, importiert alte Architekturprobleme in eine moderne Umgebung.
Die typischen Architekturprobleme
1. Kein belastbarer Single Point of Truth
KPIs, die in mehreren Dashboards definiert sind, unterscheiden sich fast zwangsläufig. Kleine Abweichungen in Filterlogik, Zeitbezug oder Aggregation bleiben lange unentdeckt.
Das Resultat ist kein technisches, sondern ein organisatorisches Problem: Diskussionen über Zahlen statt über Inhalte.
2. Gebrochene Data Lineage
Logik im BI-Tool ist meist nicht Teil der eigentlichen Datenpipeline. Transformationen und Berechnungen lassen sich nicht sauber nachvollziehen oder auditieren.
Für Governance, Compliance oder regulatorische Anforderungen ist das ein strukturelles Risiko.
3. Logik-Silos statt Datensilos
Viele Organisationen brechen Datensilos auf und schaffen dabei neue. Dieses Mal auf Logik-Ebene. Jede Fachabteilung, jedes Dashboard, jedes Self-Service-Artefakt implementiert eigene Regeln.
Die Plattform wird moderner, die Architektur komplexer.
4. Keine Wiederverwendbarkeit
Logik im BI-Tool ist schwer wiederverwendbar. Advanced Analytics, Automatisierungen oder AI-Use-Cases können nicht direkt darauf zugreifen. Die gleiche fachliche Regel wird mehrfach implementiert, getestet und gepflegt.
Was moderne Architekturen anders machen
Moderne Datenarchitekturen unterscheiden klar zwischen:
zentraler, unternehmensweiter Business-Logik
explorativer, temporärer Analyse-Logik
Nur Letztere gehört ins BI-Tool.
Zentrale Logik muss:
versioniert
testbar
dokumentiert
reproduzierbar
über mehrere Konsumkanäle nutzbar sein.
Genau hier spielt Microsoft Fabric seine Stärken aus.
Was das konkret in Microsoft Fabric bedeutet
In einer sauberen Fabric-Architektur ist die Verantwortlichkeit klar verteilt.
1. Datenplattform
Rohdaten liegen im OneLake
Transformationen erfolgen im Lakehouse oder Warehouse
Fachliche Logik wird als SQL-Views, Tabellen oder Spark-Transformationen umgesetzt
KPIs entstehen nah an den Daten und sind über SQL und Direct Lake nutzbar
Diese Logik ist:
versionierbar über Git
in CI/CD-Pipelines integrierbar
wiederverwendbar für BI, Automatisierung und AI
2. Semantic Model und Power BI
Power BI konsumiert die vorbereitete fachliche Logik
Das Semantic Model übernimmt Aggregation, Security und Interaktion
Explorative Berechnungen für Fachanwender sind bewusst erlaubt
Power BI ist damit wieder das, was es sein sollte: Visualisierungs- und Analyse-Layer, nicht der Ort, an dem fachliche Wahrheit entsteht.
Warum das entscheidend für Skalierung und Governance ist
Zentralisierte Business-Logik in der Datenplattform ermöglicht erstmals:
konsistente KPIs über alle Reports hinweg
durchgängige Data Lineage von Quelle bis Visualisierung
kontrollierte Releases fachlicher Änderungen
klare Verantwortlichkeiten zwischen Plattform- und BI-Teams
Ohne diese Trennung skaliert keine Analytics-Organisation nachhaltig, unabhängig vom eingesetzten Tool.
Fazit
Was früher aus Performance-Gründen sinnvoll war, ist heute ein Architekturfehler.
Microsoft Fabric ist dafür gebaut, Business-Logik zentral, performant und transparent abzubilden. Wer weiterhin KPIs und Regeln ins BI-Tool verlagert, reproduziert alte Probleme in einer modernen Oberfläche.
Eine saubere Trennung zwischen Datenplattform und BI-Layer ist kein Nice-to-have mehr. Sie ist die Grundvoraussetzung für skalierbare Analytics, belastbare Governance und eine zukunftsfähige Datenstrategie.