Schon wieder etwas Neues von Microsoft, etwas mit Daten und KI? Sie müssten sich mich mal damit beschäftigen, denken Sie vielleicht. Aber warum? Ganz einfach: alles, was heute im Microsoft-Umfeld zu Datenanalyse und -Reporting vorhanden ist, wird über kurz oder lang zu Fabric wandern, das hat Microsoft-CEO Satya Nadella klar gesagt. Aber sollten Sie dem folgen?
Bei Datenauswertung und Microsoft denkt man an Power BI, reicht denn das nicht? Und was wird in Zukunft aus Power BI? Power BI ist schon heute quasi in Fabric „hineingewandert“, es bildet den Modellierungs- und Reporting-Teil des Fabric-Werkzeugkastens. Aber der ist eigentlich viel größer; so sieht er aus:
Grund für diese Erweiterung an Workloads ist, dass bei Power BI doch eins fehlt: eine wirklich Big Data-taugliche Datenplattform. Man kann Daten eigentlich nur komprimiert in der .pbix-Datei von Power BI speichern, und das hat doch seine Grenzen. Eine echte Historisierung gelingt so nicht, und auch die professionelle Integration mehrerer Datenquellen mit Stammdatenverwaltung und Behandlung der Datenqualität fehlt.
Und das alles kommt jetzt bei Fabric an neuen Funktionen zu Power BI dazu:
All diese Tools gab es irgendwo bei Microsoft auch schon vorher, in einer sehr ähnlichen, oft kompatiblen Form. Aber man musste sie einzeln in der Azure Cloud „provisionieren“, oft sehr aufwändig miteinander verbinden, und sie hatten unterschiedliche Security-Konzepte, Benutzeroberflächen und Bezahlmodelle. Und das ist jetzt wirklich komplett neu und anders: Fabric ist SaaS, also „Software as a Service“. Man kauft sich einmal eine Lizenz, einen „virtuellen Server“, und dann kann man alle Workloads nutzen, sobald man Lust darauf bekommt, ohne zusätzlichen Aufwand!
Nicht nur die Bereitstellung und Lizenzierung wurden vereinfacht, auch alle Oberflächen sind unter einer Maxime entwickelt: „simplify, simplify, simplify“. Das Ziel ist klar: ein engagierter Fachanwender soll das machen können, wofür man vor Fabric auf jeden Fall einen IT-Spezialisten gebraucht hätte! Power BI hat vorgemacht, wie es geht, und das wird jetzt auch auf alle anderen Workloads ausgedehnt. Dazu gibt es eine Menge cleverer Ideen, die es eben ermöglichen, dass man z.B. als Schichtleiter sich eine komplett eigene Überwachung seiner Maschinen in Echtzeit mal eben zusammenklicken kann.
Microsoft hat wirklich bahnbrechende Ideen oft nicht selbst entwickelt, sondern einfach auf Trends in der Industrie gehört. Und in der Praxis haben sich mehr und mehr Anwender für einen Data Lake entschieden, eine super-preiswerte Speicherung größter Datenmengen, strukturiert oder unstrukturiert, an einem Ort, um sie einfach später mal auswerten zu können. Und unter der neuen, offeneren Führung von Satya Nadella hat Microsoft sich entschlossen, nicht nur einen solchen Data Lake, den OneLake, als zentralen Datenspeicher für alle Workloads in Fabric zu verwenden, sondern ihn auch noch in Open Source-Formaten zu definieren: Delta Parquet ist das Standardformat, Iceberg wird unterstützt
Den meisten Anwendern wird das egal sein, aber bei einem helfen sie alle mit: mit jedem Projekt in Fabric schafft jeder von ihnen saubere Daten in den OneLake, die dann später bei Bedarf unternehmensweit integriert werden können. Dass alles schon auf derselben Plattform ist, dürfte zukünftige Integrations-Projekte stark vereinfachen! Und wenn zusätzlich Daten auf anderen Plattformen wie in den Google- oder Amazon-Clouds liegen, dann lassen sie sich über Verknüpfungen einfach aus dem OneLake ansprechen.
Aber was wartet als Belohnung, wenn man diese neue Plattform eingeführt und damit - quasi als Nebeneffekt - mehr und mehr Daten im OneLake gesammelt hat? Ganz einfach, man kann sie für KI-Anwendungen verwenden. Die Nutzung von Ihren eigenen Daten durch eine künstliche Intelligenz wie den M365 Copilot ist es doch erst, die die vollen Business-Potenziale bringt, und Fabric wird jetzt und in Zunft die Schicht darstellen, die die KI mit Daten versorgt.
Zurück zu Aktuelle News