Bewegte Bilder, bewegende Technologien. – In unseren Videos offenbaren sich die Facetten unserer Arbeit: lebendig, einprägsam, wegweisend. Erleben Sie, wie komplexe Ideen in fließenden Bildern lebendig werden.
Herbstzeit ist Konferenzen-Zeit! Auf der Microsoft Fabric-Konferenz in Stockholm traf ich, direkt nach ihrem Vortrag, die deutschen Sprecher Oliver Engels und Tillmann Eitelberg und befragte sie zu ihrem Thema "Notebooks in Microsoft Fabric". Das ist doch eigentlich eine Entwickler-Technologie und nichts für Self-Service-Anwender, oder? Aber dazu haben sie natürlich eine sehr eigene Meinung. Viele Fragen musste ich jedenfalls nicht stellen, seht selbst!
Eigentlich ist ja Excel immer noch das Schweizer Messer zur Datenanalyse, und das wird es natürlich auch bleiben. Wenn jetzt der Copilot für Excel für mich meine Daten verstehen und mir erklären und darstellen könnte, wäre das nicht fantastisch? Manche Demo-Videos, die im Netz kursieren, zeigen schon, wie eine KI so etwas macht, aber was kann der Copilot für Excel heute, im Jahre 2024, auf meinen Daten leisten? Dieses Demo-reiche Video zeigt es auf. Für alle, denen der Chef keine Copilot-Lizenz spendiert hat!
Ich habe es wieder getan: ein weiteres Videotraining, und diesmal fast zwei Stunden über das neue Microsoft Fabric. Dies ist das erste deutsche Training zu diesem Thema überhaupt, aufgeteilt in gut konsumierbare Video-Häppchen von ca. 5 Minuten Dauer, mit viel Hintergrund und Architektur, aber natürlich - ihr kennt mich - auch mit sehr viel Demo und "HowTo"! Hier seht ihr den Video-Trailer, der Rest ist auf LinkedIn unter /microsoft-fabric-ein-uberblick. Das Training ist für LinkedIn Premium-Mitglieder kostenlos, vielleicht ein Grund mehr, es zu werden? Ansonsten: wer mich per LinkedIn-Nachricht anschreibt, der bekommt einen Link von mir, unter dem er sich das Training 24h lang kostenlos betrachten kann. Viel Spaß dabei, und ich freue mich über Feedback!
Siri, Cortana, Dragon Dictate: wer keine Lust auf tippen hat, der erzählt das gerne einer elektronischen Diktierfunktion, und die ist wirklich erheblich besser, wenn eine KI das Ergebnis quasi permanent überprüft und verbessert! So etwas gibt es auch im Speech Studio von Azure AI Services, aber für den alltäglichen Einsatz geht es zusätzlich über eine voll altmodische aber auch voll praktische Kommandozeilen-Schnittstelle namens "spx"! Kommt mit zurück in die 80er, und ich zeige Euch die Macht der DOS-Batch-Programmierung!
Eigentlich ein Klassiker: überall, wo Daten produziert werden, hängt daneben gerne ein Monitor mit Berichten drauf, und die möchte man natürlich automatisch aktualisiert haben! Power BI kann das, aber leider nur mit teuren Premium-Lizenzen und der automatischen Seitenaktualisierung (Automatic Page Refresh). Aber es gibt ja auch das Power BI Add-In für PowerPoint, und das kann Power BI-Berichte in PowerPoint-Folien einbauen. Diese Berichte können sich automatisch aktualisieren, wenn die Folien angezeigt werden, man kann Folien automatisch wechseln lassen, und schon läuft der preiswerte Produktionsmonitor! Ja, ja; Männer, die auf Linien starren.
OneLake Shortcuts (oder deutsch: "Verknüpfungen") im neuen Microsoft Fabric sind genial, denn damit kann man sich Daten aus beliebigen Quellen so in seinen zentralen Data Lake holen, dass sie nicht kopiert werden, sondern immer in Echtzeit mit Zugriff auf die Quelle abgefragt werden: also kein aufwändiges ETL, keine doppelte Datenpflege, kein Lade-Projekt erforderlich. Und das geht sogar mit Daten, die noch "on premise" lokal in meinem Rechenzentrum liegen! Am besten haben die dann schon das Open Source-Format "Delta Parquet", aber das ist ja sowieso eins der besten Formate zum komprimierten Abspeichern großer Datenmengen. Unglaublich? Seht selbst!
Sammelt Ihr auch Daten über Dinge, die Ihr für einen externen Kunden tut, so wie Pakete transportieren oder Einzelteile produzieren? Dann hab ich ne Idee: ihr gebt einfach die Daten für den externen Kunden frei, und der kann dann immer auf den aktuellen Stand zugreifen und sie selbst auswerten. Dafür müssen sie nicht extra kopiert werden! Das ist ihm sicher was wert. Dieses gute Geschäftsmodell (von wegen "Daten sind das neue Öl"...) geht jetzt auch in Microsoft Fabric, dank externer Datenfreigabe oder External Data Sharing über die Azure Tenants hinweg. Endlich, denn: mit Snowflake Data Sharing geht das schon lange... Was das mit der Rittern in Rüstung zu tun hat? Schaut selbst...
Für dieses Video habe ich mich mit SharePoint-Podcaster und Microsoft-MVP Michael Greth aka "Mike on AI" im Juni 2024 getroffen, um im Livestream über die Trends der Microsoft-Entwicklerkonferenz "Build" zu sprechen. Aber wenn wir da so sitzen, fangen wir sofort an zu diskutieren, zu analysieren und zu philosophieren, aus unseren vielen gemeinsamen Jahren im Microsoft-Ökosystem! Es geht in diesem Ausschnitt speziell über Daten für Künstliche Intelligenz, über Fabric und den OneLake, über Self Service Data Culture, über Change + Adoption und so weiter... Aber hört selbst!
Seit wenigen Wochen kann Microsoft Fabric etwas Neues: Task Flows, auf deutsch "Aufgabenflüsse". Das ist ein Feature, das die "Whiteboard Design Session" vom Projektanfang direkt in den Fabric Arbeitsbereich einbaut! Ist das genial, oder ist das albern? Dieses Video zeigt mehr, und erklärt auch, was man aus diesem Feature für Fabric-Architekturen allgemein lernen kann.
Copiloten poppen ja bei Microsoft-Produkten jetzt überall auf! Solche Spezialisten-Copiloten sind oft besser und praxisnäher als ChatGPT oder Microsoft 365 Copilot, weil sie von Anfang an die richtigen Daten für ihre Arbeit kennen. Ein gutes Beispiel dafür ist der Copilot in Dynamics 365 Sales, der eben auf meinen Daten über Kunden, Firmen, Kontakte, Leads und Verkaufschancen seine Intelligenz ausbreiten kann. In diesem demo-reichen Video zeigt und erklärt ihn mir mein lieber Kollege Niklas Hinke von der abtis Business Solutions aus Bremen!
Ein großes Versprechen: mit Fabric wird alles einfacher, damit sich auch der Mittelstand moderne Datenauswertung leisten kann! Aber Microsoft liefert auch: mit dem neuen Mirroring in Fabric bekomme ich wirklich meine wichtigsten Quelltabellen ganz einfach in den OneLake in Fabric gespiegelt, und kann dann beliebig Abfragen darauf machen! Die Synchronisation läuft fast in Echtzeit, mit Change Data Capture, und dank dem neuen Direct Lake-Modus von Power BI sind die Abfragen darauf auch noch blitzschnell. Unglaublich? Kann man aber in diesem Video live in Funktion sehen, und auch noch ordentlich unter Last!
„Ist ja toll, was Microsoft da schönes Neues mit Fabric in Azure anbietet, aber für mich ist das nichts, denn meine Datenquellen sind noch alle im Rechnerraum nebenan?“ Da gab es ja schon für Power BI oder die Power Platform eine gute Lösung: das lokale Datengateway. Und endlich, in seiner neuesten Version, unterstützt es auch das Laden von lokalen Daten in den OneLake von Microsoft Fabric! Und nicht nur mit Dataflows Gen2, sondern sogar mit Data Pipelines! Azure Data Factory, der „große Bruder“ der Data Pipelines, kann so etwas Tolles nicht… Ich zeige, wie einfach das jetzt funktioniert. Da werden in der Zukunft viele Architektur-Diagramme viel einfacher aussehen!
Da können wir Spezialisten auch noch so motivieren: Excel wird, gerade im Mittelstand, noch jahrelang eine wichtige Datenquelle für zentrale Data Analytics-Lösungen sein. In diesem Video zähle ich die Risiken davon auf, verspreche aber auch Linderung: Mit dem OneLake File Explorer werden lokale Excel-Sheets - wie bei OneDrive - sofort nach Änderungen in meinen OneLake synchronisiert. Und danach kann meine Fabric-Lösung über das "Lakehouse" darauf zugreifen und sie mit anderen Unternehmensdaten integrieren! Wie, das sehen wir uns Schritt für Schritt an.
Dass ich in meinem letzten Video mal "im Bild" war, hat Euch scheinbar ganz gut gefallen! Also kommt hier noch etwas Besonderes: ein Interview mit Michael Greth von der SharePointCommunity (den man leider nicht sieht) zu den Grundbegriffen moderner Data-Lösungen in der Azure-Cloud: Data Lake, Data Warehouse, Lakehouse, Data Mesh... Was das ist, woher das kommt und wozu man das braucht erkläre ich persönlich (und wie immer sehr bewegt) in diesem kurzen und unterhaltsamen Video.
ChatGPT "auf Deinen Daten", das kann ja mittlerweile fast jeder. Aber viele Daten liegen nicht als Texte oder PDFs vor, sondern sind nun mal in Datenbanken, die man mit SQL abfragen muss! Dieses Video zeigt eine einfache Lösung mit Power Apps-Frontend, die das so macht, dass der Anwender gar nicht merkt, dass er gerade SQL "geschrieben" hat! Und als Zusatzgeschenk kann ChatGPT dann plötzlich viel besser rechnen und vergleichen, als wenn er nur Texte als Input hat. Kleine Trigger-Warnung: Markus Raatz ist auch mal kurz persönlich im Bild zu sehen, um das erklären zu können!
Baut man seine Data Analytics-Lösung in der Cloud auf, muss man sich für einen Hyperscaler entscheiden, weil man dort in seinem Data Lake große Datenmengen ablegt, mit denen man schlecht wieder umziehen kann. Stimmt gar nicht! Wenn man das offene Format "Delta Parquet" nutzt, dann kann man mit Microsoft Fabric ganz leicht auf Daten zugreifen, die bei Amazon oder in der Google Cloud liegen, ohne dass sie dazu kopiert werden! Der Trick sind die Shortcuts oder Verknüpfungen, und die haben wirklich das Potenzial, multi-cloud-Lösungen viel, viel einfacher zu machen. In diesem Video kann man auch praktisch zuschauen, wie leicht man Dateien aus Amazon S3 Buckets in seinen Fabric OneLake einblenden kann!
Ich will eine neue Datenquelle in meine Data Analytics-Lösung einbinden? Da geht der Aufwand aber richtig los! Nicht so bei Microsoft Fabric, denn durch den OneLake als zentralen Data Lake unter allen Anwendungen kann Datenintegration so einfach sein wie Kopieren und Einfügen. Dieses Video zeigt mal an einem praktischen Beispiel, wie einfach auch ein Fachanwender seine Fabric-Lösung erweitern kann. Und man lernt dabei, was der Regen in New York mit dem Taxi-Verkehr zu tun hat!
Ist das noch Data Warehouse, oder schon Data Mesh? Dies ist ein etwas anderes Video als bisher, denn es geht nicht um technische Details, sondern ich stelle die Sinnfrage: wozu brauche ich dieses Feature? Welchen Nutzen haben wir davon? Ich beginne heute mit einem Data Lake, den man (fast) umsonst zu Microsoft Fabric dazubekommt: den OneLake. Klar, das Data Warehouse bleibt immer noch das non-plus-ultra. Aber hier steckt noch mehr drin: ein "Data Mesh"? Was ist das überhaupt, und: warum ist das auf der Welt?
ChatGPT auf meinen eigenen Daten: wer möchte das nicht? Einfach ein Chatbot, der meine Dokumente zusammenfasst, vergleicht, Fragen dazu beantwortet, in allen möglichen Sprachen fließend antwortet und datenschutz-kompatibel ist: ein Traum! Wie gut das auch mit Euren Daten klappt, könnt ihr super in Azure OpenAI Studio überprüfen, im Chat-Playground. Wir treffen uns auf dem Spielplatz!
Ist das nicht pure Science Fiction? Aber nein: das Data Warehouse in Microsoft Fabric macht es schon heute möglich! Man kann z.B. Tabellen "klonen" und in einem Zustand aus der Vergangenheit "einfrieren", so dass Zeitreisen möglich werden. Und das alles als "Metadata Copy", also ohne die eigentlichen Daten zu kopieren, und daher blitzschnell! In der Realität ist das zwar fast unglaublich, aber vor allem eine Fähigkeit des Dateiformats Delta Parquet, das Fabric im OneLake benutzt. Und der populäre Marktbegleiter Snowflake kann es auch schon.
Etwas wie Data Activator gab es bei Microsoft Data bisher nicht: ein Werkzeug, mit dem sich Fachanwender eine automatische Überwachung ihrer Kennzahlen einrichten können! Nie wieder morgens als erstes auf immer denselben Bericht glotzen... Und wenn eine ganz einfach selbst definierte Trigger-Bedingung erfüllt ist, dann chattet Data Activator mich in Teams an, oder er sendet den altmodischeren Kollegen einfach eine Email. Noch radikaler: er kann auch einen Power Automate Flow starten, der dann vielleicht gleich Maßnahmen durchführt, die die Zahlen wieder "auf die Schiene" bringen!
Bei Microsoft Fabric zahlt man keine Lizenzen, sondern - typisch SaaS - man kauft sich eine Kapazität in Azure, in der dann alle Operationen ablaufen. Und die kleinste Kapazität F2 bekommt man schon für 250 Euro im Monat! Und was schafft die so? Wann ist die "ausgelastet", so dass ich hochskalieren und mehr bezahlen muss? Und wer meiner Nutzer ist das gewesen? Dieses Video zeigt, wie man das mit der "Fabric capacity metrics"-App (auf deutsch sehr schön: Kapazitätsmetriken-App) überwachen kann.
Noch hat nicht jeder Microsoft Copilot in seinem Windows oder auf seinen Office-Daten, aber Entwickler kennen und schätzen schon den GitHub Copilot! Jetzt kann dieser nützliche Helfer auch die Abfragesprache SQL (in verschiedenen Dialekten), so dass man diese wichtige Fähigkeit als Entwickler schon gar nicht mehr braucht. Das geht erst mal nur im Azure Data Studio und ist auch kostenpflichtig (30 Tage Testlizenz), aber es ist verblüffend, wie gut diese KI mir die Statements vorschlägt! Allerdings braucht er dabei ein paar Tipps, und welche das sind, zeigt dieses Video.
ChatGPT kann auch ausschließlich Eure eigenen Dateien als Grundlage für seine Antworten verwenden, und das, ohne dass sie jemals zu OpenAI gelangen! Dafür ist unsere Lösung "Podcast Explorer", entwickelt zusammen mit der Abteilung Technisches Innovationsmanagement des Rundfunk Berlin-Brandenburg (rbb), ein wirklich schönes und unterhaltsames Beispiel. Podcast-Freunde gibt es ja schließlich Millionen in Deutschland, und in dieser Demo ist auch etwas für Sportangler dabei!
Du kannst kein SQL, möchtest aber wissen, was so in Deiner Datenbank steht? Vielleicht sogar mündlich und über das Ohr, also ohne das leidige Tippen? Kein Problem: die Kombination von Azure Cognitive Services Speech To Text und Azure OpenAI GPT-3.5 Turbo macht es möglich! Erstaunlich, mit wie wenigen Hinweisen ChatGPT lernt, was so in einer Datenbank zugeht, und sehr charmant, wie "er" mit einer freundlichen Frauenstimme geduldig meine Fragen beantwortet. Dabei generiert GPT sogar SQL-Joins und Subqueries! Seht selbst, oder diesmal eher: hört selbst, also: Lautsprecher an!
Es ist überraschend einfach, eine KI zu trainieren und zu nutzen, die Gegenstände auf Bildern erkennt und dann in Kategorien einsortieren kann, damit so etwas kein Mensch mehr aufwändig tun muss! Dank Azure AI und der Komponente Custom Vision braucht man dazu keinen Data Scientist, sondern man kann es einfach mal ausprobieren. Wir haben das mal an einem Beispiel gemacht und zeigen in diesem Video, mit wie wenig Aufwand das zu absolut brauchbaren Ergebnissen führt! Und obendrauf gibt es noch eine Anregung, wie das dann mit einer App sehr leicht produktiv genommen werden kann.
Künstlich generierte Stimmen, die meinen eigenen Text vorlesen: das ist zwar sehr praktisch, aber oft hört es sich miserabel an. Azure Cognitive Services Text-to-Speech können das besser! In diesem Teaser-Demo-Video zeige ich, wie einfach man diese Funktionen bedienen, sich Texte vorlesen lassen und das Ergebnis integrieren kann, im Speech Studio. Und etwas hohe Literatur fürs Herz ist auch dabei!
Es gibt nicht nur ChatGPT... Es gibt auch simple, praktische KI, die auf vorhandenen Daten ganz einfach die Zukunft vorhersagen kann! Und dafür braucht man auch kein Data Scientist zu sein, denn Microsoft hat das mit dem AI Builder in die Power Platform integriert und so leicht gemacht, dass es Fachanwender selber machen können. Zugegeben, der AI Builder kostet extra, auch wenn man schon Power Apps und Power Automate lizensiert hat, aber mal die kostenlose Testlaufzeit ausprobieren, das lohnt sich für jeden! Und mittlerweile kann er übrigens auch ChatGPT.
Wer Massen von Emails lesen, kategorisieren und beantworten muss, der wünscht sich oft einen Lektor, der ihm das abnehmen könnte! Das macht ja geradezu perfekt ChatGPT, und mit Azure OpenAI lässt sich diese KI ganz einfach und sicher kommerziell nutzen. Das geht sogar so einfach, dass es Fachanwender selbst machen können! Wir zeigen, wie so eine Lösung mit Hilfe von Power Automate aus der Microsoft Power Platform aussehen könnte. Power Automate ist eine "No Code - Low Code"- Umgebung, die oft in Microsoft Office schon enthalten ist! In unter 10 Minuten erfährt man in dieser Demo einer Kundenlösung, wie ChatGPT simpel und gerne dienstlich für uns arbeitet.
smapOne ist wirklich "No Code" - eine mobile Plattform, wo sich Fachanwender ganz einfach eigene Apps bauen und damit ihre Digitalisierung selber machen können! Aber wie bekommt man die so erfassten Daten dann in einem Power BI-Bericht angezeigt? In diesem Video stelle ich die komplette Lösung vor, mit REST-API, Power Automate und Dataverse. Das heißt: es bleibt immer noch "Low Code", und damit tauglich für den "Citizen Developer"! Und ihr seht Markus und Philipp live zu, wie sie die Anwendung im Dialog vorstellen. Endlich nicht nur einer, der da quatscht!
Das neue Microsoft Fabric wird die Art, wie man bei Microsoft in Zukunft Datenauswertung im Self Service machen kann, enorm erweitern! Da kommen Begriffe auf, die der Power BI - Nutzer bisher nicht kannte, was ist z.B. ein "Lakehouse"? Dieses Video zeigt als Demo "einmal durch", von den Datenquellen bis zum Power BI-Bericht, wie man so eine Lösung bauen könnte. Und das alles in unter 10 Minuten!
SQL ist einfach nicht totzukriegen, wenn es um strukturierte Daten geht! Auch viele Power BI-Nutzer wünschen sich eigentlich eine SQL-Datenbank (die sollen sich mal Power BI Datamarts angucken), und beim neuen Microsoft Fabric wurde diese Bitte erhört. Neben dem sehr modernen "Lakehouse" enthält Fabric auch ein klassisches, massiv parallel aufgebautes SQL Warehouse, das jede Menge SQL-Funktionen unterstützt: nicht nur SELECT, auch UPDATE, INSERT und DELETE, zusammen mit gespeicherten Prozeduren und Funktionen. Wer SQL gut kann, säubert seine Daten einfach am schnellsten und am einfachsten mit SQL, und Microsoft Fabric gibt ihm das jetzt direkt in die Hand.
Wollt Ihr Echtzeitdaten auswerten, für IoT oder Logging-Analysen? Live, während sie ins System hineinlaufen? Das wäre früher ein Projekt komplett für die IT-Spezialisten gewesen, heute - dank dem neuen Microsoft Fabric - ist es auch vom interessierten Fachanwender zu bauen! Und da Power BI ja Teil von Fabric wird, kann man auch ganz leicht diejenigen Berichte machen, wo die Linien von alleine hoch und runter zappeln; nichts, was der Betrachter lieber sehen würde! Willkommen bei der KQL-Datenbank! In diesem Video wird nicht nur erklärt, wie es geht, wir zeigen auch mal die komplette Oberfläche in Fabric dazu.
Das Beste am neuen Microsoft Fabric ist ja, dass es in der beliebten Oberfläche von Power BI den Nutzern ganz einfach ermöglicht, auch Anwendungen mal zu nutzen, die man früher erst aufwändig bei der IT beantragen musste! Ein großer Gewinner davon könnte Kusto sein, die spezielle Datenbank für Echtzeit-Daten, die in Azure einzeln als "Azure Data Explorer" oder ADX erhältlich ist. Sie kann nur eine Sache, aber die richtig, richtig gut: Logging-Informationen in Echtzeit einspeichern und auswerten! Das ist natürlich super für Daten, die von IoT-Geräten gesendet werden, aber eigentlich auch für alle anderen Formen von Protokoll-Daten, die nicht mehr verändert werden sollen. Und man lernt in diesem Video auch eine neue Abfragesprache kennen, nämlich KQL; die Kusto Query Language!
Microsoft Analytics enthält schon immer viele Werkzeuge für die Datentransformation, und die meisten davon locken durch eine simple grafische Oberfläche. Typisch Microsoft! Aber unverändert wird in vielen Projekten sehr viel mit Skripten gearbeitet, es wird fleißig textbasiert programmiert! Auch das neue Microsoft Fabric enthält Notebooks, in denen man - mit meistens mit Python - richtig komfortabel entwickeln kann. Dieses Demo-Video zeigt mal, wie einfach es geht, und auch, wie effizient diese Verarbeitung auf einem Spark-Cluster ist! Also, liebe Power BI - Entwickler: keine Angst vor Skripten!
Power BI und das neue Microsoft Fabric sind sehr eng integriert, sie teilen sich dieselbe Oberfläche im Browser, beides ist "Software as a Service" und beides ist für Endnutzer sehr einfach zu bedienen. In diesem demo-reichen Video zeige ich, wie man auf Daten, die man frisch in den Data Lake geladen hat, total simpel ein Power BI-Modell und dann einen Bericht bauen kann; komplett mit eigenen Berechnungen und eigenen Zusatzdaten. Damit baut sich eine erwachsene Data Analytics-Lösung auf "Big Data" fast von selbst! Und man lernt auch noch, wie viele Fahrgäste typischerweise in einem New Yorker Taxi Platz haben.
Die radikale Neuerung bei Data + Analytics von Microsoft, frisch von der Build-Konferenz, und alle reden davon: Microsoft Fabric! Es soll alles, was bisher da war, mit KI vereinen: Azure Synapse, Power BI, Spark-Cluster, Azure Data Explorer... OK, das war auch alles schon ganz schön kompliziert. Wie funktioniert diese "Vereinigung"? Ist das nur ein weiterer Marketing-Trick, oder steckt wirklich eine neue Technik dahinter? Dieses Demo-reiche Video zeigt das; und es vermittelt auch, wie leicht jeder selbst die ersten, praktischen Schritte gehen kann.
Ein SQL Server ohne Server? Da stimmt doch was nicht! Doch, doch: auch der SQL Server macht mit bei einem der ganz großen Trends in der Cloud: Serverless Computing! In der Praxis ist das für uns Datenbanker vor allem eine bestimmte Form der Skalierung und Abrechnung bei der Azure SQL Datenbank. Dieses Video erklärt, worauf es bei Serverless Computing ankommt, wie man das einstellt und warum und wann man lieber die Finger davon lassen sollte...!
Zurück zu Aktuelle Videos