Eigene KI-Chips, neue Foundation Models, Azure AI Studio

Microsoft auf dem Weg zum Full-Stack-KI-Anbieter

20.11.2023
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Von der Infrastruktur bis zur Anwendung auf Copilot-Basis – Microsoft will sich als der Full-Stack-KI-Anbieter etablieren, der alles rund um das Thema AI aus einer Hand liefert.
Ein Jahr nach dem Debüt von ChatGPT erwartet Microsoft-Boss Nadella das Zeitalter der Copilots.
Ein Jahr nach dem Debüt von ChatGPT erwartet Microsoft-Boss Nadella das Zeitalter der Copilots.
Foto: Screenshot Microsoft

"Eine neue Phase der KI", läutete Microsoft-Chef Satya Nadella auf der Hausmesse Ignite des Konzerns ein. Eine Ära, in der, so Nadella, "nicht mehr über KI als neue und interessante Technologie diskutiert werde, sondern über die Details der KI-Erstellung, ihren Einsatz sowie die damit verbundenen Produktivitätsgewinne".

Für Microsoft ist dabei noch ein anderer Punkt klar: "Das KI-Zeitalter wird das Zeitalter der Copilots". Ganz unbescheiden sieht Nadella den Konzern mit Azure als den Anbieter eines KI-Weltcomputers. Immerhin betreibt der Hyperscaler weltweit mehr als 300 Rechenzentren mit über 60 Azure-Regionen.

Bescheidenheit kennt Nadella nicht. Er sieht das Azure-Universum als den Weltcomputer.
Bescheidenheit kennt Nadella nicht. Er sieht das Azure-Universum als den Weltcomputer.
Foto: Screenshot Innocn

Klar wurde auf der Ignite zudem, dass Microsoft künftig als Full-Stack-KI-Anbieter den Anwendern alles aus einer Hand liefern will - von der Infrastruktur bis hin zu den Anwendungen auf Copilot-Basis.

Der Copilot-Stack

Microsofts Copilot-Stack verdeutlicht die KI-Strategie des Konzerns.
Microsofts Copilot-Stack verdeutlicht die KI-Strategie des Konzerns.
Foto: Screenshot Microsoft

Orientierungshilfe bei dieser Strategie bietet Microsofts Copilot-Stack, der sich aus folgenden Layern zusammensetzt:

  • Der KI-Infrastruktur

  • Foundation-Modelle und AI Toolchain

  • Den eigentlichen Nutzerdaten der Anwender

  • Der KI-Orchestrierung

  • Microsoft Apps

  • Microsoft Copilot und anwendereigene Copilots

Wie ernst es dem Konzern dabei ist, diesen Stack mit Leben zu erfüllen, zeigte sich im Rahmen der Ignite-Hausmesse. Rund um den Copilot-Stack präsentierte das Unternehmen über 100 Neuankündigungen.

Glasfaser made by Microsoft

Dass der Anspruch des Full-Stack-KI-Anbieters nicht nur auf dem Papier besteht, veranschaulicht folgendes Beispiel: Der Konzern produziert mittlerweile sogar seine eigenen Glasfasern zur Vernetzung seiner Rechenzentren.

Selbst Glasfaser produziert Microsoft mittlerweile selbst, um seine Rechenzentren performanter vernetzen zu können.
Selbst Glasfaser produziert Microsoft mittlerweile selbst, um seine Rechenzentren performanter vernetzen zu können.
Foto: Screenshot Microsoft

Diese Fasern auf Basis von Hohlkerntechnologie sollen eine um 47 Prozent höhere Geschwindigkeit ermöglichen, da die Photonen durch mikroskopisch kleine Luftkapillare anstatt durch feste Glasfasern fließen können. Erste Rechenzentren in Großbritannien hat Microsoft laut Nadella bereits mit diesem Fasertyp untereinander vernetzt.

Die KI-Neuheiten im Fokus

Insgesamt lassen sich Microsofts Ankündigungen rund um das Thema KI grob fünf wichtigen Bereichen zuordnen:

  • Mehr Rechenpower

  • Eigene KI-Chips

  • Neue Foundation-Modelle

  • Azur AI Studio

  • Copilot-Studio.

Microsofts Supercomputer

Auf dem Stand schaffte Microsoft auf Platz 3 der Top 500 der Supercomputer.
Auf dem Stand schaffte Microsoft auf Platz 3 der Top 500 der Supercomputer.
Foto: Screenshot Microsoft

In Sachen Rechenpower ist Microsoft zur Ignite wohl die Überraschung des Jahres 2023 gelungen. Mit dem Supercomputer Eagle in der Azure Cloud schaffte es erstmals ein Cloud-Rechner in die Top 10 der weltweit schnellsten Supercomputer der seit 1993 erhobenen TOP500-List. Das Ergebnis ist um so beachtlicher, da es Microsoft aus dem Stand auf Platz drei schaffte.

Eagle soll in der Azure Cloud für das Training von KI-Modellen genutzt werden und basiert auf Xenon-Platinum-CPUs, gepaart mit Nividias KI-Beschleuniger H100.

Mehr Rechenpower für Azure-KI

Allerdings zählt der H100 mittlerweile fast schon wieder zum alten Eisen in Sachen KI-Beschleunigung. Nadella zufolge ist die Company schon dabei, Nividias GPU und KI-Beschleuniger H200 zu installieren. Damit sollen sich noch größere Modelle bewältigen lassen, ohne dass die Latenzzeit steigt.

Parallel dazu ist eine erste Preview Azure Confidential GPU VMS verfügbar. Damit könnten Anwender ihre KI-Modelle auf sensiblen Datensätzen in der Azure-Cloud ausführen. Die Confidential VMS wurden gemeinsam mit Nvidia entwickelt.

Mit Maia bringt Microsoft seinen ersten eigenen KI-Chip.
Mit Maia bringt Microsoft seinen ersten eigenen KI-Chip.
Foto: Microsoft

Allerdings verlässt sich Microsoft in Sachen KI-Hardware nicht auf einen Anbieter, sondern fährt mehrgleisig. So kündigte der Microsoft-Chef an, dass auch AMDs Vorzeige-KI-Beschleuniger MI300X in Azure eingesetzt und angeboten werden soll. Mit 192 Gigabyte High-Bandwidth-Memory und 5,2 Terabyte pro Sekunde an Bandbreite soll der MI300X die Auswahl an KI-optimierten VMS vergrößern.

Eigene Chips von Microsoft

Allerdings verlässt sich Microsoft in Sachen Chips nicht alleine auf die Partner Nvidia, AMD und Intel. Der Konzern lässt jetzt auch eigene maßgeschneiderte Chips beim Auftragsfertiger TSMC produzieren.

Maia und Cobalt

Die beiden neuen Chips, Azure Maia und Azure Cobalt, wurden Microsoft zufolge vor allem unter dem Gesichtspunkt entwickelt, um das Preis-Leistungs-Angebot des eigenen KI-Angebots optimieren zu können.

Microsoft Azure Maia ist ein KI-Beschleuniger-Chip. Er wurde für Cloud-basiertes Training und Inferencing für KI-Workloads wie OpenAI-Modelle, Bing, GitHub Copilot und ChatGPT entwickelt.

Mehr Performance und Kosteneffizienz in der Cloud soll die hauseigene CPU Cobalt ermöglichen.
Mehr Performance und Kosteneffizienz in der Cloud soll die hauseigene CPU Cobalt ermöglichen.
Foto: Microsoft

Bei Microsoft Azure Cobalt handelt es sich um einen Cloud-native Chip. Er basiert auf der Arm-Architektur und ist auf Leistung, Energieeffizienz und Kosteneffizienz für allgemeine Workloads optimiert. Den Chip will Microsoft vorerst selbst nutzen, bevor er dann im ersten Quartal 2024 auch für Kunden verfügbar sein soll.

Azure Boost allgemein verfügbar

Eine andere Infrastrukturverbesserung, Azure Boost, ist bereits jetzt allgemein verfügbar. Azure Boost ermöglicht eine höhere Netzwerk- und Speicherleistung bei der Skalierung, hieß es. Zudem reduziere Boost den Wartungsaufwand, indem Virtualisierungsprozesse, die traditionell von den Host-Servern ausgeführt werden, auf speziell für diese Prozesse optimierte Hardware und Software verlagert werden.

Microsoft verspricht mit Azure Boost eine Remote-Speicherleistung von 12,5 Gbit/s Durchsatz und 650.000 IOPS. Die lokale Speicherleistung soll 17,3 Gbit/s Durchsatz und 3,8 Millionen IOPS betragen.

Neue Foundation-Modelle

Von den Foundation-Modellen bis zu den KI-Apps will Microsoft-Chef Nadella alles aus eine Hand anbieten.
Von den Foundation-Modellen bis zu den KI-Apps will Microsoft-Chef Nadella alles aus eine Hand anbieten.
Foto: Screenshot Microsoft

An Workloads für die neue Infrastruktur wird es Microsoft in Zukunft wohl kaum mangeln, denn der Konzern baut sein Angebot an KI-Modellen und -Services in der Azure Cloud weiter aus. So verspricht Nadella künftig alle Innovationen von OpenAI als Teil von Azure AI zur Verfügung stellen. "Wir bringen das Allerneueste von GPT-4, einschließlich GPT-4 Turbo und GPT-4 Turbo mit Vision", so der Microsoft-Chef.

GPT-4 Turbo

GPT-4 Turbo soll unter anderem günstiger sein, eine strukturierte JSON-Formatierung bieten und mit einer erweiterten Prompt-Länge aufwarten. Nadella zufolge können jetzt 300 Seiten Text in eine einzige Eingabeaufforderung eingefügt werden. Als Preview soll GPT-4 Turbo im Azure Open AI Service ab sofort verfügbar sein.

GPT-4 Turbo mit Vision

Außerdem sollen User bald in der Lage sein, GPT-4 Turbo mit Vision mit Azure AI Vision zu verbinden. Auf diese Weise sei ein Prompting mit Videos, Bildern und Text möglich. Darüber hinaus will man GPT-4 so in den Azure Open AI Service integrieren, dass User ihre eigenen Daten einbringen können, um benutzerdefinierte Versionen von GPT-4 zu erstellen.

Open-Source-KI

Auch wenn OpenAI Microsofts wichtigster KI-Partner ist, setzt Nadella nicht alleine auf diese Karte, sondern erweitert auch das Angebot an KI-Modellen auf Open-Source-Basis. So umfasst der Modellkatalog etwa Stable Diffusion, Code Llama, Mistral 7B sowie Nvidia Nemotron-3 8B.

Models as a Service

Das Open-Source-Angebot vermarktet der Konzern in Azure künftig als "Models as a Service". Dazu will Microsoft etwa gehostete APIs zur Verfügung stellen sowie entsprechende LLM-Tools. Ein erstes entsprechende Angebot sei, so Nadella, "Llama 2 as a Service". Des Weiteren stehen "Mistral as a Service" sowie "Jais as a Service" auf dem Plan.

Small Language Models (SLMs)

Im Zusammenhang mit Open Source liegt Nadella noch ein anderes Thema am Herzen: Small Language Models (SLMs). Ein erstes SLM hat Microsoft mit Phi bereits entwickelt.

Mittlerweile als Phi-2 verfügbar, soll sich das SLM mit seinen 2,7 Milliarden Parametern bei Aufgaben wie Sprachverständnis oder logischem Denken mit 50fach größeren Modellen messen können. Und das, so Nadella, mit einer um 50 Prozent besseren Leistung in Benchmarks. Den Performance-Boost im Vergleich zu LLMs habe man durch effizientere mathematische Algorithmen erreicht. Auch dieses Modell will Microsoft als Service zur Verfügung stellen.

Azure AI Studio

Azure AI Studio dient als das Tool zur Erstellung von KI-Modellen.
Azure AI Studio dient als das Tool zur Erstellung von KI-Modellen.
Foto: Screenshot Microsoft

Allerdings nutzen die effizientesten KI-Modelle wenig, ohne die entsprechende Toolchain, um sie zu trainieren und zu orchestrieren. Und last but not least in dann noch ein entsprechendes Frontend erforderlich, damit die User auch komfortabelmit der KI arbeiten können.

Hier hat Microsoft gleich zwei Pfeile im Köcher: Azure AI Studio sowie Copilot Studio. Dabei ist das schon länger angekündigte Azure AI Studio jetzt als Preview verfügbar.

Über Azure AI Studio will der Anbieter letztlich die gesamte Tool-Kette für den Lebenszyklus eines KI-Modells zur Verfügung stellen. "Vom Erstellen, Anpassen, Trainieren und Bewerten eines KI-Modells", so Nadella, "bis hin zum produktiven Einsatz."

Darüber hinaus gehören auch integrierte Sicherheitstools mit zum Funktionsumfang. Mit ihrer Hilfe könnten Entwickler sowohl schädliche nutzergenerierte Inhalte als auch KI-generierten Unsinn in ihren Anwendungen und Services erkennen und herausfiltern. Ferner können mit Hilfe von Azure AI Studio SLMs angepasst sowie Templates in eigene KI-Modelle und -Anwendungen integriert werden.

Unter dem Strich soll Azure AI Studio damit als der One-Stop-Shop fungieren, mit dem Unternehmen im Backend agieren. Das Gegenstück auf der Frontend-Seite ist dann Copilot Studio.

Copilot Studio

Mit Copilot Studio sollen Anwender BenAI-Apps einfach selbst entwickeln können.
Mit Copilot Studio sollen Anwender BenAI-Apps einfach selbst entwickeln können.
Foto: Screenshot Microsoft

Microsoft positioniert Copilot Studio als KI-Tool für die Konversation und sieht es als Ergänzung zu Microsoft Copilot für Microsoft 365. Mit seiner Hilfe sollen die User Copiloten mithilfe von natürlicher Sprache oder einer grafischen Oberfläche erstellen und anpassen können.

Auf diese Weise sollen sich Copiloten realisieren lassen, die den spezifischen Bedürfnissen und Vorlieben der Nutzer entsprechen. Ein anderer Anwendungsfall könnten Copiloten für spezifische Konversationen in vorhersehbaren Szenarien sein, die selbst verfasste Antworten und Workflows erfordern. Hier sei nur an Beispiele wie Ausgabenmanagement, HR-Onboarding oder IT-Services gedacht.

Ferner ermöglicht Copilot Studio den Brückenschlag zu Azure AI Studio und zusätzlichen Azure-Diensten. Damit können Copilots dann mit dem Conversational AI Stack verbunden werden. So können laut Microsoft Nutzer auf erweiterte Funktionen wie Spracherkennung, Stimmungsanalyse, Entity-Extraktion und mehr zugreifen.

Aus Sicht der Redaktion waren das mit die wichtigsten Ankündigungen seitens Microsofts rund um das Thema KI. Interessierte Leser, die an einem Deep Dive zu Microsoft künftiger KI-Strategie im Azure-Universum interessiert sind, sei das "Microsoft Ignite Book of News" empfohlen.