Intel Optane-Technologie

So beschleunigen Sie Ihre KI-Projekte

23.05.2020
Anzeige  Große Datenmengen sind eine Voraussetzung für die Implementierung von vielen KI-Algorithmen, doch deren Handling ist eine der größten Herausforderungen. Die richtige Storage-Technologie kann dabei von entscheidender Bedeutung sein.

IT-Verantwortliche sollten sich bewusst sein, dass der Erfolg von KI-Projekten mit Umfang und Güte der Daten steht und fällt. Etliche KI-Anwendungen benötigen eine Menge an Daten, um belastbare Modelle entwickeln zu können. Erst wenn sie in ausreichender Menge vorliegen - und dies auch in brauchbarerGüte - können die KI-Modelle trainiert werden, auf deren Basis dann Vorhersagen, Bewertungen und Empfehlungen gegeben werden.

Die richtige Orchestrierung der Daten-Pipeline entscheidet bei KI die Geschwindigkeit der Verarbeitung.
Die richtige Orchestrierung der Daten-Pipeline entscheidet bei KI die Geschwindigkeit der Verarbeitung.
Foto: bluefish_ds - shutterstock.com

Grundsätzlich sind KI-Projekte wie andere datenzentrierte Vorhaben mit den 3 Vs konfrontiert: Volume, Velocity und Variety. Je umfangreicher die Datenbasis (Volume), umso besser werden im Allgemeinen die Modelle. Diese enormen Datenmengen müssen möglichst schnell und effizient zwischen CPU, Storage und anderen Instanzen hin und herbewegt werden (Velocity). Typischerweise liegen diese Daten nicht mehr in simplen relationalen Datenbanken vor, sondern in einer breiten Vielfalt an Formaten: von strukturierten Daten aus Transaktionen oder Sensoren über Bluetooth-Signale bis hin zu unstrukturierten Daten wie Texten, Bildern oder Videos (Variety).

Die drei Vs sind für sich schon eine Herausforderung. Bei KI-Projekten kommt erschwerend hinzu, dass sich jede der drei Komponenten mit jedem Stadium der Datenverarbeitung dramatisch verändert. Beispielsweise kann sich der Datenumfang bei der anfänglichen Datensammlung im Petabyte-Bereich bewegen, in das eigentliche Training werden dann aber eventuell nur Gigabyte an Daten eingehen und das fertige Modell umfasst möglicherweise nur einen Bruchteil davon.

Auf die Orchestrierung kommt es an

Darüber hinaus sind die Anforderungen beim Lesen und Schreiben von Daten in den verschiedenen Phasen höchst unterschiedlich: Das Datensammeln erfolgt zu 100 Prozent mit Schreibvorgängen, bei Vorbereitung und Training gibt es einen 50/50-Read/Write-Mix und die Analyse besteht zu 100 Prozent aus Lesen.

Die Lösung für das Problem mit den drei Vs besteht darin, die Daten-Pipeline entsprechend den Anforderungen zu orchestrieren. Eine Daten-Pipeline verarbeitet die Daten in einer Abfolge von miteinander verbundenen Verarbeitungsschritten in mehreren Phasen. Gartner hat in einem kürzlich erschienenen Bericht betont, wie wichtig es ist, diese Phasen zu verstehen: "Der Erfolg von KI- und Machine-Learning-Initiativen hängt von der Orchestrierung effektiver Daten-Pipelines ab, die in den verschiedenen Phasen der KI-Pipeline die hohe Qualität der Daten in den richtigen Formaten zeitnah zur Verfügung stellen".

Die Daten-Pipeline startet mit dem Sammeln der Daten (Ingest-Phase).

Die vier Phasen der Daten-Pipeline

In dieser ersten Phase müssen Daten aus einer Vielzahl unterschiedlicher Quellen zusammengestellt und verwaltet werden. Der Umfang der aufgenommenen Daten kann dabei ebenso variieren wie das Datenformat. In dieser Phase gibt es fast ausschließlich sequentielle Schreibvorgänge in den Speicher.

Die vier Phasen der KI-Pipeline stellen unterschiedliche Storage-Anforderungen. (Quelle: Intel)
Die vier Phasen der KI-Pipeline stellen unterschiedliche Storage-Anforderungen. (Quelle: Intel)

In der Vorbereitungsphase müssen Daten etikettiert, komprimiert, dedupliziert, transformiert und bereinigt werden. Daten, die fehlen oder unvollständig sind, werden angereichert und Inkonsistenzen beseitigt. Dies ist ein iterativer Prozess mit schwankenden Datenmengen, die sowohl zufällig als auch sequentiell gelesen und geschrieben werden müssen.

Für das Training - die dritte Phase der KI-Pipeline - müssen die Datensätze umfassend bewegt werden. Dieser Schritt ist äußerst ressourcenintensiv und beinhaltet die wiederholte Ausführung mathematischer Funktionen auf den vorbereiteten Daten, um die gewünschten Ergebnisse zu erzielen. Entsprechend hoch sind die Storage-Anforderungen. Bei komplexerenModellen wie Deep-Learning-Modelle mit vielen Schichten sind diese noch höher. Um diesen Prozess so effizient wie möglich zu gestalten, sollte die Rechnerauslastung optimiert werden.

Beim Inferencing schließlich wird das trainierte Modell im operativen Betrieb für Entscheidungen eingesetzt. Der Einsatz kann im Rechenzentrum oder auch vor Ort auf Edge-Devices erfolgen. In dieser Phase wandern die Daten beim Lesen des trainierten Modells vom Speicher in die CPU, wo das Schreiben der aktuellen Daten erfolgt, die ausgewertet werden. Anschließend werden die abgeleiteten Ergebnisse in die Trainingskomponente zurücktransportiert, um die Genauigkeit zu verbessern. Echtzeit-Edge-Implementierungen führen deshalb zu einem noch höheren Leistungsbedarf.

Storage-Optimierung in jeder Phase

In allen Phasen kann die Kombination von Intels Speichertechnologien und Intel-Optane-Technologie helfen, diese Prozesse enorm zu beschleunigen. Die Optane-Technologie bietet hohe Leistungen und geringe Latenzen für die schnelle Speicherung und das schnelle Caching. 3D-NAND-SSDs wiederum konsolidieren den Speicherbedarf, skalieren mit wachsendem Speicherbedarf und beschleunigen den Zugriff.

Optane fällt in allen Phasen der Daten-Pipeline eine entscheidende Rolle zu.

  • Bei der Datensammlung profitieren KI-Workloads von der hohen Schreibleistung und niedrigen Latenz der Intel Optane-Technologie.

  • Die Vorbereitungsphase verbraucht bis zu 80 Prozent der KI-Ressourcen. Deshalb sind Speichergeräte wie Optane SSDs mit geringer Latenz, hoher Quality of Service und hohem Durchsatz wichtig, um die Vorbereitungszeit zu reduzieren. Zudem bietet Optane eine ausgewogene Mischung aus Lese-/Schreibleistung und reduziert so die Vorbereitungszeit für Daten.

  • Beim Training können der hohe Random Read TPT und die geringe Latenz von Optane SSDs kritische Trainingsressourcen optimal nutzen. Darüber hinaus können Optane SSDs die Verarbeitung temporärer Daten während der Datenmodellierung beschleunigen.

  • Auch beim praktischen Einsatz der Modelle - dem Inferencing - zahlt sich Optane aus. Die Optane-Technologie macht das Inferencing deutlich schneller, was sich insbesondere bei trainierten Modellen an der Edge auszahlt.

Zahlreiche Unternehmen nutzen die Optane-Technologie inzwischen im KI- und Analytics-Umfeld. Das US-Gesundheitsunternehmen Montefiore in der Bronx beispielsweise hat mit seiner patientenzentrierten Plattform für analytisch-maschinelles Lernen eine KI-Lösung entwickelt, mit der mehrere Datenspeicher angezapft werden können - unabhängig davon, wo sich die Informationen befinden oder wie sie strukturiert sind. Den entscheidenden Baustein bilden hierbei zwei 375 GB Intel Optane SSDs. Sie sorgen nicht nur für die schnelle Speicherung, sondern sind auch als Methode zur Erweiterung des Systemspeichers konfiguriert. Damit hat dieses System nach Auskunft der IT-Verantwortlichen das Potenzial zu einem "echten Kraftwerk" für die Daten.