Few-shot Learning erklärt

04.06.2023
Von 


Isaac Sacolick ist Autor des Amazon-Bestsellers "Diving Digital: The Leader's Guide to Business Transformation thourh Technology". Er schreibt als freier Autor unter anderem für unsere US-Schwesterpublikation CIO.com.

 
Few-shot-Learning-Techniken sind für Unternehmen interessant, die eine Alternative dazu suchen, KI-Modelle mit riesigen Datenmengen zu trainieren.
Few-shot Learning bietet potenzielle Vorteile für Unternehmen - allerdings nicht ohne Kosten in Form von Zeit und Ressourcen.
Few-shot Learning bietet potenzielle Vorteile für Unternehmen - allerdings nicht ohne Kosten in Form von Zeit und Ressourcen.
Foto: Igor Kyrlytsya - shutterstock.com

Das Jahr 2022 wird vermutlich als das Jahr in die Geschichte eingehen, in dem die kognitiven KI-Techniken den Sprung aus den Laboren in den Mainstream geschafft haben. ChatGPT, Dall-E 2, Midjourney, Stable Diffusion und Konsorten wurden öffentlich zugänglich gemacht und sorgten mit ihren Fähigkeiten für Schlagzeilen und Aufmerksamkeit auf der ganzen Welt.

Viele Machine-Learning-Modelle verwenden überwachte Lerntechniken, bei denen ein neuronales Netzwerk (oder ein anderes Modell) mit gelabelten Datensätzen trainiert wird. In der Praxis ist es allerdings teuer und komplex, Datensätze in großem Stil zu labeln. Synthetische Daten können dazu beitragen, Datensätze zu erweitern - dennoch bleibt es kostspielig, überwachte Lernmodelle zu trainieren und in Stand zu halten. An dieser Stelle kann Generative AI beziehungsweise ein Few-shot-Learning-Ansatz helfen.

One-shot- und Zero-shot-Learning erklärt

Um die generative KI zu verstehen, muss man zunächst Lernalgorithmen verstehen, die nicht auf gelabelte Datensätze angewiesen sind. One-Shot- und Zero-Shot-Lernalgorithmen (zusammengenommen Few-shot-Lernalgorithmen) sind solche Ansätze und bilden die Grundlage für Generative AI. ChatGPT definiert One-Shot- und Zero-Shot-Learning wie folgt:

One-Shot- und Zero-Shot-Learning sind Techniken, die es Modellen ermöglichen, mit begrenzten Mengen an Trainingsdaten neue Beispiele zu erlernen und zu klassifizieren. Beim One-Shot-Learning wird das Modell mit einer kleinen Anzahl von Beispielen trainiert und erwartet, dass es das Erlernte auf neue, noch nicht gesehene Beispiele verallgemeinert, die aus derselben Verteilung stammen. Zero-Shot-Learning bezieht sich auf die Fähigkeit eines Modells, neue, ungesehene Beispiele zu klassifizieren, die zu Klassen gehören, die in den Trainingsdaten nicht vorhanden waren.

  • Beim One-Shot-Learning wird für jede Probe ein einziges Trainingsbeispiel verwendet, etwa ein Kopfbild eines neuen Mitarbeiters. Das Modell kann dann einen Ähnlichkeitswert zwischen zwei Fotos berechnen. Der Wert gibt Auskunft über die Übereinstimmung, um Zugang zu gewähren - oder nicht. Ein Beispiel für One-Shot-Learning ist der Omniglot-Datensatz, eine Sammlung von 1.623 handgeschriebenen Zeichen aus 50 verschiedenen Alphabeten.

  • Beim Zero-Shot-Learning wird das Netzwerk auf Bildern und zugehörigen Daten, einschließlich Bildunterschriften und anderen kontextbezogenen Metadaten, trainiert. OpenAIs CLIP (Contrastive Language-Image Pretraining) verwendet Zero-Shot-Learning, um die Dimensionalität von Bildern in Kodierungen zu reduzieren, eine Liste aller möglichen Beschriftungen aus dem Text zu erstellen und dann einen Ähnlichkeitswert zu berechnen, der Bild und Beschriftung zusammenbringt. Das Modell kann dann verwendet werden, um neue Bilder anhand eines Ähnlichkeitswertes in Labels zu klassifizieren. Das Generative-AI-Tool DALL-E verwendet CLIP und GANs (Generative Adversarial Networks), um die umgekehrte Funktion auszuführen und Bilder aus Text zu erstellen.

Few-shot-Learning-Anwendungsfälle

Zur Anwendung kommen Few-shot-Learning-Techniken beispielsweise im Gesundheitswesen, wo medizinische Bilder mit ihren Diagnosen zur Entwicklung eines Klassifizierungsmodells verwendet werden können. "Verschiedene Kliniken stellen möglicherweise unterschiedliche Diagnosen", erklärt David Talby, CTO beim Healthcare-KI-Spezialisten John Snow Labs. "Mit One-shot-Learning können Algorithmen ohne Code vom Arzt angewiesen werden, ein bestimmtes Ergebnis zu erzielen."

Vollautomatisierte, radiologische Diagnosen sollte man dennoch nicht so bald erwarten: "Obwohl die Fähigkeit, Informationen automatisch zu extrahieren, sehr wertvoll ist, wird Few-shot Learning in absehbarer Zeit nicht das medizinische Fachpersonal ersetzen", prophezeiht Talby.

Pandurang Kamat, CTO beim Modernisierungsdienstleister Persistent, hat weitere potenzielle Use Cases parat: "Zero-shot- und Few-shot-Lerntechniken eröffnen neue Möglichkeiten in Bereichen wie der Arzneimittelentwicklung, der Molekülforschung, Zero-Day-Exploits oder auch dem Customer Support. Kurzum, alle Bereiche, in denen es schwierig ist, gelabelte Trainingsdaten einzusetzen."

Dabei warnt der Manager auch vor den derzeitigen Grenzen der Few-shot-Learning-Techniken: "Im Bereich Computer Vision funktionieren diese gut für die Bilderkennung, Klassifizierung und das Tracking. Probleme bereiten können sie jedoch in Szenarien, die eine besonders hohe Genauigkeit und Präzision erfordern - etwa, wenn es darum geht, Krebszellen zu identifizieren und ihre Konturen in pathologischen Aufnahmen zu markieren."

Darüber hinaus gibt es auch in der industriellen Fertigung potenzielle Anwendungsfälle für Few-shot Learning, wie Arjun Chander, CEO beim Smart-Factory-Spezialisten IndustrialML, weiß: "Keine gut geführte Produktionsstätte wird so viele Defekte produzieren, dass eine große Anzahl von Bildern der Defektklasse zur Verfügung steht, um Modelle zu trainieren. Daher müssen Algorithmen entwickelt werden, die diese Defekte auf der Grundlage von nur einigen Dutzend Stichproben identifizieren können."

Mit Few-shot Learning zu Next-Generation-KI-Lösungen

Wenn Sie Datenwissenschaftler sind, können Sie mit Zero- und One-shot-Ansätzen experimentieren, um Klassifizierungsprobleme mit nicht gelabelten Datensätzen zu lösen. Eine Möglichkeit, sich mit den Algorithmen und Tools zu beschäftigen: Nutzen Sie Amazon SageMaker, um ein Nachrichten-basiertes Warnsystem zu erzeugen. Ansonsten empfiehlt sich auch die Verwendung von Zero-shot Learning in Conversational Agents.

Entwickler und Datenwissenschaftler sollten die neuen Lerntechniken und verfügbaren Modelle auch als Bausteine für neue Anwendungen und Lösungen betrachten und nicht nur als optimierte, problemspezifische Modelle. Laut Chang Liu, Director of Engineering beim KI-Unternehmen Moveworks, könnten Entwickler etwa großangelegte NLP-Modelle nutzen, statt diese selbst zu erstellen: "Mit der Einführung von großen Sprachmodellen nutzen Teams diese intelligenten Systeme, um Probleme in großem Umfang zu lösen. Anstatt ein völlig neues Modell zu erstellen, muss das Sprachmodell nur auf die Beschreibung der Aufgabe und die entsprechenden Antworten trainiert werden."

Künftige KI-Lösungen könnten wie heutige Softwareanwendungen aussehen, mit einer Mischung aus proprietären Modellen, eingebetteten kommerziellen und Open-Source-Komponenten und Drittanbieter-Services. "Fast jedes Unternehmen, das bereit ist, Zeit in die Problemdefinition für KI-Lösungen zu investieren und neue Tools und Praktiken einzuführen, um erste, kontinuierliche Verbesserungen zu erzielen, kann auch Erfolge erzielen", weiß Torsten Grabs, Director of Product Management bei Snowflake. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.