Neuronale Netze

KI soll wie ein menschliches Gehirn arbeiten

16.08.2023
Von 
Martin Bayer ist Chefredakteur von COMPUTERWOCHE, CIO und CSO. Spezialgebiet Business-Software: Business Intelligence, Big Data, CRM, ECM und ERP.
Forscher in Erlangen wollen KI-Systeme entwickeln, die stärker wie das menschliche Gehirn arbeiten, rasch komplexe Aufgaben lösen können und dabei weniger Ressourcen verbrauchen.
Wie menschliche Hirnzellen arbeiten, könnte zum Vorbild für energieeffizeinte KI-Systeme werden.
Wie menschliche Hirnzellen arbeiten, könnte zum Vorbild für energieeffizeinte KI-Systeme werden.
Foto: Triff - shutterstock.com

Das Training von Generative-AI-Systemen wie ChatGPT verbraucht gewaltige Mengen an Energie. Würde Künstliche Intelligenz (KI) stärker wie ein menschliches Gehirn arbeiten, wären die Systeme deutlich effizienter und bräuchten weniger Strom, so die These von Achim Schilling und Patrick Krauss, Neurowissenschaftler am Uniklinikum Erlangen. Gemeinsam mit Kollegen aus Kanada und den USA haben die Forscher neuronale Netze so verändert, dass sie eher wie Nervenzellen im menschlichen Gehirn arbeiten.

Natürliche Nervenzellen nutzen zur Verarbeitung von Information binäre elektrische Impulse, sogenannte Spikes. Diese Spikes sind Millisekunden dauernde, immer gleich hohe Spannungsimpulse - die Information ist nicht in der Stärke dieser Impulse, sondern in ihren zeitlichen Abständen kodiert. Das mache die Arbeit des menschlichen Gehirns wesentlich effizienter, so die Wissenschaftler.

Design von Nervenzellen als Vorbild

Herkömmliche KI-Systeme seien zwar aus Einheiten aufgebaut, die grob an das Design von Nervenzellen angelehnt seien, heißt es in einer Mitteilung der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU). Allerdings verwendeten sie bei ihrer Arbeit kontinuierliche numerische Werte. Es würden sehr große Matrizen mit reellen Zahlen multipliziert - die Information stecke dabei in den exakten Werten, also den Aktivierungen der künstlichen Neuronen. Das verbraucht den Forschern zufolge große Mengen an Energie.

Zum Vergleich: Das Gehirn benötigt laut den Wissenschaftlern für die Informationsverarbeitung 20 Watt - die Energiemenge einer Glühbirne. Schon einfache Grafikprozessoren für KI-Anwendungen verbrauchten hingegen bereits mehrere hundert Watt.

Langes Kurzzeitgedächtnis kann erinnern und vergessen

Das ließe sich allerdings ändern. Schilling und Krauss haben eine spezielle Art künstlicher Nervenzellen konstruiert. Diese LSTM-Einheiten, kurz für Long Short-Term Memory - langes Kurzzeitgedächtnis, könnten sich an frühere Erfahrungen "erinnern" und durch sogenannte Gates zum Vergessen gebracht werden. So ließen sich nicht mehr benötigte Informationen aus dem System zu löschen. Die Forscher haben die LSTM-Einheiten derart verändert, dass sie sich bei der Informationsübertragung und -verarbeitung wie Gehirn-Nervenzellen verhalten, die Spikes nutzen.

Diese veränderten LSTM-Einheiten haben die FAU-Forscher an vier Bild-Datensätzen getestet, mit denen KI-Systeme trainiert werden. Das Resultat: Auch die neuartigen LSTM-Einheiten erzielten ähnlich gute Ergebnisse wie bereits existierende künstliche neuronale Netze. Geplant ist nun, die Algorithmen nun auf komplexere Daten wie Sprache und Musik anzuwenden.

Wie wichtig ein möglichst energieeffizienter Einsatz von KI ist, hat gerade erst eine Untersuchung des texanischen Rechenzentrumsbetreibers TRG Datacenters gezeigt. Demzufolge verbrauche gerade das Training der Bots riesige Mengen an elektrischen Strom. Angesichts des rasant fortschreitenden Trends, diese KI-Chatbots in alle möglichen IT-Systeme und Geräte zu integrieren, dürfte dies erhebliche Auswirkungen auf den weltweiten Energieverbrauch und CO2-Ausstoß haben.