KI und Machine Learning

Eine kleine Geschichte der Künstlichen Intelligenz

02.02.2024 von Klaus Manhart
Die Künstliche Intelligenz boomt – aber sie ist nicht vom Himmel gefallen. Was wir heute erleben, ist das Ergebnis von Gedanken und Tüfteleien genialer Vordenker. Eine kleine Geschichte der KI zeigt die wichtigsten Stationen - von Turing bis Watson.
Eine kleine Geschichte der KI zeigt die wichtigsten Stationen der Künstlichen Intelligenz - vom Mathematiker Turing bis zum IBM-System Watson.
Foto: John Williams RUS - shutterstock.com

In den letzten Jahren wurden in der Computerwissenschaft und KI unglaubliche Fortschritte erzielt. Watson, Siri oder Deep Learning zeigen, dass KI-Systeme inzwischen Leistungen vollbringen, die als intelligent und kreativ eingestuft werden müssen. Und es gibt heute immer weniger Unternehmen, die auf Künstliche Intelligenz verzichten können, wenn sie ihr Business optimieren oder Kosten sparen möchten.

KI-Systeme sind zweifellos sehr nützlich. In dem Maße wie die Welt komplexer wird, müssen wir unsere menschlichen Ressourcen klug nutzen, und qualitativ hochwertige Computersysteme helfen dabei. Dies gilt auch für Anwendungen, die Intelligenz erfordern. Die andere Seite der KI-Medaille ist: Die Möglichkeit, dass eine Maschine Intelligenz besitzen könnte, erschreckt viele. Die meisten Menschen sind der Ansicht, dass Intelligenz etwas einzigartiges ist, was den Homo sapiens auszeichnet. Wenn Intelligenz aber mechanisiert werden kann, was ist dann noch einzigartig am Menschen und was unterscheidet ihn von der Maschine?

Das Streben nach einer künstlichen Kopie des Menschen und der damit verbundene Fragenkomplex sind nicht neu. Die Reproduktion und Imitation des Denkens beschäftigte schon unsere Vorfahren. Vom 16. Jahrhundert an wimmelte es in Legenden und in der Realität von künstlichen Geschöpfen. Homunculi, mechanische Automaten, der Golem, der Mälzel'sche Schachautomat oder Frankenstein waren in den vergangenen Jahrhunderten alles phantasievolle oder reale Versuche, künstlich Intelligenzen herzustellen - und das zu nachzuahmen, was uns Wesentlich ist.

Künstliche Intelligenz - die Vorarbeiten

Allein, es fehlten die formalen und materiellen Möglichkeiten, in denen sich Intelligenz realisieren konnte. Dazu sind zumindest zwei Dinge notwendig. Auf der einen Seite braucht es eine formale Sprache, in die sich kognitive Prozesse abbilden lassen und in der sich rein formal - zum Beispiel durch Regelanwendungen - neues Wissen generieren lässt. Ein solcher formaler Apparat zeichnete sich Ende des 19. Jahrhunderts mit der Logik ab.

Die Philosophen und Mathematiker Gottfried Wilhelm Leibniz, George Boole und Gottlob Frege haben die alte aristotelische Logik entscheidend weiterentwickelt, und in den 30er Jahren des letzten Jahrhunderts zeigte der Österreicher Kurt Gödel mit dem Vollständigkeitssatz die Möglichkeiten - und mit den Unvollständigkeitssätzen die Grenzen - der Logik auf.

Auf der anderen Seite war - analog dem menschlichen Gehirn - ein "Behältnis" oder Medium notwendig, in dem dieser Formalismus "ablaufen" konnte und in dem sich die künstliche Intelligenz realisieren lässt. Mechanische Apparate waren hierfür nicht geeignet, erst mit der Erfindung der Rechenmaschine eröffnete sich eine aussichtsreiche Möglichkeit. In den dreißiger Jahren des 20. Jahrhunderts wurde die Idee einer Rechenmaschine, die früher schon Blaise Pascal und Charles Babbage hatten, wiederbelebt. Während Pascal und Babbage lediglich am Rechner als Zahlenmaschine interessiert waren, die praktischen Zwecken dienen sollte, entstanden zu Beginn des 20. Jahrhunderts konkrete Visionen einer universellen Rechenmaschine.

Der britische Mathematiker Alan Turing beeinflusste die Entwicklung der Künstlichen Intelligenz maßgeblich.
Foto: Computerhistory.org

Einer der wichtigsten Visionäre und Theoretiker war Alan Turing (1912-1954): 1936 bewies der britische Mathematiker, dass eine universelle Rechenmaschine - heute als Turing-Maschine bekannt - möglich ist. Turings zentrale Erkenntnis ist: Eine solche Maschine ist fähig, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar und lösbar ist. Übertragen auf menschliche Intelligenz bedeutet das: Sind kognitive Prozesse algorithmisierbar - also in endliche wohldefinierte Einzelschritte zerlegbar - können diese auf einer Maschine ausgeführt werden. Ein paar Jahrzehnte später wurden dann tatsächlich die ersten praktisch verwendbaren Digitalcomputer gebaut. Damit war die "physische Trägersubstanz" für künstliche Intelligenz verfügbar.

Der Turing-Test: 1950

Turing ist noch wegen einer anderen Idee wichtig für die KI: In seinem berühmten Artikel "Computing Machinery and Intelligence" aus dem Jahr 1950 schildert er folgendes Szenario: Angenommen, jemand behauptet, er hätte einen Computer auf dem Intelligenzniveau eines Menschen programmiert. Wie können wir diese Aussage überprüfen? Die naheliegende Möglichkeit, ein IQ-Test, ist wenig sinnvoll. Denn dieser misst lediglich den Grad der Intelligenz, setzt aber eine bestimmte Intelligenz bereits voraus. Bei Computern stellt sich aber gerade die Frage, ob ihnen überhaupt Intelligenz zugesprochen werden kann.

Turing war sich des Problems bei der Definition von intelligentem menschlichem Verhalten im Vergleich zur Maschine bewusst. Um philosophische Diskussionen über die Natur menschlichen Denkens zu umgehen, schlug Turing einen operationalen Test für diese Frage vor.

Ein Computer, sagt Turing, sollte dann als intelligent bezeichnet werden, wenn Menschen bei einem beliebigen Frage-und-Antwort-Spiel, das über eine elektrische Verbindung durchgeführt wird, nicht unterscheiden können, ob am anderen Ende der Leitung dieser Computer oder ein anderer Mensch sitzt. Damit die Stimme und andere menschliche Attribute nichts verraten, solle die Unterhaltung, so Turing, über eine Fernschreiberverbindung - heute würde man sagen: ein Terminal mit Tastatur - erfolgen.

Turings Test zeigt, wie Intelligenz ohne Bezugnahme auf eine physikalische Trägersubstanz geprüft werden kann. Intelligenz ist nicht an die biologische Trägermasse Gehirn gebunden und es würde nichts bringen, eine Denkmaschine durch Einbettung in künstliches Fleisch menschlicher zu machen. Unwichtige physische Eigenschaften - Aussehen, Stimme - werden durch die Versuchsanordnung ausgeschaltet, erfasst wird das reine Denken. Turings Gedankenspiele mündeten später in die Auseinandersetzung zwischen starker und schwacher KI.

Der Turing-Test: Wer ist Mensch und wer ist Maschine?
Foto: Suresh Kumar Mukhiya

Big Bang in Dartmouth: Das erste KI-Programm - 1956

Drei Jahre nach Turings Tod, im Jahr 1956, beginnt die eigentliche Geschichte der Künstlichen Intelligenz. Als KI-Urknall gilt das "Summer Research Project on Artificial Intelligence" in Dartmouth im US-Bundesstaat New Hampshire. Unter den Teilnehmern befanden sich der Lisp-Erfinder John McCarthy (1927-2011), der kürzlich verstorbene KI-Forscher Marvin Minsky (1927-2016), IBM-Mitarbeiter Nathaniel Rochester (1919-2001), der Informationstheoretiker Claude Shannon (1916-2001) sowie der Kognitionspsychologe Alan Newell (1927-1992) und der spätere Ökonomie-Nobelpreisträger Herbert Simon (1916-2001).

Eine Tafel am Gebäude des Dartmouth College erinnert an die legendäre Konferenz von 1956, auf der der Begriff „Artificial Intelligence“ ins Leben gerufen wurde.
Foto: Dartmouth.edu

Big Bang in Dartmouth: Das erste KI-Programm - 1956

Drei Jahre nach Turings Tod, im Jahr 1956, beginnt die eigentliche Geschichte der Künstlichen Intelligenz. Als KI-Urknall gilt das "Summer Research Project on Artificial Intelligence" in Dartmouth im US-Bundesstaat New Hampshire. Unter den Teilnehmern befanden sich der Lisp-Erfinder John McCarthy (1927-2011), der kürzlich verstorbene KI-Forscher Marvin Minsky (1927-2016), IBM-Mitarbeiter Nathaniel Rochester (1919-2001), der Informationstheoretiker Claude Shannon (1916-2001) sowie der Kognitionspsychologe Alan Newell (1927-1992) und der spätere Ökonomie-Nobelpreisträger Herbert Simon (1916-2001).

Eine Tafel am Gebäude des Dartmouth College erinnert an die legendäre Konferenz von 1956, auf der der Begriff „Artificial Intelligence“ ins Leben gerufen wurde.
Foto: Dartmouth.edu

Projekte zur maschinellen Sprachübersetzung wurden in Millionenhöhe von der amerikanischen Regierung gefördert. Sätze wurden Wort für Wort übersetzt, zusammengestellt und an die jeweilige Zielsprache angepasst. Die Probleme reduzierten sich darauf, umfangreiche Wörterbücher anzulegen und effizient abzusuchen. Man verkannte in dieser Phase der KI-Forschung, dass Sprache vage und mehrdeutig ist und für automatisches Übersetzen vor allen Dingen umfangreiches Weltwissen erforderlich ist.

Künstliche Intelligenz im Elfenbeinturm: 1965 bis 1975

Die zweite Ära der KI lässt sich etwa zwischen 1965 und 1975 ansiedeln und mit dem Schlagwort KI-Winter und Forschung im Elfenbeinturm umschreiben. Weil nicht genügend Fortschritte erkennbar waren, wurde die Finanzierung der US-Regierung für KI-Projekte gekürzt. KI-Forscher zogen sich daraufhin in den Elfenbeinturm zurück und agierten in Spielzeugwelten ohne praktischen Nutzen.

Frustriert von der Komplexität der natürlichen Welt bauten die Forscher in dieser Phase Systeme, die auf künstliche Mikrowelten beschränkt waren. Die Wissenschaftler hofften damit, sich auf das Wesentliche konzentrieren zu können und durch Erweiterung der Mikrowelt-Systeme nach und nach natürliche Umgebungen in den Griff zu bekommen. In dieser Phase erkannten die KI-Forscher die Bedeutung von Wissen für intelligente Systeme.

Ein typisches Programm dieser Periode mit einigem Aufmerksamkeitswert ist SHRDLU von Terry Winograd (1972). Das natürlichsprachliche System agiert in einer überschaubaren Klötzchenwelt, beantwortet Fragen nach der Lage von Klötzchen und stellt Klötzchen auf Anfrage symbolisch um. SHRDLU gilt als das erste Programm, das Sprachverständnis und die Simulation planvoller Tätigkeiten miteinander verbindet.

Ebenfalls in einer überdimensionalen Klötzchenwelt lebte der Ende der sechziger Jahre in Stanford entwickelte erste autonome Roboter - aufgrund seiner ruckartigen Bewegungen SHAKEY genannt. Der Kopf ist eine drehbare Kamera, der Körper ein riesiger Computer. Man konnte ihm Anweisungen geben, wie etwa einen Block von einem Zimmer in ein anderes Zimmer zu bringen. Das dauerte allerdings ziemlich lange. SHAKEY funktionierte leider nur in dieser Laufstall-Umwelt, in der realen Welt war er zum Scheitern verurteilt.

SHRDLU ist ein natürlichsprachliches System, das in einer überschaubaren Klötzchenwelt agiert, Fragen nach der Lage von Klötzchen beantwortet und Klötzchen auf Anfrage symbolisch umstellt.
Foto: http://hci.stanford.edu/winograd/shrdlu/

Ende der 1960er Jahre war die Geburtsstunde des ersten Chatbots: Der KI-Pionier und spätere KI-Kritiker Joseph Weizenbaum (1923-2008) vom MIT entwickelte mit einem relativ simplen Verfahren das "sprachverstehende" Programm ELIZA. Simuliert wird dabei der Dialog eines Psychotherapeuten mit einem Klienten. Das Programm übernahm den Part des Therapeuten, der Nutzer konnte sich mit ihm per Tastatur unterhalten. Weizenbaum selbst war überrascht, auf welch einfache Weise man Menschen die Illusion eines Partners aus Fleisch und Blut vermitteln kann. Er berichtete, seine Sekretärin hätte sich nur in seiner Abwesenheit mit ELIZA unterhalten, was er so interpretierte, dass sie mit dem Computer über ganz persönliche Dinge sprach.

Das Programm ELIZA von Joseph Weizenbaum ahmt einen Psychotherapeuten nach. Hier ein aus dem Englischen übersetztes Beispiel einer Sitzung, die von Weizenbaum aufgezeichnet wurde. Die menschlichen Inputs sind mit „M>“ gekennzeichnet, die Antwort des Computers ist mit „C>“ angegeben.
Foto: Weizenbaum

Denkende KI-Maschinen? - Starke und schwache KI

In den siebziger Jahren begann ein heftig ausgefochtener Streit um den ontologischen Status von KI-Maschinen. Bezugnehmend auf die Arbeiten von Alan Turing formulierten Allen Newell und Herbert Simon von der Carnegie Mellon University die "Physical Symbol System Hypothesis". Ihr zufolge ist Denken nicht anderes als Informationsverarbeitung, und Informationsverarbeitung ein Rechenvorgang, bei dem Symbole manipuliert werden. Auf das Gehirn als solches komme es beim Denken nicht an.

Diese Auffassung griff der Philosoph John Searle vehement an. Als Ergebnis dieser Auseinandersetzung stehen sich bis heute mit der schwachen und starken KI zwei konträre Positionen gegenüber. Die schwache KI im Sinne von John Searle behauptet, dass KI-Maschinen menschliche kognitive Funktionen zwar simulieren und nachahmen können. KI-Maschinen erscheinen aber nur intelligent, sie sind es nicht wirklich.

Ein zentrales Argument der schwachen KI lautet: Menschliches Denken ist gebunden an den menschlichen Körper und insbesondere das Gehirn. Kognitive Prozesse haben sich historisch im Zuge der evolutionären Entwicklung von Körper und Gehirn entwickelt. Damit ist Denken notwendigerweise eng verknüpft mit der Biologie des Menschen und kann nicht von dieser getrennt werden. Computer können zwar diese Denkprozesse imitieren, aber das ist etwas ganz anderes als das, wie Menschen denken. Sowenig, wie ein simuliertes Unwetter nass macht, sowenig ist ein simulierter Denkprozess dasselbe wie menschliches Denken.

Im Gegensatz dazu sagen die Anhänger der von Newell und Simon inspirierten starken KI, dass KI-Maschinen in demselben Sinn intelligent sind und denken können wie Menschen. Das ist nicht metaphorisch, sondern wörtlich gemeint. Für die starke KI spricht: So wie Computer aus Hardware bestehen, so bestehen auch Menschen aus Hardware. Im ersten Fall ist es Hardware auf Silizium-Basis, im zweiten Fall biologische "Wetware". Es spricht grundsätzlich nichts dagegen, dass sich Denken nur auf einer spezifischen Form von Hardware realisieren lässt. Nach allem was man bislang aus der Gehirn- und Bewusstseinsforschung weiß ist eine gewisse Komplexität der Trägersubstanz eine notwendige (und vielleicht auch hinreichende) Bedingung für Denkprozesse. Sind KI-Maschinen also hinreichend komplex, denken sie in der gleichen Weise wie Sie und ich.

Expertensysteme - die KI wird praktisch: 1975 bis 1985

In der dritten Ära ab Mitte der 70er Jahre löste man sich von den Spielzeugwelten und versuchte praktisch einsetzbare Systeme zu bauen, wobei Methoden der Wissensrepräsentation im Vordergrund standen. Die KI verließ ihren Elfenbeinturm und KI-Forschung wurde auch einer breiteren Öffentlichkeit bekannt.

Die von dem US-Informatiker Edward Feigenbaum initiierte Expertensystem-Technologie beschränkt sich zunächst auf den universitären Bereich. Nach und nach entwickelten sich Expertensysteme jedoch zu einem kleinen kommerziellen Erfolg und waren für viele identisch mit der ganzen KI-Forschung - so wie heute für vieleMachine Learning identisch mit KI ist.

In einem Expertensystem wird das Wissen eines bestimmten Fachgebiets in Form von Regeln und großen Wissensbasen repräsentiert. Das bekannteste Expertensystem war das von T. Shortliffe an der Stanford University entwickelten MYCIN. Es diente zur Unterstützung von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis. Ihm wurde durch eine Evaluation attestiert, dass seine Entscheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten.

Ausgehend von MYCIN wurden eine Vielzahl weiterer Expertensysteme mit komplexerer Architektur und umfangreichen Regeln entwickelt und in verschiedensten Bereichen eingesetzt. In der Medizin etwa PUFF (Dateninterpretation von Lungentests), CADUCEUS (Diagnostik in der inneren Medizin), in der Chemie DENDRAL (Analyse der Molekularstruktur), in der Geologie PROSPECTOR (Analyse von Gesteinsformationen) oder im Bereich der Informatik das System R1 zur Konfigurierung von Computern, das der Digital Equipment Corporation (DEC) 40 Millionen Dollar pro Jahr einsparte.

Auch das im Schatten der Expertensystem-Euphorie stehende Gebiet der Sprachverarbeitung orientierte sich an praktischen Problemstellungen. Ein typisches Beispiel ist das Dialogsystem HAM-ANS, mit dem ein Dialog in verschiedenen Anwendungsbereichen geführt werden kann. Natürlichsprachliche Schnittstellen zu Datenbanken und Betriebssystemen drangen in den kommerziellen Markt vor wie INTELLECT, F&A oder DOS-MAN.

Expertensysteme wie MYCIN konnten mit Hilfe von Regeln und Wissensbasen Diagnose erstellen und Therapien empfehlen.
Foto: University of Science and Culture

Die Renaissance neuronaler Netze: 1985 bis 1990

Anfang der 80er Jahre kündigte Japan das ehrgeizige "Fifth Generation Project" an, mit dem unter anderem geplant war, praktisch anwendbare KI-Spitzenforschung zu betreiben. Für die KI-Entwicklung favorisierten die Japaner die Programmiersprache PROLOG, die in den siebziger Jahren als europäisches Gegenstück zum US-dominierten LISP vorgestellt worden war. In PROLOG lässt sich eine bestimmte Form der Prädikatenlogik direkt als Programmiersprache verwenden. Japan und Europa waren in der Folge weitgehend PROLOG-dominiert, in den USA setzte man weiterhin auf LISP.

Mitte der 80er bekam die symbolische KI Konkurrenz durch die wieder auferstandenen neuronalen Netze. Basierend auf Ergebnissen der Hirnforschung wurden schon in den vierziger Jahren durch McCulloch, Pitts und Hebb erste mathematische Modelle für künstliche neuronale Netze entworfen. Doch damals fehlten leistungsfähige Computer. Nun in den Achtzigern erlebte das McCulloch-Pitts-Neuron eine Renaissance in Form des sogenannten Konnektionismus.

Der Konnektionismus orientiert sich anders als die symbolverarbeitende KI stärker am biologischen Vorbild des Gehirns. Seine Grundidee ist, dass Informationsverarbeitung auf der Interaktion vieler einfacher, uniformer Verarbeitungselemente basiert und in hohem Maße parallel erfolgt. Neuronale Netze boten beeindruckende Leistungen vor allem auf dem Gebiet des Lernens. Das Programm Netttalk konnte anhand von Beispielsätzen das Sprechen lernen: Durch Eingabe einer begrenzten Menge von geschriebenen Wörtern mit der entsprechenden Aussprache als Phonemketten konnte ein solches Netz zum Beispiel lernen, wie man englische Wörter richtig ausspricht und das gelernte auf unbekannte Wörter richtig anwendet.

Doch selbst dieser zweite Anlauf kam zu früh für neuronale Netze. Zwar boomten die Fördermittel, aber es wurden auch die Grenzen deutlich. Es gab nicht genügend Trainingsdaten, es fehlten Lösungen zur Strukturierung und Modularisierung der Netze und auch die Computer vor der Jahrtausendwende waren immer noch zu langsam.

Verteilte KI und Robotik: Künstliche Intelligenz zwischen 1990 und 2010

Ab etwa 1990 entstand mit der Verteilten KI ein weiterer, neuer Ansatz, der auf Marvin Minsky zurückgeht. In seinem Buch "Society of Mind" beschreibt er den menschlichen Geist als eine Art Gesellschaft: Intelligenz, so Minsky, setzt sich zusammen aus kleinen Einheiten, die primitive Aufgaben erledigen und deren Zusammenwirken erst intelligentes Verhalten erzeugt. Minsky forderte die KI-Gemeinde auf, die individualistische Sackgasse zu überwinden und ganz andere, sozial inspirierte Algorithmen für Parallelrechner zu entwerfen.

Marvin Minsky gilt als Vater der Verteilten KI.
Foto: Creative Commons

Sein Schüler Carl Hewitt setzte ein erstes handfestes Modell um, in dem primitive Einheiten - er nannte sie Actoren - miteinander Botschaften austauschten und parallel arbeiteten. Der Gedanke des sozial interagierenden KI-Systems war damit konkret geboren - und Carl Hewitt zum Vater des neuen Ansatzes der Verteilten KI bzw. Distributed AI geworden. Im Rückblick erweisen sich Minsky's und Hewitt's Ideen als der Beginn der Agententechnologie, bei der die Zusammenarbeit vieler verschiedener Agenten - sogenannte Multi-Agenten-Systeme -ein enormes Potenzial entfaltet.

Ein KI-Meilenstein in den 90er Jahren war der erste Sieg einer KI-Schachmaschine über den Schachweltmeister. 1997 bezwang der IBM-Rechner Deep Blue in einem offiziellen Turnier den damals amtierenden Schachweltmeister Garry Kasparov. Dieses Ereignis galt als historischer Sieg der Maschine über den Menschen in einem Bereich, in dem der Mensch bislang die Oberhand hatte. Das Event sorgte weltweit für Furore und brachte IBM viel Aufmerksamkeit und Renommee. Heute gelten Computer im Schach als unschlagbar. Dennoch fiel auf den Sieg des Computers auch ein Schatten, weil Deep Blue seinen Erfolg weniger seiner künstlichen, kognitiven Intelligenz verdankte, sondern mit roher Gewalt ("Brute Force") alle nur denkbaren Züge soweit wie möglich durchrechnete.

1997 bezwang erstmals ein Computer – IBMs Deep Blue – den amtierenden Schachweltmeister.
Foto: IBM

In dieser Zeit bekam auch die bis dahin eher dahindümpelnde Robotik neuen Auftrieb. Der ab 1997 jährlich ausgetragene RoboCup demonstrierte eindrucksvoll, was KI und Robotik leisten können. Wissenschaftler und Studenten aus der ganzen Welt treffen sich seitdem regelmässig, um ihre Roboter-Teams gegeneinander im Fußball antreten zu lassen. Inzwischen fechten die mobilen Roboter auch andere Wettkämpfe aus als Fußball. Ab etwa 2005 entwickeln sich Serviceroboter zu einem dominanten Forschungsgebiet der KI und um 2010 beginnen autonome Roboter, ihr Verhalten durch maschinelles Lernen zu verbessern.

Die kommerzielle Wende: KI ab 2010

Die aktuelle KI-Phase startete etwa um 2010 mit der beginnenden Kommerzialisierung. KI-Anwendungen verließen die Forschungslabors und machten sich in Alltagsanwendungen breit. Insbesondere die KI-Gebiete maschinelles Lernen und Natural Language Processing boomen. Hinzu kommen neuronale Netze, die ihre zweite, diesmal sehr erfolgreiche Wiedergeburt erleben.

IBM Watson war 2011 Sieger in einem Wissensquiz mit menschlichen Kandidaten. IBM vermarktet Watson nun als kognitives System für verschiedene Einsatzbereiche.
Foto: IBM

Die Hauptursachen für die kommerzielle Wende waren verbesserte KI-Verfahren und leistungsfähigere Software und Hardware: Softwareseitig erwiesen sich die weiter entwickelten neuronalen Netze und vor allem eine Variante - Deep Learning - als sehr robust und vielseitig einsetzbar. Weitere Trends wie Multi-Core-Architekturen, verbesserte Algorithmen und superschnelle In-Memory-Datenbanken machten KI-Anwendungen gerade auch für den Unternehmensbereich attraktiv. Ein zusätzlicher Faktor ist auch die zunehmende Verfügbarkeit großer Mengen strukturierter und unstrukturierter Daten aus einer Vielzahl von Quellen wie Sensoren oder digitalisierten Dokumenten und Bildern, mit denen sich die Lernalgorithmen "trainieren" lassen.

Im Zuge dieser verbesserten technischen und ökonomischen Möglichkeiten entdeckten auch die großen IT-Konzerne die KI: Den Grundstein legte 2011 IBM mit Watson. Watson kann natürliche Sprache verstehen und schwierige Fragen sehr schnell beantworten. 2011 konnte Watson in einem US-amerikanischen TV-Quiz zwei menschliche Kandidaten beeindruckend schlagen. In der Folge baute IBM Watson zu einem kognitiven System aus, das Algorithmen der natürlichen Sprachverarbeitung und des Information Retrieval, Methoden des maschinellen Lernens, der Wissensrepräsentation und der automatischen Inferenz vereinte. Inzwischen wurde Watson in verschiedenen Gebieten wie Medizin und Finanzwesen erfolgreich angewendet und IBM hat einen Großteil seines Business auf Watson ausgerichtet.

Maschine schlägt Mensch: 2016 besiegte Google’s Machine Learning System AlphaGo den Weltmeister im Spiel Go.
Foto: Google

Andere Big Player zogen nach. Google, Microsoft, Facebook, Amazon und Apple investieren viele Millionen in KI und stellen KI-Anwendungen und -Services bereit. Ein weiteres großes Event der KI-Geschichte ereignete sich im Januar 2016 schlug Google's AlphaGo den vermutlich weltbesten Go-Spieler mit 4 zu 1. Wegen der größeren Komplexität von Go im Vergleich zu Schach ist das japanische Brettspiel mit traditionellen Brute-Force-Algorithmen, wie sie noch Deep Blue verwendete, praktisch nicht bezwingbar. Deep Learning und andere aktuelle KI-Verfahren führten hier zum Erfolg.

Heute sind KI- und Machine-Learning-Verfahren in unterschiedlichsten Ausprägungen nicht nur bei den großen IT-Konzernen im Einsatz. Vor allem große und mittelständische Anwenderunternehmen aus fast allen Branchen nutzen KI-basierte Systeme, um Prozesse zu verbessern, Kundenschnittstellen zu optimieren oder ganz neue Produkte und Märkte zu entwickeln. Die Vielzahl an einschlägigen Cloud-basierten Services hat den Einsatz auch für kleinere Organisationen ohne große Entwicklungsbudgets erschwinglich gemacht.

Auf den Weg in den Mainstream: ChatGPT & Generative AI ab 2022

Seit OpenAI im November 2022 seinen KI-Chatbot ChatGPT öffentlich verfügbar gemacht hat, hat sich ein Hype entfaltet, der innerhalb der IT-Branche am ehesten mit dem großen Run auf die Cloud vergleichbar ist. Allerdings schaffte ChatGPT etwas, das anderen KI-Tools bis dahin kaum gelungen war - nämlich künstliche Intelligenz auch zum Dauergesprächsthema in den Mainstream-Medien zu machen.

ChatGPT rückte auch andere Tools wie DALL-E oder Stable Diffusion ins Rampenlicht und befeuerte die berufliche wie private Nutzung der Tools. Die werden häufig als Modelle bezeichnet, weil sie versuchen, einen Aspekt der realen Welt auf der Grundlage einer (manchmal sehr großen) Teilmenge von Informationen zu simulieren oder zu modellieren. Die Ergebnisse können Erstaunen hervorrufen, werfen aber auch Fragen auf. Abseits des Hypes geht unter der glänzenden Oberfläche der Systeme weniger Revolutionäres vor sich als man glaubt: Im Grunde geht es bei Generative AI darum, mit Hilfe von Machine Learning große Datenmengen zu verarbeiten, die in vielen Fällen aus dem Netz zusammengesammelt und anschließend als Grundlage für Vorhersagen genutzt werden. Wie ChatGPT sich selbst definiert, lesen Sie im COMPUTERWOCHE-Interview mit der KI-Instanz. Mehr Informationen zur Funktionsweise, Anwendungsfällen sowie den Limitationen von Generative AI erfahren Sie in unserem Grundlagenartikel zum Thema sowie einem weiterführenden Beitrag zum Thema Large Language Models (LLMs).

Im Januar 2023 konnte MIcrosoft einen Deal mit OpenAI verkünden: Die Redmonder erklärten sich bereit, rund zehn Milliarden Dollar in das KI-Startup zu investieren. Im Gegenzug werkelt der Konzern seitdem fleißig daran, die KI-Technologie zunehmend mit seinen eigenen Softwareprodukten im Verbraucher- und Unternehmensumfeld zu verknüpfen. Der Erfolg von ChatGPT (respektive OpenAI und Microsoft) setzte eine Art KI-Goldrausch in Gang und sorgte dafür, dass auch andere große Tech-Player Anstrengungen unternahmen, um möglichst schnell ein Konkurrenzprodukt auf den Markt zu bringen - allen voran Google.

Darüber hinaus entstanden im Dunstkreis von ChatGPT zahllose weitere generative KI-Tools und -Services für diverse Einsatzzwecke und Anwendungsfälle. Das hat Folgen: Laut der kommenden Studie "Applied AI 2023" nutzt bereits jeder zweite Entscheider in der DACH-Region Generative AI - beruflich wie privat.

Expertenstimmen "Applied AI"
Andreas Schneider, IBM
„KI ist nur so gut wie die Daten, die sie füttert. Unternehmen benötigen daher eine AI- und Data-Plattform, um Modelle möglichst kontextspezifisch und kollaborativ zu trainieren, zu validieren und zu deployen. Gleichzeitig darf dabei nicht aus den Augen verloren werden, alle Beteiligten auch abzuholen. Dass Veränderungen, beispielsweise durch die Automation von Geschäftsprozessen, nicht immer auf Begeisterung stoßen, ist völlig menschlich. Soziale Aspekte und Ängste muss man deshalb genauso berücksichtigen wie Technologie und eine umfangreiche Governance von KI-Modellen.“
Daniel Hummel, KI Reply
„Es reicht nicht aus, lediglich theoretisch über KI-Lösungen zu diskutieren und sie zu skizzieren. Stattdessen sollten wir diese Lösungen mithilfe von Mockups simulieren, um ihren Nutzen und ihre Machbarkeit besser zu verdeutlichen. Dank der neuesten Fortschritte in der KI können wir sie schnell in Proof-of-Concepts (PoCs) umwandeln. Dies eröffnet uns die Möglichkeit, sofort auf Veränderungen zu reagieren und den nächsten Schritt in Richtung Realisierung zu gehen. Für mich ist es von zentraler Bedeutung, die uns zur Verfügung stehenden Modelle bestmöglich zu nutzen. Damit können wir in Deutschland eigenständige Innovationen vorantreiben, anstatt die Lösungen anderer zu adaptieren.“
Michael Koch, Lufthansa Industry Solutions
„Die Nutzung von KI bringt bereits heute viele Vorteile, wir müssen den Umgang damit aber noch erlernen. Die Vision: Wir sollten KI wie ein Flugzeug verwenden. Denn auf dem Weg in den Urlaub vertrauen wir der Technik und machen uns keine Gedanken darüber, wie zum Beispiel ein Triebwerk funktioniert. Der Weg ist sicherlich noch weit, aber mit den derzeit verfügbaren Sprachmodellen und KIs können wir schon heute einfach und verlässlich gewinnbringende Lösungen entwickeln, die aktuelle Sicherheits- und Datenschutzvorgaben berücksichtigen. Eine gute Lösung sollte verwendet werden, egal welche KI im Einsatz ist. Voraussetzung dafür ist, dass sie alle ethischen und gesetzlichen Rahmenbedingungen im Sinne einer Trustworthy AI und des EU-AI-Acts einhält."
Christian Eckstein, MVTec Software
„Der Anteil von KI in Bildverarbeitungssystemen ist niedriger, als man vielleicht vermuten würde. Und das hat einen einfachen Grund: Die Modelle, die unsere Kunden selbst trainieren, müssen lokal ausgeführt werden. Die Idee, dass der Anlagenbetrieb von einer Internetverbindung oder einer Cloud abhängt, ist sehr absurd in der Industrie. Auch, dass Bilddaten von Fehlerteilen zum Beispiel nach aussen geschickt werden, ist für die meisten undenkbar. Weil die Modelle lokal ausgeführt werden, braucht es eine entsprechende Hardware. Eine GPU, die in der Fertigung gekühlt werden muss – auch das ist schwierig. Und schließlich ist KI für die meisten Anwendungen der Bildverarbeitung zu langsam. Die Inspektion von Folie zum Beispiel, die mit zig Metern pro Sekunde durch die Anlage läuft – da käme kein Modell hinterher.“
Björn Ständer, Oracle
„Ein breites Einsatzgebiet für KI gibt es heute schon im Bereich Gesundheitswesen. Die Kombination aus supervised and unsupervised Leaning erschliesst neue Möglichkeiten im Bereich Diagnose und Behandlung. Dabei werden z.B. Messdaten von Smart Devices mit Modellen von Digital Twins kombiniert, um Erkenntnisse für eine Früherkennung oder neue Behandlungsmethoden zu gewinnen. Der Einsatz anonymisierter Bilderkennung unterstützt das Krankenhauspersonal beim Monitoring von Patienten und alarmiert Pflegekräfte über kritische Situationen – durch eine intelligente Automatisierung mit KI kann das Personal von Routinetätigkeiten entlastet werden – in Zeiten von Fachkräftemangel und steigendem Kostendruck dient der Einsatz von KI dem Wohl Patienten als auch der Kostenoptimierung des Providers.“
Alexander Siebert, Retresco
„Mit ChatGPT haben wir zum ersten Mal eine White Collar Revolution. Vorher waren es die Kuka-Roboter, welche die Blue Collar Worker in den Fabriken bedroht haben. Nun sind plötzlich die Kreativprozesse betroffen, was Unternehmen vor große Herausforderungen stellt. Sowohl intern, weil die Marketing-Abteilungen um ihre Jobs fürchten, andererseits aber damit arbeiten müssen, um effizient zu bleiben. Aber auch von außen, weil plötzlich eine ganz andere Wettbewerbssituation gegeben ist. Mit KI-Sprachmodellen können kleine 1-Personen-Betriebe viel leichter Geschäftsmodelle aufbauen, welche sehr schnell herkömmliche Angebote bedrohen können.“
Johannes Bohnet, Seerene
„Selbst vergleichsweise einfache Softwareprojekte entziehen sich durch ihre im wahrsten Sinne des Wortes übermenschliche Komplexität einem holistischen menschlichen Verständnis und damit der strategischen Steuerung durch menschliche Akteure. Seerene nutzt KI einerseits, um aus den Daten, die in den Software-Entwicklungsabteilungen bereits vorhanden sind, die Sichtbarkeit von Software-Produktionsprozessen bis hin zur Managementebene zu erreichen. Zum anderen setzen wir AI direkt in der Software-Entwicklung ein, um Vorhersagen treffen zu können, wo aus den Tätigkeiten heraus eine zukünftige Gefahr besteht, dass dort Fehlerquellen in den Code gelangen könnten.“