Nach Schach und Go

DeepMind trainiert KI für Fußball

08.09.2022
Von Redaktion Computerwoche
Forscher der Google-Tochter DeepMind beschäftigen sich neuerdings nicht mehr mit Kopfspielen wie Schach und Go, sondern mit dem Lauf- (und Herzens-)Spiel Fußball.
Ein neues Steuerungsmodul für motorische Bewegungen hilft den Engineers von Deepmind dabei, humanoide Agenten Fußball spielen zu lassen.
Ein neues Steuerungsmodul für motorische Bewegungen hilft den Engineers von Deepmind dabei, humanoide Agenten Fußball spielen zu lassen.
Foto: Mykola Holyutyak - shutterstock.com

Das Unternehmen hat ein Forschungspapier und einen Blogbeitrag veröffentlicht, in dem es eine Methode vorstellt, mit der KI-Agenten lernen sollen, die Bewegungen physische Körper zu steuern. Hinter dem Verfahren steckt ein universelles Motorik-Steuerungsmodul namens "Neural Probabilistic Motor Primitives" (NPMP). Es überträgt motorische Bewegungen in Steuersignale und wird offline oder über Reinforcement Learning trainiert, indem Bewegungsdaten von Menschen (oder Tieren) via Trackern aufgezeichnet werden.

In der Forschungsarbeit des Teams heißt es: "Wir haben Teams von Agenten optimiert, um via Reinforcement Learning simulierten Fußball zu spielen. Dabei haben wir den Lösungsraum auf solche plausiblen Bewegungen beschränkt, die wir mit Hilfe von Daten über menschliche Bewegungsmuster gelernt hatten."

Bewegungen vorhersagen in schwer kontrollierbarem Raum

Ziel der Übung ist es nicht, einen besseren Fußballspieler zu entwickeln oder, wie es The Next Web ausdrückt: "Cristiano Ronaldo hat von den Robotern vorerst nichts zu befürchten". Die KI soll vielmehr dabei helfen herauszufinden, wie sich Humanoide und sonstige Roboter mit dem Einsatz von Agenten im schwer kontrollierbaren Raum bewegen können und wie sich ihre Bewegungen vorhersagen lassen.

So ist die KI zu Beginn des Modell-Trainings gerade mal in der Lage, ihren physikbasierten humanoiden Avatar irgendwie über das Spielfeld zu bewegen. Doch indem ein Agent jedes Mal "belohnt" wird, wenn sein Team ein Tor schießt, kann das Modell die Bots nach etwa 50-stündigem Training zum Laufen bringen. Einige Tage später lässt sich dann bereits genauer vorhersagen, wohin der Ball fliegen wird, und wie die anderen Agenten auf die Bewegungen eines Akteurs reagieren werden.

In dem Forschungspapier heißt es: "Ergebnis ist ein Team von koordinierten humanoiden Fußballspielern, die ein komplexes Verhalten auf verschiedenen Ebenen zeigen, das durch eine Reihe von Analysen und Statistiken quantifiziert wird - darunter auch solche, die in der realen Sportanalyse verwendet werden. Unsere Arbeit stellt eine vollständige Demonstration der erlernten integrierten Entscheidungsfindung auf mehreren Ebenen in einer Multiagenten-Situation dar."

Entwicklung noch am Anfang

Oder wie es The Next Web zusammenfasst: "Diese Arbeit ist ziemlich toll. Aber wir sind uns nicht sicher, ob sie eine 'vollständige Demonstration' von irgendetwas darstellt. Das Modell ist offensichtlich in der Lage, einen körperlichen Agenten zu steuern. Ausgehend von den ausgewählten GIFs im Blogbeitrag befindet sich diese Arbeit jedoch noch ziemlich am Anfang."

Unternehmen wie Boston Dynamics hätten mit ihren maschinellen Lernalgorithmen und vorprogrammierten Choreografien allerdings gezeigt, dass solche Modelle mit der Zeit immer robuster würden. Die Frage sei nun, wie sich solche adaptiven Modelle entwickeln werden, wenn sie die Laborumgebung verlassen haben und in realen Roboteranwendungen eingesetzt werden. (hv)