Künstliche Intelligenz

Adobe erklärt seine KI-Strategie

Stefan von Gagern ist diplomierter Medientechniker (FH) und war als Redakteur und Ressortleiter bei den Fachtiteln "Screen Busines Online" und "Page" tätig. Später lehrte er als Dozent für Medienkonzeption im Master-Studiengang "Multimedia Production" an der Fachhochschule Kiel. Heute schreibt er als freier Fachjournalist und Autor über Themen wie Publishing, Internet, Social Media und Digital Lifestyle. Parallel berät er Unternehmen bei der Konzeption und Umsetzung von Social-Media-Auftritten.
Die Personalisierung von Inhalten wird nach Einschätzung von Adobe das nächste große Ding im Geschäft mit Kundenerlebnissen. Künstliche Intelligenz soll dabei eine zentrale Rolle spielen.

Experience ist heute kein Marketing-Buzzword mehr, sondern bedeutet reales Geschäft. Diese These versuchte Adobe CEO Shantanu Narayen auf der Fachkonferenz Adobe Summit in London zu belegen. Mehr als 5000 Marketing-Profis aus ganz Europa besuchten die Veranstaltung. "Die Kunden kaufen heute keine Produkte, sondern Erlebnisse," so der Manager. Unternehmen, die im Bereich Kundenerlebnisse investierten, hätten glücklichere Mitarbeiter, mehr Markenaufmerksamkeit, höhere Bestellvolumen, eine bessere Kundenzufriedenheit und mehr Erfolg mit Werbekampagnen. Eine Studie von Forrester lieferte zu jedem Punkt konkrete Zahlen, zum Beispiel soll das Bestellvolumen damit 1,5 mal höher ausfallen.

Adobe CTO Abhay Parasnis zeigte die Einsatzmöglichkeiten von KI in Adobe-Software.
Adobe CTO Abhay Parasnis zeigte die Einsatzmöglichkeiten von KI in Adobe-Software.
Foto: Adobe

Datenintelligenz ist der Schlüssel

Doch mit dem Investieren allein ist es nicht getan. Wie kommen Unternehmen zu einem erfolgreichen Geschäft mit Kundenerlebnissen? Adobe spricht hier von "Experience Makers". Als Beispiele waren Vertreter von Virgin Atlantic, Sky UK, Vodafone und Shell auf der Bühne. Sky brachte etwa sein Pay TV- und Filmangebot auf allen Geräten auch mobil an den Kunden; Shell zeigte, wie Kunden mit der Sprachassistentin Alexa eine Route planen können und unterwegs - falls sie zur nächsten Shell Station abbiegen - per Push-Message eine kostenlose Autowäsche mit Gratis-Kaffee bekommen. Die Nachricht erscheint dabei nicht nur auf dem Smartphone, sondern auch dem Display der Tanksäule.

Die Kunst beim Gestalten von Kundenerlebnissen, so zeigt es das Beispiel von Shell, ist es, dem Kunden zur richtigen Zeit, am richtigen Ort und in Echtzeit den passenden Inhalt anzubieten. "Datenintelligenz ist der Schlüssel zur Personalisierung von Inhalten. Wichtig ist es, alle Kundentransaktionen an einem Ort zu verstehen," so Narayen. Mit der Adobe Experience Cloud soll sich eine Plattform dabei um alles kümmern und Daten zentral zugänglich und verfügbar machen. Dabei soll sie nicht nur Daten aus alten Systemen - ein großes Problem in vielen Unternehmen - verarbeiten können, sondern auch GDPR-konform vorgehen.

Das richtige Angebot zur richtigen Zeit

Bei dieser schwierigen Aufgabe, zum Beispiel der Analyse riesiger Datenmengen, kommen künstliche Intelligenz und Machine Learning ins Spiel. Die maschinelle Intelligenz kann alle bisherigen Transaktionen des Kunden analysieren und dann vorhersagen, wann im Fall des Shell-Beispiels der Kunde am besten eine Autowäsche gebrauchen könnte. "Daten und Content müssen intelligent verdrahtet werden, um sie richtig zusammenzubringen" so Narayen. Gleichzeitig erwarte der Kunde ein hohes Niveau beim Design der Inhalte - und zwar auf allen Endgeräten, egal ob Smartwatch oder dem Head-up Displays eines Autos.

DIGITAL INNOVATION Award - bewerben Sie sich jetzt!

In der Experience Cloud kommt zum "Verdrahten" von Content und Daten künstliche Intelligenz und Machine Learning mit dem Framework Adobe Sensei zum Einsatz. Laut Abhay Parasnis, CTO & EVP von Adobe, ist künstliche Intelligenz die Technologie, welche die nächste Dekade komplett verändern wird - nach Meinung von Parasnis mehr als das Internet die Welt bisher verändert hat. Kein Wunder also dass künstliche Intelligenz bei den Internetkonzernen wie Google, IBM, Facebook und Amazon ganz oben auf der Liste steht. Amazon entwickelt zum Beispiel laut Gerüchten einen KI-Chip, der seiner Sprachassistentin Alexa helfen soll, menschliche Wünsche vorherzusagen. IBM hat mit Watson eine eigene AI (Artificial Intelligence)-Plattform am Start. Doch wie unterscheidet sich Adobes hauseigene Lösung von diesen Angeboten?

Spezialisierung statt Allgemein

Historisch ist Adobe tief im Bereich Design mit Werkzeugen für Gestalter verwurzelt und hat sich seit 2011 in Richtung Cloud-Konzern entwickelt. "Alle Kundenerfahrungen beginnen mit großartigem Design. Design war immer im Herzen von Adobe," betonte Narayen in London. Weil Designer seit Jahrzehnten mit Adobe-Produkten arbeiten, hat der Konzern sowohl die Software als auch viele Daten, die helfen, Design zu verstehen. So liegt es nahe, das hauseigene KI-Framework Sensei darauf auszurichten.

Allgemein gibt es bei künstlicher Intelligenz zwei Philosophien: Die eine versucht, das menschliche Gehirn zu simulieren und als Allrounder jedes Problem zu lösen. Die Einsatzmöglichkeiten sind enorm: Sie reichen von der Medizin bis hin zu selbstfahrenden Autos. Laut Parasnis hat sich Adobe für den anderen Ansatz entschieden, der auf eine Spezialisierung der künstlichen Intelligenz setzt.

Schwierige Aufgaben werden einfach

So soll Sensei künftig nicht das Wetter vorhersagen können, aber dafür die beste Technologie für kreative Spezialaufgaben wie Bilderkennung liefern. "Das gibt uns Fokus und deshalb können wir tiefer in die Aufgaben einsteigen und sie besser erledigen," so Parasis. KI kommt heute schon in Adobe-Apps als intelligenter Helfer zum Einsatz. Photoshop Fix kann zum Beispiel intelligent Gesichter erkennen. Es reicht, einen Schieberegler zu ziehen, um die Mimik im Gesicht zu verändern - normalerweise eine komplexe Retusche, die nur Profis überzeugend umsetzen können. Mit Hilfe von KI wird die Funktion für Einsteiger zugänglich.

"Wir wissen bei Adobe, was Künstler retuschieren und korrigieren, wenn sie ein Bild bearbeiten" sagt Parasnis. "Zudem haben wir hunderte Millionen Fotos in Profiqualität von Künstlern analysiert. Bei Bewegtbildern haben wir Material von Oskar-prämierten Filmen, die mit unserer Software arbeiten. Bilderkennung bieten viele Firmen an, aber Sensei ist nur trainiert, kreative Probleme zu lösen." Das mache das KI-System einzigartig. Parasnis vergleicht den Prozess mit dem Erlernen einer Sprache.

Sensei kommt schon an vielen Stellen in Adobe-Produkten zum Einsatz und soll übergreifend in der Creative Cloud und der Experience Cloud nützlich werden. Software wie Adobe Spark, die das Gestalten von Grafiken oder Websites in wenigen Minuten möglich macht, zeigt das Potenzial: Kreativität ist nicht mehr nur den Profis vorbehalten. Vielmehr soll jeder, der eine Idee hat, diese auch umsetzen können. In der Experience Cloud kann Sensei etwa helfen, Content in der richtigen Form zum richtigen Zeitpunkt an die Zielgruppe zu bringen.

Mensch versus oder mit Maschine?

Viele Menschen, das wurde auch in London wieder klar, begegnen KI mit großer Skepsis. Braucht man überhaupt noch Kreative und Marketing-Experten, oder kann die Maschine bald alles selbst erledigen und wird zum Job-Killer? Adobe hat hier recht klare Antworten: KI und Sensei sollen die menschliche Kreativität verstärken, aber nie ersetzen. Statt sich damit zu beschäftigen, das richtige Bild für eine Kampagne zu suchen oder 30 Betreffzeilen für E-Mails auf Zielgruppen zuzuschneiden, soll sich der Mensch künftig auf seine Ideen konzentrieren können, während die KI sich wiederholende Routineaufgaben abwickelt.

Ein weiterer wichtiger Unterschied wurde in einer Sensei-Demo in London deutlich: Das System gestaltete in wenigen Minuten eine Bannerkampagne, eine Website und ein Filmplakat und bereitete die Inhalte für alle Kanäle auf. Der Designer oder Marketer kann dabei jede Designentscheidung im Nachhinein in einem Baumdiagramm nachvollziehen - und wenn gewünscht eingreifen. KI ist somit keine "Blackbox", die auf Knopfdruck ein Ergebnis ausspuckt, sondern nachvollziehbar und transparent.

Sensei soll ferner nicht nur bei Adobe, sondern auf breiter Basis als offene Plattform zum Einsatz kommen. Kunden können damit eigene Anwendungen umsetzen. Parasnis nennt als Beispiel einen Autohersteller, der anhand von Katalogabbildungen Automodelle erkennen kann: "Sensei wird so offen und erweiterbar und kann in speziellen Anwendungsfällen genutzt werden, auf die wir selbst nicht kommen würden."