Der Computer wird verschwinden

12.11.2004 von Alois Ferscha
Eingebettet, versteckt und autonom handelnd wird intelligente Computertechnik unseren Alltag begleiten.

Die Welt wird in absehbarer Zukunft von unsichtbaren und zugleich allgegenwärtigen Computersystemen durchsetzt sein, die dank kommunizierender Sensoren Umweltzustände erfassen, deuten und entsprechend selbstständige, planbasierte Aktionen ausführen. An die Stelle universell einsetzbarer "Personal Computer" treten vermehrt aufgabenspezifische, miniaturisierte, einfach und intuitiv handhabbare und in die Infrastruktur eingebettete Computer. "Der Computer" ist nicht mehr "ein" Gerät, sondern die Summe aller vernetzten Gebrauchsgegenstände, Fahrzeuge, Arbeits- und Wohnräume, Möbel, unsere Kleidung, ja selbst die Natur wir Teil dieses Systems. "Der Computer" und alle seine Funktionen dringen in Alltagsgegenstände und Lebensräume ein und bilden so eine nicht mehr sichtbare, aber allgegenwärtige IT-basierende Hintergrundassistenz, um nicht zu sagen "Hintergrundintelligenz".

Der erste große Schritt in diese Epoche "der Vernetzung aller Dinge" ("Connectedness") ist aus technologischer Sicht getan. Als Herausforderung bleibt die "Awareness" - das gegenseitige einander "Gewahr-Sein" von Menschen und Dingen beziehungsweise von vernetzten Dingen untereinander - und in der Folge die "Smartness", das unsichtbare, unaufdringliche, intelligente Handeln vernetzter Dinge im Hintergrund. Diese allgegenwärtige Präsenz von IT wird in Fachkreisen unter Titeln wie "Pervasive Computing", "Ubiquitous Computing", "Calm Computing", "Invisible Computing", "Hidden Computing" oder "Ambient Intelligence" diskutiert. Doch vielleicht beschreibt "Pervasive Computing" das Konzept am besten: auf die Funktion reduzierte, vom Gerät entkoppelte, intelligente Informationstechnologien, die als eine unterstützende Hintergrundassistenz proaktiv und weitgehend autonom agieren. Diese radikale Verdrängung von Computertechnologie in den Hintergrund, wo sie eingebettet und versteckt in Alltagsgegenständen Routinetätigkeiten übernimmt, lässt uns hoffen, dass durch Pervasive Computing "menschliche Lebensstile" künftig wieder im Vordergrund stehen könnten.

Dominierten bisher PCs und Workstations, mit denen der Benutzer über Tastatur und Monitor bei relativ geringen Anforderungen an das zeitliche Systemverhalten interagierten, so sind mittlerweile eingebettete, drahtlos vernetzte informationsverarbeitende Systeme auf dem Vormarsch. Diese erhalten ihren Input neben oder statt klassischer Inputgeräte über Sensoren, die hauptsächlich elektronische oder aber auch optische, akustische, magnetische, chemische, biometrische, physiognomische Signale erhalten. Der Output dieser Systeme ist beispielsweise über Mikrocontroller, Multimedia-Emitter, Überwachungs- und Steuerungseinheiten, Motoren in eine Informationsverarbeitungsumgebung "eingebettet". Sie nehmen Signale unterschiedlicher Medientypen auf, verarbeiten diese - oft unter Einhaltung strenger Zeitvorgaben - und beeinflussen oder kontrollieren ihre Umgebung entsprechend.

Eingebettete Systeme arbeiten künftig nicht mehr wie ein herkömmliches "Programm", sondern übernehmen zunehmend Überwachungs-, Steuerungs- oder Regelungsaufgaben. Es werden nicht mehr Input-Daten verarbeitet und wieder ausgegeben, vielmehr wird eine Menge von Eingabeereignissen, deren zeitliches Auftreten oft nicht vorhersehbar ist, in Ausgabeereignisse umgesetzt. Dank drahtloser Kommunikation, neuer optischer, akustischer, biometrischer und elektromagnetischer Sensoren, innovativer Output-Technologien und extrem hoher Packungsdichten elektronischer Schaltkreise gewinnen eingebettete Informationssysteme wissenschaftlich wie wirtschaftlich eine wachsende Bedeutung.

IT durchdringt alle Lebensräume

Die Allgegenwärtigkeit von IT wird durch die Spezialisierung und Miniaturisierung im Mikroprozessorbau, die digitale Signalverarbeitung bzw. eine breite Verfügbarkeit ausgereifter Speichertechnologien gefördert. Die wachsende Vielfalt mobiler Endgeräte, die weite Verbreitung neuer Mobilkommunikationstechnologien, der zunehmende Einsatz multisensorischer und haptischer I/O-Devices, die Verfügbarkeit globaler Positionierungstechnologien und nicht zuletzt die Etablierung verteilter Softwarearchitekturen und Middleware-Lösungen tragen weiter zu ihrer Verbreitung bei.

Beim Entwurf und bei der Entwicklung intelligenter Systeme und Umgebungen ist es von zentraler Bedeutung, dass sie die Aktivitäten und das Verhalten von Akteuren oder Objekten erkennen, lokalisieren, wahrnehmen und vorhersagen können. Um solche kognitive Fähigkeiten auch auf Informationsverarbeitungssysteme abbilden, in industrielle oder wirtschaftliche Prozesse einbetten beziehungsweise in technische Systeme integrieren zu können, bedarf es einer Formalisierung der menschlichen Wahrnehmungsprozesse und eines entsprechenden methodischen und technologischen Apparates. Vor allem auf dem Gebiet maschinellen Sehens bzw. Sprachverstehens lassen sich diesbezüglich heute schon Erfolge verbuchen. Darüber hinaus sind multisensorische Wahrnehmungssysteme, die neben visuellen und auditiven Reizen auch auf Bewegungen, Gerüche und atmosphärische Wahrnehmung reagieren können, Gegenstand der Forschung.

Wahrnehmungsprobleme

Die Art und die Qualität, wie wir in Zukunft mit Computersystemen interagieren werden, hängt wesentlich davon ab, wie Maschinen oder Programme die Welt wahrnehmen und wie sie diese Informationen behandeln. So sollen "kontextbasierte" Anwendungen mit Hilfe der über Sensoren erfassten Umgebungsinformationen in die Lage versetzt werden, ein System selbst zu steuern und zu kontrollieren. Solche Anwendungen setzen die Integration ausgereifter Methoden maschineller Wahrnehmung von akustischen Geräuschen, Sprache, Ort, Zeit, Geruch, Temperatur, Bewegung und Beschleunigung voraus. Gelingt dies, werden sie dereinst heutige Formen eingebetteter Computersysteme, der Mensch-Maschinen-Interaktion und (traditioneller) autonomer Systeme in der Robotik ablösen.

Ferner ist nicht nur die Frage, wie sich mit solchen Systemen die "richtigen Daten" zur "richtigen Zeit" im "richtigen Umfang" am "richtigen Ort" bereitstellen, sondern auch die Modellierung und das Management solcher Daten sind komplex. So müsste eine kontextsensitive Anwendung mit ihrer Sensorhardware meist weit verteilte Daten lokal erfassen und sie für die jeweilige Anwendung zu interpretierbaren Daten verdichten können. Doch heutige Sensorentechnik verfügt nur über eine sehr begrenzte Speicherkapazität und Rechenleistung und ist in ihren Kommunikationsmitteln und ihrer -bandbreite beschränkt. Probleme bereiten auch die Verarbeitung unterschiedlich hoher Datenraten, das unterschiedliche Niveau der Daten, die Ausfallsanfälligkeit von Sensorknoten (zum Beispiel. bei eigener Energieversorgung), die ungenügende Mobilität der Sensoren, die Synchronisation von Sensordatenströmen aus unterschiedlichen Quellen sowie die Integration von zeit- und ereignisgesteuerten Sensordaten.

Ferner muss die Semantik einer solchen Anwendung modelliert werden. Während frühere Ansätze Kontexte mittels einfacher Schlüsselwerte darstellten, setzen neuere Arbeiten auf Metadaten und XML-Spezifikationen wie Contextml oder RDF, objektorientierte Modelle wie "Person/Place/Thing" bis hin zu logikorientierten Ansätzen, in denen Kontext als Fakten in regelbasierten Systemen dargestellt und verarbeitet wird. Erschwerend kommt die potenziell große Vielfalt zu modellierender Kontexte hinzu. Pervasive Computing lässt sich mit vielen Endgeräten umsetzen: Als "Smart Things" sind es portable, mobile Devices mit Spezialfunktion, als "Smart Spaces" sind sie fest installiert und fungieren als intelligente Hintergrundassistenz.

Ausprägungen sind Smart Phones und Organizer, Smart Gadgets, Universal Information Appliances, Mobile Internet Appliances, Embedded Web Server und Browser, Smart Displays, Walls und Rooms oder Smart Home und Home Networking bis hin zu Ansätzen des Wearable Computings, der E-Textiles und des Smart Clothings. Gefördert wird diese Vielfalt durch neueste Ergebnisse aus der Materialforschung wie lichtemittierende Polymere, piezo- und pyroelektrische Materialien oder die Miniaturisierung von Funkmodulen (Bluetooth als Vorreiter). Dank dieser Entwicklungen entstehen "Personal Area Networks", die noch viel kleinteiliger sein werden, als sie der Standard IEEE 802.15 (Wireless Personal Area Networks) definiert. Doch die Umsetzung solcher körpernahen Kommunikationsinfrastrukturen ("Near Body Networks") stellt die Entwicklung und Konzeption entsprechender Kooperationssysteme ist komplex.

Die größte Herausforderung liegt darin, alle menschlichen Sinne in den Geräten zu unterstützten. Selbst die Sprachverarbeitung sowie die Erkennung und Verarbeitung von Bilddaten decken in kontextbasierenden Anwendungen nur einen Teil der möglichen Mensch-Maschine-Interaktionen ab. Hinzu kommen Gestik/Mimik, Gefühle, Gewohnheit, Vergessen oder ein Force-Feedback (wie bei einem Lenkrad für Autospiele). Neue Möglichkeiten der Interaktion mit kooperativen Anwendungen eröffnen Benutzerschnittstellen, die in die Infrastruktur eingebettet (Everywhere Interfaces) sind, an berührbare Gegenstände gekoppelt sind, die physische und virtuelle Artefakte integrieren (Tangible Interfaces, Graspable User Interfaces) beziehungsweise digitale Information auf berühr- und manipulierbaren Gegenständen des täglichen Lebens abbilden. Unsere Vorarbeiten zeigen, dass eine Entkopplung des System-In- und -Outputs von traditionellen I/O-Geräten nicht nur möglich, sondern über Tangible Interfaces oft sogar effizienter ist.

Um diese Vision eines Pervasive Computings Wirklichkeit werden zu lassen, muss sich die Forschung in den kommenden Jahre großen Herausforderungen stellen. So muss es gelingen, einen zeit- und ortsunabhängigen Zugriff auf relevante Informationsinhalte auf Basis drahtloser Kommunikationstechnologien zu gewährleisten. Ferner muss ein System so reagieren können, dass es die gegenwärtige und zukünftige Situation eines Artefaktes oder eines Benutzers berücksichtigt und entsprechend planbasiert agiert. Eine weitere Aufgabe besteht darin, für Sicherheit und Privatheit beim Datenzugriff zu sorgen. Künftige Systeme handeln zunehmend autonom (ohne aktive Veranlassung durch den Benutzer) und erfassen ihre Umgebung sensorisch. Und schließlich wird uns beschäftigen, wie wir mit den immer kleineren und technisch unsichtbar integrierten Geräten interagieren und die von ihnen angezeigten Daten bearbeiten können.