Längere E-Mails auf dem Smartphone schreiben sich wenig komfortabel. Um diese Unbequemlichkeit zu beheben, setzen Apple und Google stärker auf Spracherkennung in Mobilgeräten.
Sprache auf Mobilgeräten
Foto: Lightspring/Shutterstock
Die Wörter werden bei diesen Sprachanwendungen auf den Mobilgeräten in einzelne Laute zerlegt, über Mobilfunknetze oder WLAN an einen Server gesendet, der wieder passende Ergebnisse zurückschickt. Über den Erfolg der Anwendung entscheiden häufig Schlüsselwörter. Sie signalisieren dem Gerät, in welchem Kontext ein Wort stehen könnte. Allerdings hängt die Trefferquote von der Aussprache, vordefinierten Befehlen und der Geschwindigkeit ab.
Sprache zwischen Mensch und Gerät
Google bietet eine semantische Suchfunktion an, die das Unternehmen "Knowledge Graph" getauft hat. Spricht der Smartphone-Nutzer beispielsweise "Empire State Building" in sein Telefon, erhält er als Ergebnis ein Foto und grundsätzliche Informationen über das Gebäude. Der Suchmaschinenkonzern setzt dabei auf Schlüsselwörter, die etwa mit Einträgen bei Wikipedia oder dem CIA World Factbook verglichen werden. Die Voice-Search-Funktion, wie die Sprachsuche bei Google heißt, ist mit dem Knowledge Graph verbunden.
Vorteil dieser Verknüpfung: Anwender erhalten bei der Suche nach dem Kinoprogramm oder einem Restaurant Ergebnisse aus der Umgebung. Voice Search antwortet zudem in kompletten Sätzen auf dem Display und ist bei einigen Ergebnissen sogar schneller als Siri (Speech Interpretation and Recognition Interface) von Apple. Die Funktionen sind mittlerweile in der Google-App integriert.
Gesprochene Antworten
Auf der Entwicklerkonferenz I/O Mitte Mai in San Francisco kündigte Google "gesprochene Antworten" für Computer an. Voraussetzung ist allerdings die Verwendung des Google-eigenen Browsers Chrome.
Neben Suchfunktionen per Spracheingabe bietet Google seinen Dienst "Google Now" als integrierte Anwendung in der Google App an. Diese lässt sich mittlerweile auch in Deutsch steuern, hat bis dato allerdings einen eher begrenzten Umfang an Befehlen im Repertoire. So funktionieren Befehle wie "Navigieren zu..." oder "Öffne..." bereits flüssig. Es verwirrt die Anwendung jedoch, wenn der Smartphone-Nutzer statt "Anruf Tobias" "Rufe Tobias an" sagt.
In San Francisco warb Google für die neuen Funktionen. Der digitale Assistent soll Anwender abhängig von Zeit, Ort und Personen ("Reminders") an Termine erinnern können. Mit dieser Erweiterung ist Google der Konkurrenz ein Stück voraus. Setzt Google seine Ankündigungen um, dann lassen sich in Zukunft Erinnerungen abhängig vom situativen Kontext abrufen. Da die App den Kartendienst von Google samt Verkehrsdaten integriert hat, kann sich der Nutzer an einen Termin erinnern und die Fahrdauer berechnen lassen.
"Google Empire State Building"
Noch weiter soll die Spracherkennung bei der Datenbrille Google Glass gehen. Mit der Anweisung "OK Glass" sollen sich alle weiteren Befehle starten lassen. So könnten Kommandos wie "Mache ein Bild" oder "Google Empire State Building" folgen, ohne dass ein zusätzlicher Griff zur Brille erfolgen muss. Zu den weiteren möglichen Anweisungen zählen Videoaufnahmen, Übersetzungen oder Navigationshinweise per Spracheingabe.
Eine Google-Website gibt über die Standardbefehle Auskunft. Wie vieles bei Google, dürfte aber auch das ab 2014 erhältliche Gadget noch Verbesserungspotenzial bieten. Ersten Tests zufolge offenbarte Google Glass Schwächen. Stimmen aus der Tech-Community kritisierten die Spracherkennung. Zur Verbindung mit dem Internet, die für die Sprachverarbeitung obligatorisch ist, benötigt die Brille die Hilfe eines Smartphones.