Apple iOS 13

Neue Funktionen für Siri Shortcuts

03.07.2019 von Mark Zimmermann  
Apple kündigte auf der WWDC 2019 eine Reihe von Updates für Siri Shortcuts an, mit der iOS-User benutzerdefinierte Kurzbefehle für ihre Apps erstellen können. Es soll Vorteile sowohl für Benutzer als auch für App-Entwickler bieten.

In der mit iOS 13 (aktuell in der Beta-Phase) angekündigten Version von Siri Shortcuts sollen Anwender in der Lage sein, mit diesen stärker zu interagieren. So können die Nutzer nicht nur ihren eigenen Sprachbefehl aufzeichnen, um ihre Lieblings-App zu starten oder eine bestimmte Aktion auszuführen. Diese Aktion kann nun auch Rückfragen an den Anwender stellen.

Apple hat die Funktionen der Kurzbefehl-App Siri Shortcuts deutlich ausgebaut.

Zum Beispiel könnte "Kaffee bestellen" eine mobile Bestellung auslösen. Zusätzlich könnte der Siri Shortcut beim Anwender nachfragen, ob er die laktosefreie Milch für den Cappuccino oder den extra starken Kaffee möchte. Anstatt einfach nur eine Ergebnisliste anzuzeigen, soll somit auch eine Interaktion im Rahmen einer Konversation möglich werden.

Außerdem soll iOS 13 Entwickler in die Lage versetzen, einen Sprachbefehl vorzuschlagen, den der Anwender dann - anstatt diesen (oder einen anderen) per Spracheingabe aufzuzeichnen - direkt via Tastendruck übernimmt.

Auch die Shortcuts-App selbst wird besser

Für die Shortcuts-App selbst sind auch einige Neuigkeiten mit iOS 13 angekündigt. So hat Apple auf der WWDC 2019 darauf hingewiesen, dass die "Kurzbefehle"-App mit dem Update auf iOS-Geräten bereits vorinstalliert sein würde, anstatt nur als Download im App Store angeboten zu werden.

Durch eine neue Registerkarte "Automations" in der Shortcuts-App greift Apple zudem einen weiteren, häufig geäußerten Wunsch der Anwender auf. So besteht mit der neuen iOS-Version die Möglichkeit, Kurzbefehle automatisiert auszuführen und dies sogar im Hintergrund. Die Anwender können dazu festlegen, welche (System-)Events das Ausführen eines Shortcuts auslösen können. Zu den verschiedenen System-, Zeit- und ortsgebundenen Events gehören (gemäß der aktuellen Beta):

Mit Hilfe von Shortcuts sind Anwender in iOS 13 nun zum Beispiel in der Lage, eine ortsbezogene Zeiterfassung definieren. Dazu muss der Nutzer lediglich per Kurzbefehl definieren, dass seine An- (Ankommen an einem Ort) und Abwesenheit (Verlassen eines Ortes) am Arbeitsplatz in einer Zeiterfassungsübersicht eingetragen werden.

Weiterhin "Room for improvement"

Ein wichtiger Event fehlt allerdings: das Eintreten/Beenden von Ereignissen! Wäre es nicht klasse, wenn der Anwender eine Regel erstellen könnte, dass sein iPhone während bestimmten Terminen beispielsweise "stumm" gestellt wird und danach wieder in den Normalzustand zurückkehrt?

Was zudem an dieser Stelle noch nicht vorhanden ist und hoffentlich nur der Beta-Phase geschuldet ist, ist die Möglichkeit, Sensoren wie NFC auch per Shortcut aktiv auszulesen. Die Möglichkeit, auf einen NFC-Tag zu reagieren ist ein guter Anfang. Wichtiger jedoch wäre die Funktion, einen NFC-Tag auszulesen, um die Informationen anschließend per Shortcut weiter zu verarbeiten.

Mit iOS 13 können Siri Shortcuts auch in HomeKit-Automationen eingebunden werden. Auf diese Weise lassen sich auch Smart-Home-Geräte ohne nativen HomeKit-Support nutzen.

Der (Programmier-)Editor in der Shortcuts-App wurde ebenfalls angepasst und ermöglicht jetzt die vollständige Konfiguration der Aktionen einer App. Dazu zählt auch die Option, Informationen über verschiedene Parameter zu verfeinern. Auf diese Weise können die Aktionen einer App noch effizienter als bisher mit anderen kombiniert werden.

Auch mehrstufige Verknüpfungen mehrerer Apps (und Shortcuts) sind - wie bisher - möglich. In der Praxis könnten Anwender so beispielsweise eine komplette Reise per Shortcut buchen (Bahn, Hotel), im Kalender vermerken und per Reminder die Umsteigenotwendigkeit bei An- und Abreise ausgeben. Gleichzeitig wäre es möglich, den Reiseplan per iMessage/SMS an die Familie zu senden.

Fazit

Wirkte Shortcuts mit iOS 12 noch als lose Sammlung von Automatisierungsfunktionen, bietet die App in iOS 13 ein wesentlich runderes Bild. Aber auch in den Tiefen der Sprachsynthese wird weitergearbeitet. So erhält Siri eine natürlichere Stimme und auch die Interaktion per AirPods mit dem Sprachassistenten wirkt gefälliger.

Wenngleich Google und Amazon aktuell aufgrund der homöopathischen Verbreitung des Apple HomePod mehr Aufmerksamkeit für ihre jeweiligen Sprachplattformen erhalten, scheint es so, dass Apple zwar manchen Schritt langsamer geht, dafür aber meist konsequenter. Die angekündigte Möglichkeit, am HomePod Stimmen zu unterscheiden und Anfragen mit der jeweiligen individuellen Apple-ID zu verbinden, ist dafür nur ein kleines Beispiel. (mb)