WWDC 2017

Apple greift nach Augmented Reality und VR

09.06.2017
Von Patrick Woods
Auf der WWDC zeigt Apple, das sie bei den neuen Trendthemen mitreden wollen. iOS 11 soll die größte Plattform für Augmented Reality werden.

Jedes iPhone ab dem iPhone 5S und jedes iPad ab dem iPad Air wird in Zukunft Augmented Reality (AR) unterstützen. Damit wäre iOS auf einen Schlag die mit Abstand größte Plattform für augmentierte Anwendungen, so Apple. In der Demo zeigt das Unternehmen, wie Tischoberflächen lebendig werden und interaktive Welten entstehen, die sich manipulieren und aus verschiedenen Blickwinkeln betrachten lassen.

Apples AR-Anwendung
Apples AR-Anwendung
Foto: Apple

Richtig spannend werden die AR-Anwendungen mit dem neuen ARKit, das Apple den Entwicklern zur Verfügung gestellt hat. Doch die neue Schnittstelle hat ihre Anforderungen an die Hardware: Nur neuere iPhones und iPads können die Grafiken flüssig darstellen und die Umgebung genügend schnell berechnen. Hier die Übersicht aller ARKit-fähigen Geräten:

iPhones

iPads

iPhone 6S

iPad 2017

iPhone 6S Plus

iPad Pro 9,7 Zoll

iPhone SE

iPad Pro 10,5 Zoll

iPhone 7

iPad Pro 12,9 Zoll

iPhone 7 Plus

AR ist Apple wichtiger als VR

Apples Fokus liegt aktuell bei Augmented Reality statt auf Virtual Reality. Tim Cook sagte Ende 2016 in einem Interview: "Es gibt keinen Ersatz für menschlichen Augenkontakt". Auf der WWDC hat Apple Lösungen für beides vorgestellt: ARKit für Augmented Reality unter iOS und eine Kooperation mit HTC für VR am Mac.

VR-Anwendungen und hochwertige VR-Brillen waren bisher Umgebungen, die alleine leistungsfähigen Gaming-PCs vorbehalten war. Mit High Sierra und Metal 2 gibt es die Erweiterungen für Metal VR. Dazu kommen Kooperationen mit HTC, Steam und den Spiele-Engines Unity sowie Unreal. Dies soll ermöglichen, VR-Anwendungen auf dem Mac zu entwickeln. Da VR-Brillen wie HTC Vive, eine Kooperation des Elektronikherstellers und Steam, viel Grafikleistung benötigen, sind Macs mit meist integrierten Grafikchips nicht die erste Anlaufstelle für VR-Anwendungen.

Auch wenn die VR-Bemühungungen Apples vielversprechend sein können: Apple hat nicht die Marktdurchdringung mit ausreichend leistungsfähigen Macs, um hier eine breite installierte Basis ansprechen zu können. Umso wichtiger ist es für Apple, bei Augmented Reality ganz vorne mit dabei zu sein.

Apples VR-Implementierung eignet sich besonders für plane Oberflächen.
Apples VR-Implementierung eignet sich besonders für plane Oberflächen.
Foto:

AR Made in Germany

Dass Apple an augmentierten Lösungen arbeitet, deutete sich bereits seit Jahren an. Patentanträge und Firmenübernahmen ließen keinen Zweifel daran, dass Apple hier mindestens stark interessiert war. Mit ARKit hat Apple dies auf der WWDC 2017 offiziell gemacht. Die Basis für Apples AR-Umgebung stammt aus Deutschland, aus München, um ganz genau zu sein.

Apple hatte Metaio im Frühjahr 2015 übernommen. Das Münchener Unternehmen hatte mit Juniao eine funktionierende Plattform im Markt, die Grundlage für viele AR-basierte Anwendungen war. Apple nahm die Software als erste Amtshandlung vom Markt. Erst jetzt, zwei Jahre später kommt Apple mit ARKit. Ein großer Teil dieser Zeit dürfte für Anpassungen auf Apples Metal-Grafikschnittstelle und andere Anpassungen verwendet worden sein.

Stand der Technik: Google vs. Apple

Google hat auf der eigenen Entwicklerkonferenz I/O 2017 gezeigt, wie dort der aktuelle Stand von Augmented Reality auf dem Smartphone ist. Dort nennt man dies "Tango". Anders als Apple setzt Google auf eine Kombination aus optischer Kamera und Tiefensensoren, die die Entfernung zu Objekten messen können. Da dies per Laufzeitmessung von Infrarotstrahlung funktioniert, ist das wegen der Reichweite (etwa drei Meter) und dem störenden Tageslicht in erster Linie auf Innenräume beschränkt. Hier gibt es jedoch die Möglichkeit, Räume in 3D mit Texturen der optischen Kamera zu scannen.

Googles Tango nutzt Kamera, Bewegungssensoren und eine Kamera mit Tiefenwahrnehmung.
Googles Tango nutzt Kamera, Bewegungssensoren und eine Kamera mit Tiefenwahrnehmung.
Foto:

Apples AR-Implementierung setzt allein auf Bewegungsdaten der eingebauten Sensoren im iPhone und eine optische Erkennung planer Oberflächen und anderer markanter optischer Merkmale. Apple warnt Entwickler in der eigenen Dokumentation, dass Umgebungen ohne markante Merkmale (weiße Wände) oder mit schlechtem Licht das Tracking-Ergebnis deutlich verschlechtern können. Dazu bieten Geräte mit einem A9-Prozessor oder neuer (ab iPhone 6S) bessere Bewegungserkennung (Motion Tracking) als ältere Geräte, erklärt Apple weiter.

Der 3D-Scan einer Wohnung mit Googles Tango.
Der 3D-Scan einer Wohnung mit Googles Tango.
Foto:

Der Vorteil liegt wohl bei Apple. Während Google die technisch vielleicht stärkere Lösung hat, macht Apple Augmented Reality für die Masse nutzbar. Neben den Hunderten Millionen kompatiblen iPhones gibt es nur zwei Smartphone-Modelle auf dem Markt, die Google Tango unterstützen. Für Entwickler ist iOS somit die wohl attraktivere Plattform.

Die iBrille

Eine Frage, die sich für ein Unternehmen wie Apple aktuell noch stellt: Wie lässt sich der AR-Hype in Hardwareumsatz umsetzen? Google Glass ist ein gescheitertes Experiment. Microsofts Hololens zielt aktuell mit Preisen zwischen 3.300 und 5.500 Euro nur auf Entwickler und Unternehmen ab. Mit dem Massenmarkt haben AR-Brillen bisher noch nichts zu tun.

Es gibt Gerüchte, dass Apple bereits lange an einer eigenen AR-Brille arbeitet. Quellen dafür stammen von Analysten, die Kontakt zu Foxconn-Mitarbeitern haben und Robert Scoble, der von einer Kooperation zwischen Apple und dem Optikspezialisten Zeiss berichtete. Sogar für den Namen gibt es Spekulationen: Iris – Siri rückwärts. Diese soll jedoch erst 2018 oder 2019 fertig sein und es gebe eine hohe Wahrscheinlichkeit, dass das Projekt noch ganz eingestellt werden könnte, so ein Analyst in einem Reddit-AMA.

Industrial Light & Magic zeigt VR am Mac.
Industrial Light & Magic zeigt VR am Mac.
Foto:

Was Apple jetzt liefern muss

Mit ARKit legt Apple iOS-Entwicklern ein neues Werkzeug in die Hände, in der Hoffnung, eine neue Anwendungsform für iOS-Geräte in der Masse zu verankern. Zwar gab es bereits AR-Umgebungen, diese hier hat jedoch Apples Unterstützung und ist voll auf iOS optimiert und hat die Aufmerksamkeit der gesamten iOS-Szene. Dies alleine ist jedoch kein Garant für Erfolg. Die Akzeptanz der Nutzer ist die größte Hürde.

Dazu die Frage: was verspricht Apple sich davon? Wollen sie über neue Funktionen mehr iPhones und iPads verkaufen? Bereitet Apple den Weg für eine nächste Generation Geräte oder Wearables, die heutige Mobilgeräte einmal ablösen könnten? Oder wollen sie die neue Immersion der Nutzer der virtuellen und gemischten Realität nur testen und sehen, wozu es führt? Die klare Strategie wird sich erst mit Apples nächsten Schritten abzeichnen. (Macwelt)