iOS 16 führt mehrere neue APIs ein, mit denen Entwickler die Möglichkeiten ihrer Apps erweitern können. So gibt es zum Beispiel neue APIs für Sperrbildschirm-Widgets, Walkie-Talkie, interaktive Karten, Wetterdaten und mehr. Interessanterweise hat Apple auch die Nearby Interaction API aktualisiert, um den U1-Chip in ARKit zu integrieren, da es Gerüchte über ein neues Mixed-Reality-Headset gibt.
Die Nearby Interactions API wurde mit iOS 14 eingeführt und ermöglicht es Entwicklern, den Ultrabreitband-U1-Chip zu nutzen, der im iPhone 11 und neuer verfügbar ist. Der U1-Chip, der den Geräten ein präzises Orts- und Raumbewusstsein verleiht, kann z. B. dazu genutzt werden, die Entfernung zwischen einem iPhone und einem anderen zu erkennen. Mit iOS 15 und watchOS 8 hat Apple diese Funktionen auf die Apple Watch ausgeweitet, denn auch die Apple Watch Series 6 und später verfügen über den U1-Chip. In diesem Jahr bringt iOS 16 eine interessante neue Option für Entwickler, die mit der Nearby Interaction API arbeiten, nämlich die Möglichkeit, den U1-Chip mit Augmented Reality über ARKit zu integrieren.
U1-Chip bekommt mehr Aufmerksamkeit
Wie das Unternehmen auf der WWDC 2022 erläuterte, nutzt iOS den U1-Chip in Kombination mit ARKit bereits, um AirTags mit der Funktion „Genaue Suche“ zu orten. Mithilfe der vom U1-Chip gelieferten Daten und der iPhone-Kamera kann die Find My-App den Nutzer genau zu seinem AirTag führen. Nun können aber auch Entwickler mit dem U1-Chip und ARKit ähnliche Erfahrungen in ihren Apps schaffen, die Informationen über Entfernungen und Richtungen noch konsistenter und genauer machen. Laut Apple sind die besten Anwendungsfälle für diese API Erlebnisse, die Nutzer zu einem bestimmten Objekt in der Nähe führen, z. B. zu einem verlegten Gegenstand, einem Objekt von Interesse oder einem Objekt, mit dem der Nutzer interagieren möchte. Eine App kann den Nutzern zum Beispiel sagen, ob sich das gesuchte Objekt vor oder hinter ihnen befindet.
U1, ARKit und das AR/VR-Headset von Apple
Mehrere aktuelle Gerüchte deuten darauf hin, dass Apple Ende 2022 oder Anfang 2023 ein neues Mixed-Reality-Headset auf den Markt bringen wird. Obwohl das Produkt auf der WWDC 2022 nicht angekündigt wurde und das Unternehmen während der Eröffnungs-Keynote kein Wort über Augmented oder Mixed Reality verloren hat, wird in den WWDC-Sessions viel über AR und VR gesprochen. Bei einem Gerät, das mit mehreren Kameras und fortschrittlichen Sensoren ausgestattet sein soll, darunter ein Ultrabreitband-Chip, scheint es klar, dass es ein präzises räumliches Bewusstsein haben wird.
Apple bereitet Entwickler auf AR/VR-Headset vor
Und obwohl es kein SDK für das neue Headset gibt, da es noch nicht offiziell angekündigt wurde, scheint Apple wirklich zu wollen, dass Entwickler ihre Apps schon vor der Ankündigung des Headsets auf diese Art der Interaktion vorbereiten. Als das Unternehmen den U1-Chip zum ersten Mal mit dem iPhone 11 ankündigte, erwähnte es, dass Erfahrungen wie schnelleres AirDrop nur der Anfang sein würden. U1 wird jetzt für Dinge wie Autoschlüssel in der Wallet-App und das Auffinden von AirTag verwendet. Doch der Chip wird definitiv eine wichtige Rolle in Apples Mixed-Reality-Headset spielen. Außerdem wurde ARKit in iOS 16 aktualisiert und unterstützt nun 4K-HDR-Videos und fortschrittliches Scannen von Innenräumen – ein weiterer wichtiger Schritt auf dem Weg zu einem AR/VR-Gerät. Ob dein Gerät mit der neuen Software kompatibel ist, erfährst du hier. (Photo by Unsplash / Penfer)