Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Neues Apple-Patent: Wie Finger auf AR-Ebenen noch genauer erkannt werden

Augmented-Reality-Anwendungen spielen für Apple seit der Vorstellung von ARKit (als Bestandteil von iOS 11) eine große Rolle. Seit der Präsentation hat das Unternehmen die Schnittstelle stetig weiterentwickelt und um einige Features erweitert. In Zukunft soll das Zusammenspiel zwischen AR-Objekten und tatsächlich vorhandenen Gegenständen weiter optimiert werden, sodass Nutzer mit beiden Arten von Objekten gemeinsam interagieren können. Das geht aus einem neu genehmigten Apple-Patent hervor.


Fingerposition im AR-Bereich genau erkennen
Im angesprochenen Patent geht es darum, die Entfernung der Fingerspitze des Nutzers vom jeweiligen Objekt besser berechnen zu können. Bisher besteht das Problem darin, dass ARKit-Anwendungen zwar bereits relativ genau erkennen, ob eine Berührung stattgefunden hat oder nicht – aber eben nicht ausreichend präzise, um die im Patent beschriebenen Funktionen umzusetzen. Die neue Technologie soll alleine über die verwendete Kamera und darin integrierte Sensoren des jeweiligen Gerätes funktionieren. Daraus ergeben sich mehrere Vorteile gegenüber traditionellen Sensor-Methoden, da Tiefeninformationen so optimal verwertet werden.


Quelle: US-Patentamt

Wenn Nutzer mit dem Finger beispielsweise auf einer Tischplatte entlangfahren, soll die jeweilige Kamera die Fingerbewegungen dynamisch nachvollziehen. Im Zuge dessen kann beispielsweise ein iPad oder iPhone in Echtzeit anzeigen, wenn der Anwender ein virtuelles Objekt berührt – und die Bewegung des Gegenstandes zulassen. Innerhalb der AR-Ansicht ließen sich auch reale Objekte integrieren, die auf dem Tisch platziert sind.

Time-of-Flight-Kamera mögliche Voraussetzung
Die im Patent beschriebene AR-Erweiterung weckt Assoziationen mit einem weiteren Feature, das einige der 2020er iPhone-Modelle voraussichtlich bieten: die Time-of-Flight-Kamera. Bisherigen Meldungen zufolge bestückt Apple die Kamera des iPhone 12 Pro mit 3D-Sensoren. Zuvor gab es bereits Vermutungen, das Unternehmen setze auf eine Time-of-Flight-Kamera (ToF), über die iPhones exakte Tiefenmessungen durchführen können. Vor allem AR-Anwendungen – wie beispielsweise das im Patent beschriebene Feature – würden davon profitieren.

Kommentare

Keine Kommentare vorhanden.

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.