Features für Apples VR/AR-Headset: Umgebungs-Tracking für Sehbehinderte und Erkennung der Augenbewegung

Apple arbeitet mit Hochdruck an einer neuen Produktkategorie, die bisherige VR/AR-Headsets in jeglicher Hinsicht übertreffen soll. Bisherige Patente lassen bereits erahnen, mit welchen Features Nutzer rechnen können. Kürzlich kamen weitere Apple zugesprochene Patente hinzu, die einen Einblick in die AR-Funktionsplanungen des Unternehmens gewähren. Es geht um eine möglichst genaue Erkennung der realen Umgebung, eine dynamische Anpassung der Bildauflösung und Detailgenauigkeit des Displays sowie das Tracking von Augenbewegungen.


Umgebungs-Tracking – auch für sehbehinderte Nutzer
Die Funktionsweise von Augmented Reality hängt maßgeblich davon, wie genau das verknüpfte System die jeweilige Umgebung erkennt. Nur bei einer präzisen Erfassung können virtuelle Elemente punktgenau als Erweiterung des realen Sichtfeldes angezeigt werden. Das Patent „Environment-based Application Presentation“ beschreibt technologische Vorgehensweisen, die das zuverlässige und detaillierte Scannen von Umgebungen gewährleisten. Dadurch lassen sich dynamisch mehrere virtuelle Objekte positionieren, um den Nutzer ein AR-Erlebnis mit Mehrwert zu bieten. Die Technologie soll zudem Anwendern zugute kommen, die Sehbehinderungen wie Kurzsichtigkeit haben – und die Darstellungsweise entsprechend anpassen.


Quelle: US-Patentamt

Dynamische Anpassung der Darstellungsqualität
Auch das Patent „Head-Mounted Device with Active Optical Foveation“ beschäftigt sich mit der visuellen Anzeige von Umgebungen über VR/AR-Headsets. Konkret geht es um die dynamische Anpassbarkeit der Darstellungsqualität virtueller Objekte, die das Headset einblendet. Über verbaute Kameras und Sensoren soll beispielsweise in Echtzeit ermittelt werden, wie hoch die Auflösung des jeweiligen Objekts sein muss. So könnte es bei weniger komplexen Darstellungen etwa genügen, eine niedrigere Auflösung zu verwenden, um Rechenleistung zu sparen – und damit den Akkuverbrauch zu reduzieren.


Quelle: US-Patentamt

Genaue Blickrichtung des Nutzers erkennen
Das Patent „Gaze-based User Interactions“ befasst sich ebenfalls mit dem Sichtfeld des Nutzers. Die beschriebene Technologie soll dynamisch erkennen, welche Stelle des Headset-Displays der Anwender mit den Augen fixiert – und die darstellten Inhalte daran anpassen. Das soll der Interface-Darstellung zugute kommen. Das Apple-Headset beziehungsweise die intelligente Brille könnte beispielsweise erkennen, ob der Nutzer nur kurz in eine bestimmte Richtung schaut oder bestimmte reale Objekte längere Zeit mit den Augen fixiert. Während im ersten Fall keine AR-Elemente eingeblendet werden, eignet sich der zweite Fall für die Darstellung virtueller Erweiterungen.

Kommentare

Keine Kommentare vorhanden.

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.