Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Den Tisch zum Touch-Interface machen: Apples AR-/VR-Brille und die mögliche Bedienung

Apple tüftelt mit großem Engagement an einer VR/AR-Brille, die alle vergleichbaren Produkte der Konkurrenz in den Schatten stellen soll – das ist schon seit langem ein offenes Geheimnis. Sowohl hinsichtlich des schlank-eleganten Hardware-Designs als auch der integrierten Features soll das Produkt neue Maßstäbe setzen. Bezüglich der Funktionen gibt es jedoch viele Fragezeichen. Wie können Nutzer beispielsweise mit den von der Brille eingeblendeten AR-Elementen in ihrem realen Sichtfeld interagieren? Ein kürzlich Apple zugesprochenes Patent deutet an, wie Nutzer AR-Abbildungen bedienen können, ohne dazu Handschuhe oder andere Zusatzgeräte zu tragen.


Apple setzt bei Brille auf Nutzer-Interaktion mit der Umwelt
Apple beschreibt die Vorgehensweise im Patent „Method and device for detecting a touch between a first object and a second object“. Es geht darum, für den Träger der Apple-Brille AR-Elemente auf realen Oberflächen in der Umgebung des Nutzers abzubilden und diese bedienbar zu machen. Menschen interagieren über ihre Hände mit Objekten ihrer Umgebung – die Verhaltensweise habe sich inzwischen auch auf die Bedienung von Displayoberflächen ausgeweitet, so Apple. Nutzer möchten daher auch AR-Elemente auf natürliche Weise mit ihren Händen bedienen.


Quelle: US-Patentamt

Bisherige diesbezügliche Konzepte sind Apple zufolge nicht ideal. Weder möchten Anwender direkt auf dem kleinen Brillen-Display auf eingeblendete Buttons klicken noch aufwendige Zusatzgeräte wie Handschuhe verwenden. Zwar gebe es Möglichkeiten, entsprechende Zubehörprodukte so klein wie möglich zu halten (das Unternehmen erhielt bereits Patente für intelligente Ringe), doch es sei auch ohne entsprechende Produkte möglich. Zumal Handschuhe oder andere ähnliche Hilfsmittel immer Nachteile beinhalten.

Wärmeerkennung als Lösung des Problems
Das große Problem von virtuellen Buttons ist die Treffgenauigkeit des Fingers. Selbst wenn die Apple-Brille mit Sensoren arbeitet, welche die Fingerbewegungen des Nutzers erkennen, müssen die AR-Elemente sehr groß dargestellt sein, um die Funktionalität zumindest annähernd sicherzustellen. Komplexere Aneinanderreihungen mehrerer Buttons sind laut Apple nicht möglich, da es zu Fehleingaben komme.

Das Unternehmen sieht Wärmeerkennung als mögliche Lösung: „Wenn zwei Objekte mit unterschiedlichen Temperaturen einander berühren (sprich: Wenn Nutzer mit dem Finger eine Oberfläche berühren), ändert sich deren Temperatur. Sprich: Wenn Nutzer mit dem Finger eine Oberfläche berühren Apple forscht nach Technologien, über welche die Apple-Brille die beschriebenen Temperaturänderungen erkennen kann. So ließen sich AR-Felder in der realen Welt präziser bedienen als über andere Methoden. Ob Apple die Technologie zur Marktreife führt, werden die nächsten Jahre zeigen.

Kommentare

mr_jo22.07.20 15:20
Mir kommt gerade eine Idee: ein AR Klavier-Lernprogramm das die Noten einblendet und überprüft ob ich die richtigen Tasten am Küchentisch gedrückt habe und an den Airpots kommt das Ergebnis an. Problem das ich sehe, ist der Druckpunkt auf dem virtuellen Keyboad
+1
Mapache22.07.20 17:35
Dazu liegt dann das iPhone auf dem Tisch und die Beschleunigungssensoren registrieren die Stärke des Anschlags. Aber das Gefühl, eine Taste zu drücken fehlt dann, und den Hub von Klaviertasten kann man schlecht durch den jetzigen Trackpadtrick simulieren.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.