Patent: Künftige iPhones könnten Berührung ohne Berührung erkennen

Das US-Patentamt hat Apple ein neues Patent zugesprochen. Es trägt den Titel „Bewegungserfassung per Überwachung von Lichtintensität, die durch ein Intensitätsmuster umgelenkt wurde”. Darin geht es um die Verwendung von oberflächenemittierendem Laser (VCSEL) zur Überwachung von Display-Eingaben. Die Laserabtastung verwendet Apple urspünglich für Face ID. Das Unternehmen möchte mit dieser Methode den Druck von Fingern besser erfassen, um die Taptic Engine in den iPhones zu unterstützen.


Lichtspiele auf der Displayoberfläche
Die Bewegung von Körpern auf dem Display will Apple über Lichtbrechungen eines Musters auf der Oberfläche messen können. Dazu erklärt der iPhone-Produzent, er könne das Muster etwa mit infrarotabsorbierender Tinte aufbringen. Es soll so hergestellt und aufgetragen werden, dass seine Lichtbrechungsindizes an verschiedenen Stellen variieren und damit Positionen leichter zu erfassen ist. Das Muster könne sowohl lichtabsorbierende als reflektierende Elemente aufweisen oder dank mehrschichtiger Antiflexionsschichten unterschiedliche Lichtbrechungsstufen erreichen, heißt es in dem Dokument.

Bewegungsmessung per Oberflächenemitter
In der Folge senden zwei VCSE-Lasereinheiten Lichtstrahlen, um das Muster zu erleuchten: Einer in vertikaler und einer in horizontaler Anordnung. Auf der jeweils anderen Seite misst ein Paar optischer Sensoren die entstandenen Lichtreflexe. Jeder VCSE-Laser hat eine Fotozelle zugewiesen. Es muss darauf geachtet werden, dass die Beleuchtung des Musters so stattfindet, dass nur der „zuständige“ Bildsensor das Licht des entsprechenden Lasers aufnimmt. Über die Berechnung der Lichtveränderung kann eine Recheneinheit dann die genaue Position des Fingers ermitteln. Apple zeigt in dem Patent mehrere Musteranordnungen und eine Reihe Operationen, um durch die Methode die Fingerposition und den Fingerdruck im 3D-Raum zu errechnen.


Apple präsentiert in dem Patent Rechenwege zur Ermittlung des Fingerdrucks.

Fingererfassung ohne Touch
Die vorgestellte Technologie lässt das iPhone auch Fingerbewegungen erfassen, die das Display überhaupt nicht berühren. Bisher verwendet Apple VCSEL zur 3D-Identifikation von Gesichtsoberflächen (Face ID). Künftig könnte das System aber auch Gesten, die frei im Raum stattfinden oder eben Bewegungen auf den Geräteoberflächen erkennen. Gerüchte besagen, Apple werde das TrueDepth-Lasermodul in Zukunft mit der Technologie Time-of-Flight (ToF) ausstatten, die eine höhere Wellenlänge und schnellere Erfassung mit bis zu 160 Bildern pro Sekunde bietet.

Kommentare

MetallSnake
MetallSnake27.02.19 09:35
Bedienung über Luftgesten gab es doch schon vor einigen Jahren bei den Androiden.
Haben die aktuellen die Funktion eigentlich noch, oder war es tatsächlich so bescheuert wie man sich das vorgestellt hatte?
Erwachsensein ist halb gestorben --Relatives Menschsein
0
MacTaipan27.02.19 12:30
Den gleichen Gedanken hatte ich auch. Ich dachte, davon wären wir längst wieder weg.
0
nJoy
nJoy27.02.19 12:35
Berührung ohne Berührung ist keine Berührung❗️
+2
Eventus
Eventus27.02.19 20:52
nJoy
Berührung ohne Berührung ist keine Berührung❗️
Und wenn einen etwas emotional berührt?! 🧐
Live long and prosper! 🖖
+2
macsmac
macsmac27.02.19 22:02
Oh man, das ist das kapazitiven Touchprinzip doch bereits.
-10

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.

OK MacTechNews.de verwendet Cookies unter anderem für personalisierte Inhalte, Seitenanalyse und bei der Auslieferung von Google-Anzeigen. Dies war zwar schon immer so, auf Wunsch der EU muss nun jedoch explizit darauf hingewiesen werden. Durch Nutzung der Website erklären Sie sich damit einverstanden. Weitere Informationen