Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

iPhone 8: Welche Vorteile 3D-Sensoren in der Kamera bieten

Kaum ein iPhone-Bauteil wird konsequent so stark von Apple beworben wie die verbaute Kamera. Bei der letzten Generation kam die Dualkamera ins Apple-Smartphone, die rudimentären optischen Zoom sowie den stilvollen Bokeh-Filter für Tiefenunschärfe ermöglichte. Das diesjährige Jubiläums-iPhone erhält übereinstimmenden Berichten zufolge 3D-Sensoren, um den Abstand der Motive von der Linse einschätzen zu können.


Gesichtserkennung und »Face ID«
Zumeist spricht die Gerüchteküche darüber im Zusammenhang mit »Face ID«, also eine Authentifizierungsmethode über Gesichtserkennung. Zweifellos hängt das damit zusammen, dass der für seine akkuraten Prognosen bekannte Analyst Ming-Chi Kuo genau in diesem Zusammenhang von den 3D-Sensoren sprach. Außerdem tauchten bereits Gerüchte auf, nach denen Apple im Notfall den Fingerabdrucksensor Touch ID gänzlich durch Face ID ersetzen wolle (MTN berichtete: ); bei dem Thema ist das letzte Wort aber noch lange nicht gesprochen.

Virtuelle Gegenstände und ARKit
Dabei hätte eine tiefenmessende iPhone-Kamera noch diverse weitere Vorteile als Gesichtserkennung. Der wohl naheliegendste Zweck ist der Zusammenhang mit ARKit, also Apples jüngste Ambitionen für Erweiterte Realität (Augmented Reality). Virtuelle Gegenstände im Kamerabild der echten Umgebung einzubauen, dürfte bedeutend genauer werden, wenn die entsprechende Kamera Tiefeninformationen hätte. Bei aktuellen iPhones verwendet ARKit einen komplizierten Algorithmus aus optischen Informationen, welche die iSight-Kamera bereitstellt.

Autofokus
Und auch für klassischen Kamera-Funktionen wäre ein 3D-Sensor nützlich. So wäre etwa ein zuverlässigerer Autofokus möglich, wenn die Kamera den tatsächlichen Abstand zum scharfzustellenden Motiv messen kann.


Wie die 3D-Sensoren funktionieren sollen
Die Abstandmessung soll übrigens über den Weg der sogenannten VCSEL-Technologie erfolgen (Vertical-cavity surface-emitting laser). Dabei handelt es sich um Oberflächenemitter von Infrarotstrahlen, die rechtwinklig zum Kamerasensor abstrahlen und die Zeit bis zur Ankunft der Reflexionen messen. Auf diese Weise kann der Abstand zu gut reflektierenden Gegenständen berechnet werden. Während Kuo seinerzeit nur von einem solchen Sensor in der FaceTime-Kamera sprach, also derjenigen Kamera, die dem Nutzer zugewandt ist, will Fast Company nun in Erfahrung gebracht haben, dass auch die rückseitige iSight-Kamera mit denselben Emittern ausgestattet werden soll. Dies ist zweifellos auch sinnvoll, ist die iSight-Kamera doch in der Regel die leistungsfähigere und würde von ARKit und Autofokus deutlich stärker profitieren.

Neue Kamera als Flaschenhals für den Terminplan
Die Kehrseite der Medaille besteht aktuell darin, dass immer wieder Berichte auftauchen, denen zufolge Apples Software noch nicht problemlos mit den 3D-Sensoren zusammenarbeiten könne. Deswegen befürchten einige Beobachter gar eine Verschiebung des Produkts oder doch zumindest eine erst nachträglich Freischaltung der 3D-Fähigkeit im iPhone 8 (MTN berichtete: ).

Kommentare

snowman-x13.07.17 18:23
dann kann apple den fingerabdrücken endlich gesicher zuordnen und hat die größte datenbank der welt
-3
Dayzd13.07.17 19:26
snowman-x
dann kann apple den fingerabdrücken endlich gesicher zuordnen und hat die größte datenbank der welt
genau, weil die auch online auf einem Server liegen... irgendjemand wird dein Blödsinn noch glauben.
+4
Pixelmeister14.07.17 02:45
Wenn man hier schon von möglichen Vorteilen des 3D-Sensors spricht: Ich denke, auch der Portrait-Modus der Kamera-App könnte von den Tiefen-Informationen profitieren. So ganz perfekt klappt die Trennung von Vordergrund und Hintergrund ja noch nicht – zumindest nicht in allen Situationen.

Auch für noch realistischere Tilt-Shift-Effekte wären Tiefen-Informationen hilfreich.

Und man könnte einen 3D-Sensor auch einfach (wie schon bei der Xbox-Cam gezeigt) als 3D-Scanner einsetzen, um reale Objekte in 3D-Vektoren umzusetzen.
0
andreas_g
andreas_g14.07.17 07:35
Ich habe zu einem anderen Artikel schon einen Kommentar zu diesem Thema abgegeben, deshalb zitiere ich mich hier selbst:
andreas_g
Zum Thema 3D-Sensoren:

Ich glaube nicht, dass die primäre Aufgabe dieser Sensoren die Gesichtserkennung sein wird. Dieses Feature könnte zwar für den ein oder anderen interessant sein, hat aber wohl auch Nachteile und wird nicht nur Befürworter haben.

Ich denke da an etwas anderes: Augmented Reality.
Das rahmenlose Design des Gerätes bietet sich für diese Nutzung an. Beim Betrachten des Gerätes könnte sich dieses nahtlos in die reale Umgebung einfügen, indem das von den auf der Rückseite befindlichen Kameras aufgenommene Bild in korrekter Größe und Ausrichtung auf der Vorderseite abgebildet und um beliebige Informationen ergänzt wird.
Damit das aber funktioniert, müsste das Gerät den genauen Abstand zum Betrachter kennen. Nur so kann die Umgebung in korrekter Größe auf dem Bildschirm abgebildet werden, um einen nahtlosen Übergang zu erzeugen.

Ich denke, dass das der primäre Einsatz des 3D-Sensing sein wird.
+2
mazun
mazun14.07.17 09:04
andreas_g
Deinen Beitrag fand ich schon in dem anderen Thread interessant. So in der Art klingt das wirklich spannend und sinnvoll. Also +1 von mir
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.