Apple ajoutera un système de mise au point 3D par laser aux prochains iPhones dans le cadre des améliorations matérielles nécessaires à l’utilisation de réalité augmentée (ARKit) récemment annoncé. Depuis l’iPhone 6, les iPhones ont utilisé ce qu’Apple appelle le « Focus Pixels », qui en réalité est un AF par détection de phase. Fast Company rapporte que le système sera remplacé par l’autofocus laser éventuellement, dès que le prochain iPhone sortira cet automne.
L’autofocus laser fonctionne en émettant des faisceaux infrarouges de faible intensité sur un sujet et en calculant la distance en fonction du temps qu’il faut pour que la lumière se déplace vers le sujet et revienne vers l’appareil. Cela est particulièrement utile dans des situations de faible luminosité par rapport à l’AF par détection de phase. De plus, il est probable qu’Apple utilisera les deux technologies AF, comme Google le fait dans sa gamme de téléphones Pixel.
Cette technologie offrirait toujours ce fameux double objectif, mais il permettrait au iPhone d’avoir une meilleure perception de la profondeur pour les applications utilisant la réalité augmentée. ARKit fonctionnera avec iOS 11 cet automne, il serait donc judicieux d’inclure également le système laser VSCEL lors du lancement du prochain iPhone.
Selon Fast Company, le système comprendra : « Une source (le laser VSCEL), une optique, un détecteur (capteur) et un processeur ». Tout le combo coûtera environ 2 $ par téléphone.