Apple a demandé à des bêta-testeurs d’examiner certaines fonctionnalités de iOS 10.1. L’une des caractéristiques les plus attendues est le mode « Portrait » qui simule un effet de profondeur de champ. Apple n’est pas le premier à tirer parti d’un double capteur pour essayer de recréer un « faux bokeh » et ils sont déterminés à y arriver.
Le logiciel utilise une combinaison de reconnaissance faciale et d’informations à partir de deux appareils photo se trouvant dans l’iPhone 7 Plus pour créer une carte des profondeurs, laquelle est appliquée ensuite aux photos pour recréer un effet de « flou ». Les objets plus près du sujet seront moins flous, tandis que les objets placés loin plus seront plus flous, exactement comme le ferait un appareil à plus grand capteur muni d’un objectif lumineux. Voici ce que cela donne :
Comme vous pouvez le voir, l’effet est rendu en temps réel sur votre écran, de sorte que vous pouvez régler le « faux bokeh » selon vos goûts. De plus, chaque fois que vous prenez une photo, l’appareil enregistre l’originale et la véritable profondeur de champ afin que vous puissiez les comparer. Voici l’avant et l’après :
Cette image a été comparée avec une autre prise avec le a6300 de Sony. L’effet numérique ne se compare pas encore à un phénomène optique, mais pour une première version bêta, cela semble assez convaincant. Vous devrez attendre encore un peu avant d’avoir cette fonctionnalité. Cette version de iOS n’étant pas disponible. De plus vous devrez avoir l’iPhone 7 Plus pour profiter de ce « faux bokeh ». En effet c’est le seul appareil d’Apple possédant deux capteurs.
[via]