En 2010, une équipe du laboratoire d’infographie de l’Université de Stanford avait mis la main sur un Nokia N900, lequel avait à l’époque une caméra plutôt intelligente par rapport aux normes des smartphones, mais les chercheurs pensaient qu’ils pouvaient l’améliorer avec un peu de code.
La photographie computationnelle
L’équipe de Stanford, dirigée par le professeur Marc Levoy, travaillait dans un domaine naissant connu sous le nom de photographie computationnelle. La théorie était que les algorithmes logiciels pourraient faire plus que traiter les photos, en améliorant le processus de la prise de vue.
« La sortie de ces technologies a permis de faire ce qui n’aurait pas pu être créé par un appareil photo traditionnel. Rendre visibles les choses invisibles. », c’est ainsi que le groupe décrivait son travail à l’époque.
Cette avancée rapide de la photographie computationnelle, a donné naissance à de nombreuses fonctionnalités, telles que le HDR et de meilleures photos en basse lumière – lesquelles sont maintenant monnaie courante. Et à Cupertino, en Californie. Mardi, l’événement iPhone d’Apple a été un autre rappel de l’évolution de la technologie des smartphones. Apple en faisant la guerre à la réalité augmentée lui a permis de lancer l’iPhone X.
Ce que nous considérons comme un appareil photo, est en grande partie une collection d’algorithmes logiciels qui prend de plus en plus de place dans un boîtier. Par exemple, L’iPhone X dispose d’un système d’une caméra avant qui détecte la profondeur de champ et peut être utilisé pour déverrouiller l’appareil à l’aide de la reconnaissance faciale. Mais elle est également utilisée pour le traitement des photos lors de la prise de selfies.
Un autre exemple est la fonctionnalité appelée « Portrait Lighting », une nouveauté sur l’iPhone 8 Plus et l’iPhone X. Apple affirme qu’il « apporte des effets d’éclairage de studio à l’iPhone ». Voici comment, dans un communiqué de presse Apple décrit cette nouvelle fonctionnalité :
L’iPhone 8 Plus est doté de deux appareils photo de 12 mégapixels et propose le mode « Portrait » avec le « Portrait Lighting », offrant à l’iPhone des effets d’éclairage de studio spectaculaires permettant aux clients de capturer des portraits époustouflants avec un faible effet de profondeur de champ dans cinq styles d’éclairage différents.
En d’autres termes, Apple combine des techniques utilisées dans la réalité augmentée et la reconnaissance faciale pour créer une photo ce qu’aucune caméra traditionnelle ne pouvait faire, et tout se passe dans le logiciel du smartphone. Sur l’iPhone X, l’entreprise de Cupertino, utilise également son système de caméra de reconnaissance faciale pour détecter la profondeur de champs afin de produire un effet similaire.
Bien que les technologies sous-jacentes à la plupart de ces fonctionnalités ne sont pas nécessairement nouvelles, des processeurs plus rapides et plus efficaces ont rendu possible la production de téléphones encore plus performants. Apple affirme que ses nouveaux téléphones ont même une puce dédiée aux tâches d’apprentissage automatique.
Avec l’iPhone 7 Plus, Apple a présenté une fonctionnalité appelée « Mode Portrait », sur lequel le « Portrait Lighting » est basé. Il utilise l’apprentissage automatique pour estomper l’arrière-plan d’une image, créant l’illusion d’une faible profondeur de champ d’un objectif d’un véritable appareil photo. Samsung a offert une fonctionnalité similaire appelée « Live Focus » dans son Galaxy Note 8 récemment annoncé.
Levoy, le professeur de Stanford, a rejoint Google en 2011, peu de temps après que son équipe ait publié un document détaillant leur travail sur le Nokia N900. Levoy fait encore de la recherche en photographie computationnelle, et ses travaux ont fait leur chemin dans le plus récent téléphone Pixel de Google.
Normalement toutes ces fonctionnalités se faisaient lors du post-traitement; vous preniez votre photo, puis vous deviez la transformer dans une application sur votre téléphone ou un ordinateur portable pour obtenir un « effet créatif », ou attendre que l’appareil photo de votre smartphone effectue le traitement lui-même.
Mais avec chaque nouvelle génération de smartphones, les algorithmes deviennent plus rapides, plus performants et se fondent davantage dans l’appareil, transformant les smartphones en « ordinateurs intelligents » sans que les utilisateurs en soient conscients, et tout cela grâce à la photographie computationnelle !
[via CBC]
3 Responses
Pitié, pas « Computationnelle », quelle horrible anglicisme. Computer c’est de l’anglais. En français, tu peux utiliser un autre terme : Informatique, digitale, numérique, logiciel, algorithmique, programmé, calculé… Bref, il y a de quoi faire…
Pourtant en cherchant sur internet, c’est un terme couramment utilisé. Par exemple : https://horizonsmediatiqueschloeriegler.wordpress.com/2012/04/11/arret-sur-image-la-photographie-computationnelle/ ou ici :
« Alors que dans la photographie traditionnelle la prise de vue était l’étape décisive, dans la photographie computationnelle, c’est la synthèse des données qui prend une importance majeure, le « clic » du bouton s’apparentant à une collecte d’informations. Dans ce type de photographie, l’image est souvent un matériau composite, comme dans le cas de la photographie HDR, où un ordinateur combine différents éléments pour obtenir une seule image. »
source : http://expo-photo.blog.lemonde.fr/2012/03/07/de-nouveaux-yeux-pour-voir-le-monde/
Argh et en plus cette horreur est couramment utilisée 🙂