Voici comment un système basé sur l’I.A. peut générer de fausses photos et vidéos crédibles

La photo ci-dessus ressemble à Jennifer Aniston, l’actrice des « Amis », ou Selena Gomez, la star des enfants devenue chanteuse pop. Elle ressemble peut-être à une célébrité photographiée lors d’une première d’un film ou d’une remise de prix. Et pourtant, vous faites erreur.

De faux portraits

C’est parce qu’elle n’est pas réelle. Elle a été créée par une machine. Cette image est l’une des fausses photos de célébrités générées par des logiciels en cours de développement chez Nvidia, le grand fabricant de puces informatiques qui investit lourdement dans la recherche impliquant l’intelligence artificielle. Pour créer cette image, un système basé sur l’I.A. a généré 10 millions de révisions en 18 jours.

Dans un laboratoire en Finlande, une petite équipe de chercheurs de Nvidia a récemment construit un système capable d’analyser des milliers de clichés (réels) de célébrités, de reconnaître des schémas courants et de créer de nouvelles images qui ressemblent à des personnes réelles. Le système peut également générer des images réalistes de chevaux, d’autobus, de bicyclettes, de plantes et de nombreux autres objets communs.

Le projet fait partie d’un vaste et varié effort pour construire une technologie qui peut générer automatiquement des images convaincantes – ou modifier les images existantes de manière tout aussi convaincante. Le but est que cette technologie peut considérablement accélérer et améliorer la création d’interfaces informatiques, pour améliorer des personnages dans des jeux, des films ou en photographie; des portraits.

Ces dernières années, grâce à un algorithme capable d’apprendre des tâches en analysant de grandes quantités de données, des entreprises comme Google et Facebook ont ​​construit des systèmes pouvant reconnaître des visages et des objets communs avec une précision qui rivalise avec l’œil humain. Maintenant, ces entreprises et d’autres, aux côtés de nombreux universitaires, utilisent des méthodes similaires à la fois pour reconnaître et créer des images qui n’existent pas.

Les images de Nvidia ne peuvent pas pour l’instant atteindre la résolution des images produites par un appareil photo haut de gamme, mais lorsqu’elles sont vues sur les des smartphones, elles sont précises, détaillées et, dans de nombreux cas, remarquablement convaincantes.

Modifier des photos

Une deuxième équipe de chercheurs de Nvidia a récemment mis au point un système capable de modifier automatiquement une photo prise lors d’une journée d’été afin qu’elle ressemble à une scène hivernale enneigée. Des chercheurs de l’Université de Californie à Berkeley en ont conçu un autre qui apprend à convertir les chevaux en zèbres et les Monets en Van Goghs. DeepMind, un laboratoire à Londres et appartenant à Google, explore une technologie qui peut générer ses propres vidéos. Et Adobe est en train de mettre au point des techniques similaires d’apprentissage automatique en vue de les intégrer dans des produits comme Photoshop.

Les concepteurs et les ingénieurs formés ont longtemps utilisé la technologie comme Photoshop et d’autres programmes pour construire des images réalistes à partir de zéro. C’est ce que font les maisons d’effets spéciaux au cinéma. Selon Durk Kingma, chercheur à OpenAI, le laboratoire d’intelligence artificielle fondé par Elon Musk, le directeur général de Tesla, spécialisé dans ce type d’apprentissage automatique, il devient de plus en plus facile pour les machines d’apprendre à générer ces images.

« Nous avons maintenant un modèle qui peut générer des visages plus diversifiés et, à certains égards, plus réalistes que ce que nous pourrions programmer à la main », a-t-il dit, faisant référence au travail de Nvidia en Finlande.

Bien que ce type de génération de photos soit actuellement limité aux images fixes, de nombreux chercheurs pensent qu’il pourrait s’étendre aux vidéos, aux jeux et à la réalité virtuelle. Mais M. Kingma a dit que cela pourrait prendre des années, juste parce que cela exigera beaucoup plus de puissance de calcul. C’est le principal problème sur lequel Nvidia travaille avec d’autres fabricants de puces.

De fausses vidéos

Les chercheurs utilisent également un large éventail d’autres techniques d’apprentissage automatique pour éditer la vidéo de manière plus convaincante – et parfois provocante. En effet, en août 2017, un groupe de l’Université de Washington a fait les manchettes en construisant un système qui permet de mettre de nouveaux mots dans la bouche d’une vidéo de Barack Obama. D’autres, dont Pinscreen, une start-up californienne, et iFlyTek de Chine, développent des techniques similaires en utilisant des images du président Donald Trump. Voici un exemple :

Les résultats ne sont pas totalement convaincants. Mais les progrès rapides des GAN et d’autres techniques pointent vers un avenir où il deviendra plus facile pour quiconque de générer de fausses images ou de fausses vidéos.

Eliot Higgins, le fondateur de Bellingcat, une organisation qui analyse les événements actuels en utilisant des images et des vidéos disponibles publiquement, a souligné que les fausses images ne sont en aucun cas un nouveau problème. « Dans les années qui ont suivi la montée de Photoshop, il incombait aux citoyens d’aborder ce qu’ils considèrent en ligne avec scepticisme », a-t-il affirmé.

Mais beaucoup d’entre nous font encore confiance aux photos et aux vidéos que nous voyons sur internet. M. Hwang croit que la technologie évoluera vers une sorte de d’I.A. comme une course aux armements, opposant ceux qui tentent de tromper ceux qui essaient d’identifier la tromperie.

M. Lehtinen minimise l’effet que sa recherche aura sur la propagation de la désinformation en ligne. Mais il dit qu’à mesure que le temps passe, nous devrons peut-être repenser la nature même de l’imagerie. « Nous abordons des questions fondamentales », a-t-il déclaré.

[via New York Time]

Un commentaire