La police britannique utilise l’I.A. pour détecter la pornographie mais elle prend des photos de désert pour des nus

desert-2017

L’intelligence artificielle se développe rapidement et offre de nombreuses possibilités. Cependant, elle fait parfois des erreurs, et cela s’est produit pour la police métropolitaine de Londres. Elle utilise l’I.A. pour détecter les images « incriminantes » sur les appareils électroniques saisis. Mais, elle n’est pas fiable quand il s’agit de la nudité, car elle ne peut toujours pas faire la différence entre une photo de nue et la photo d’un désert.

L’I.A. serait-elle perfectible ?

Mark Stokes, le chef de la criminalistique numérique et électronique, a déclaré au The Telegraph que leur logiciel détecte les photos d’armes, de drogues et d’argent sur les ordinateurs et les téléphones saisis. Cependant, il ne cesse de confondre les photos de déserts avec de la pornographie ou des images indécentes :

Pour une raison quelconque, beaucoup de gens ont des économiseurs d’écran de désert et il les confond en pensant que c’est la couleur de la peau.

Comme l’écrit The Telegraph, la police métropolitaine a scanné 53 000 appareils différents pour chercher des preuves « incriminantes » l’année dernière. Comme vous pouvez l’imaginer, cela peut être très dérangeant pour les spécialistes qui passent leur carrière à chercher du contenu sensible et « incriminant ».

Étant donné que les photos « incriminantes » incluent souvent la maltraitance des enfants, la police prévoit de former l’I.A. pour détecter les images d’enfants maltraités. Toutefois, il y a apparemment encore une petite place à l’amélioration, mais avec l’aide des grandes entreprises de la Silicon Valley, elle croit que cela sera possible «d’ici deux à trois ans».

En outre, la police a un plan ambitieux pour stocker les images signalées; elle veut utiliser les services d’images dans le « cloud’, comme Amazon, Google ou Microsoft, au lieu d’utiliser leur centre de données local. Cela met beaucoup de pression sur ces services, car aucun d’entre eux n’est complètement à l’abri des atteintes à la sécurité, comme l’écrit Gizmodo.

Toutefois, avec un développement aussi rapide des nouvelles technologies, l’intelligence artificielle deviendra beaucoup plus précise dans les années à venir. Mais souhaitons surtout qu’elle cesse de confondre une photo pornographique à celle d’un joli désert.

[via GizmodoIthe Telegraph]