Depuis quelques mois, les deepfake font couler beaucoup d’encre. S’appuyant sur l’intelligence artificielle, cette technique, également appelée permutation intelligente de visages (PIV), permet de générer des canulars vidéo.
Mais pour Hao Li, Associate professor à l’université de Southern California et l’un des pionniers du deepfake, la plupart des vidéos générées actuellement sont encore faciles à détecter à l’œil nu. Certaines vidéos ont l’air plus réelles, mais celles-ci ont également nécessité plus d’efforts de la part de l’auteur.
Néanmoins, cela pourrait rapidement évoluer. D’après le chercheur, qui s’en explique dans une interview avec CNBC, d’ici six mois ou un an, tout le monde pourrait avoir les moyens de générer des vidéos deepfake très réalistes et indétectables.
Il y a encore quelques jours, Hao Li indiquait que cela arriverait dans deux ou trois ans. Mais le chercheur aurait révisé ses prédictions en tenant compte de la popularité de l’application Zao (qui permet à n’importe qui de générer des vidéos deepfake), ainsi que l’attention qu’accordent les chercheurs à cette technologie.
Li a expliqué à CNBC que « En outre, à certains égards, nous savons déjà comment le faire ». Il suffirait juste de former les algorithmes avec plus de données.
Le problème de la détection
Les géants d’internet commencent à réagir à l’émergence de ce phénomène. Facebook et Microsoft, par exemple, soutiennent un concours anti-deepfake dont le but est de créer un jeu de données ainsi que des technologies capables de mieux détecter les vidéos deepfake. Google vient également de publier un jeu de données incluant des vidéos deepfake créés avec des acteurs, dans le but d’aider les chercheurs à mieux détecter ce type de vidéo.
Comentarios