Après plusieurs mois de valse-hésitations, Twitter décide enfin de réagir face à la menace que représente aujourd’hui l’émergence des deepfakes, ces contenus truqués via l’intelligence artificielle et les réseaux neuronaux.
Le réseau social, souvent pointé du doigt pour son rôle dans la propagation de fake news, a détaillé ce lundi son plan de lutte contre la désinformation, dans lequel figure notamment un appel lancé par son état-major pour recueillir l’avis de ses utilisateurs sur l’épineuse question de la diffusion de deepfakes. A cet effet, le réseau social a mis en ligne un questionnaire, disponible à cette adresse, ainsi qu’un formulaire de partenariat qu’il est possible de remplir jusqu’au 27 novembre prochain.
“Les tentatives délibérées d’induire les gens en erreur ou de semer la confusion par la manipulation des médias nuisent à l’intégrité de la conversation. C’est pourquoi nous avons récemment annoncé notre intention de solliciter l’avis du public sur une nouvelle règle visant les médias synthétiques et manipulés”, a annoncé ce lundi la direction du réseau social dans un billet de blog.
Un précédent pour Twitter
Pour y remédier, celle-ci envisage d’accoler un avis à côté de tweets partageant des “médias synthétiques ou manipulés”, d’avertir les gens avant qu’ils n’aiment ou partagent de tels tweets, ou encore d’ajouter un lien vers un article de fact-checking portant sur le contenu montré.
Alors qu’elle fait régulièrement l’objet de pressions politiques pour s’attaquer à la menace que représentent les fakenews, la direction de Twitter s’est également lancé dans un périlleux exercice de définition du sujet. C’est ainsi qu’elle s’est proposée ce lundi de définir les deepfakes – ou shallowfakes – comme “toute photo, tout son ou toute vidéo qui a été modifié ou fabriqué de manière significative dans le but d’induire les gens en erreur ou de modifier sa signification originale”.
Une définition qu’avait déjà suivi le réseau social en 2018, lorsqu’il a interdit la propagation de vidéos deepfakes à caractère pornographique, qui constituent 96 % des vidéos truquées qu’on trouve en ligne, selon une récente étude publiée par Deeptrace.
Twitter rejoint la lutte contre les deepfakes
Bien qu’elle n’en soit qu’à son stade embryonnaire, la technologie du deepfake attire d’ores et déjà l’attention des autorités à travers le monde. Pour rappel, cette technologie repose sur le recours aux algorithmes du Machine learning et de l’intelligence artificielle pour manipuler des contenus vidéos ou audios à des fins frauduleuses.
Si l’utilisation des deepfakes se limite parfois à la satire, par exemple pour se moquer des fonctionnaires du gouvernement et du paysage politique actuel, elle peut parfois cacher des objectifs moins avouables lorsque cette technologie est utilisée pour générer de la propagande politique capable de tromper le grand public.
Si les Etats, à commencer par la France, ne se sont pas encore emparés du sujet, d’autres s’y sont essayé. A l’image de la Californie, dont les législateurs ont adopté récemment un arsenal législatif à même de ralentir l’évolution du recours au deepfake dans l’espace public. L’Etat californien n’est pas le seul à se saisir du sujet.
Les GAFAM se mobilisent
Facebook et Microsoft ont en effet annoncé en septembre le lancement d’un nouveau projet, appelé le Deepfake Detection Challenge, qui offre des récompenses et des subventions d’une valeur de 10 millions de dollars à des universitaires désireux de lancer et de développer des solutions pour la détection automatique des deepfakes.
Google aussi a prévu de participer à ce mouvement de riposte. La firme de Mountain View a ainsi mis à la disposition des universitaires une base de données contenant 3 000 vidéos manipulées par l’IA, qui font également appel à des acteurs rémunérés. La base de données a été ajoutée au benchmark FaceForensics, un standard développé par l’Université Technique de Munich et l’Université Federico II de Naples dans l’espoir de devenir la référence acceptée pour la détection des deepfakes à l’avenir.
댓글