L’ombre du deepfake plane désormais sur notre quotidien. Si certains Etats ont d’ores et déjà réagi en adoptant des législations dédiées, à l’instar de la Californie, cela n’empêche pas cette technologie frauduleuse de faire son apparition dans le débat public, en faussant notamment des discours politiques.
Bien qu’elle n’en soit qu’à son stade embryonnaire, la technologie du deepfake attire d’ores et déjà l’attention des autorités à travers le monde. Pour rappel, cette technologie repose sur le recours aux algorithmes du Machine learning et de l’intelligence artificielle pour manipuler des contenus vidéos ou audios à des fins frauduleuses. Si l’utilisation des deepfakes se limite parfois à la satire, par exemple pour se moquer des fonctionnaires du gouvernement et du paysage politique actuel, elle peut parfois cacher des objectifs moins avouables lorsque cette technologie est utilisée pour générer de la propagande politique capable de tromper le grand public.
“L’émergence des médias synthétiques et des deepfakes nous oblige à une prise de conscience importante et troublante : notre conviction historique que la vidéo et l’audio sont des enregistrements fiables de la réalité n’est plus défendable”, a alerté en début de semaine le président de la société de cybersécurité Deeptrace, Giorgio Patrini, brossant au passage un tableau noir de l’évolution des Deepfake dans l’espace public en 2019.
La pornographie, un terrain de jeu privilégié pour les faussaires de la toile
Au-delà du seul débat politique, les deepfakes se sont également étendus à la pornographie, avec l’objectif de ruiner la réputation d’une personne ciblée au préalable. Une étude récente sur cette pratique a révélé que les femmes constituent la majorité des victimes dans le porno deepfake, également connu sous le nom de “porno involontaire”. Dans ces cas, leurs visages sont insérés dans des contenus pornographiques existants, avec des conséquences similaires à celles que peut provoquer le “revenge porn”, en touchant sa victime mais également ses amis et sa carrière professionnelle.
Pourtant peu connu pour son activisme sur cette question, le site de discussions en ligne Reddit, où le terme de deepfake a été forgé pour la première fois, a interdit début 2018 le porno deepfake, qui repose largement sur des réseaux d’opposition générative pour insérer le visage d’une femme dans le matériel pornographique existant. Malgré l’influence de Reddit sur la culture Internet, l’interdiction n’a pas empêché l’émergence du porno deepfake. De nouvelles applications comme DeepNude – une application qui déshabille rapidement une femme dans une image – sont apparues depuis lors.
Selon Deeptrace, les vidéos de deepfake ont explosé l’année dernière, passant de 8 000 en décembre 2018 à 14 678 aujourd’hui. Comme on pouvait s’y attendre sur Internet, la quasi-totalité des contenus listés appartiennent au genre de la pornographie, qui représente 96 % des vidéos truquées qu’on trouve en ligne. Ces fausses vidéos ont été vues 134 millions de fois, surtout dans les pays anglo-saxons, malheureusement en pointe sur le sujet. Si les chiffres livrés par Deeptrace suggèrent que le porno deepfake est encore à l’état embryonnaire, celui-ci croît aussi rapidement.
Si 99 % des vidéos truquées ciblent des femmes célèbres travaillant dans le secteur du divertissement, la généralisation de la technologie du deepfake pourrait bientôt conduire les faussaires à s’attaquer à tout un chacun. “Alors que les technologies génératives qui supportent les deepfakes deviennent de plus en plus monétisables, il est fort probable qu’un plus grand nombre de particuliers seront ciblés à l’avenir”, a fait savoir Henry Ajder, chercheur chez Deeptrace, interrogé par ZDNet. “Ce processus de marchandisation des deepfakes rendra la technologie beaucoup plus accessible aux faussaires et augmentera presque certainement la quantité de contrefaçons produites”, a estimé ce dernier. D’autant que de plus en plus d’applications grand public, de plateformes de service de deepfake et de marketplaces existent pour mettre ces vidéos truquées à disposition de n’importe quel quidam.
Le débat politique de plus en plus pollué par les deepfakes
“Au regard de la progression de l’IA, on peut s’attendre à ce que les deepfakes deviennent meilleurs, moins chers et plus faciles à fabriquer sur une période de temps relativement courte. Les gouvernements devraient investir dans le développement des capacités d’évaluation et de mesure des technologies pour les aider à suivre le rythme du développement plus large de l’IA et pour les aider à mieux se préparer aux impacts de technologies comme celle-ci”, a alerté le directeur des affaires publiques d’OpenAI, Jack Clark, alors que le débat politique pourrait bientôt remplacer la pornographie comme nouveau secteur de prédilection pour les faussaires.
Car les deepfakes peuvent également provoquer des dommages irréparables sur le débat public, bien qu’on ne compte pour l’heure que peu de cas dans lesquels le recours au deepfake a influencé un résultat politique. Les deux seuls cas cités dans le rapport de Deeptrace se sont produits au Gabon et en Malaisie. Le cas de la Malaisie a donné lieu à la production d’une vidéo sexuelle impliquant un ministre, tandis que l’incident qui a touché le Gabon concernait une vidéo diffusée par le gouvernement de son président Ali Bongo Ondimba après qu’il eut été victime d’une attaque.
“Je dirais que les contrefaçons profondes, la cybersécurité et les applications politiques posent des risques très graves à court terme auxquels nous devons nous préparer pour l’instant, même si elles ne font pas de ravages à l’heure actuelle, comme certains le pensent peut-être”, a expliqué Henry Aider, justifiant les discours alarmistes de ses confrères sur le sujet.
A l’instar de Paul Scharre, un spécialiste de l’intelligence artificielle officiant comme directeur technique au sein du Center for a New American Security (CNAS). “Nous avons déjà observé des soi-disant “shallowfakes” [des vidéos truquées, NDLR] circuler en ligne dans le but de déformer le discours politique ou de délégitimer les politiciens. La vidéo de haute qualité manipulée par l’intelligence artificielle augmente considérablement les enjeux. Ce n’est qu’une question de temps avant que l’on n’utilise des faux-fuyants pour tenter de manipuler les élections”, indiquait ce dernier en août dernier, celui-ci voyant dans l’émergence du deepfake une menace d’envergure pour la démocratie.
Les deepfakes touchent également l’audio et le texte
Si la manipulation de vidéo est un risque à prendre en compte, la manipulation audio est trop souvent oubliée. En septembre dernier, une société allemande a été victime d’une arnaque au président d’un nouveau genre, les attaquants ayant synthétisé la voix du dirigeant afin de se faire passer pour lui. Ils sont parvenus à dérober plus de 240 000 dollars auprès de la société. L’appel téléphonique visait une filiale du groupe et la voix synthétisée s’est révélée suffisamment convaincante pour que les employés réalisent un virement de 243 000 dollars vers un compte externe contrôlé par les attaquants. Ces derniers se sont fait passer pour un fournisseur hongrois, et sont parvenus à récupérer l’argent.
Certaines applications sont aujourd’hui capables de synthétiser une voix à partir d’une suite d’extraits audio fournis : c’est notamment le cas de la société Lyrebird, qui propose un service de synthetisation de voix de ce type. Calibré pour un interlocuteur anglais, ce service permet de créer un avatar audio de votre voix, capable ensuite de prononcer ce qui vous arrange en lisant simplement le texte qu’on lui fournit.
Mais le deepfake ne touche pas que la vidéo ou l’audio. Les contenus texte peuvent également être exploités par les faussaires. Le groupe de chercheur OpenAI, qui travaille sur les technologies d’intelligence artificielle, a ainsi présenté un nouveau générateur de texte baptisé GPT2. Celui-ci repose sur un réseau neuronal entraîné grâce à un corpus de 40 Go de textes glanés sur le net. Le programme se révèle parfaitement capable de reproduire des textes cohérents qui pourraient passer pour écrits par de vrais êtres humains. Un bon exemple de la puissance de ce modèle est le Subreddit Simulator GPT2, un sous forum de reddit où l’ensemble des commentaires sont écrits par GPT2 afin de simuler de réelles conversations entre les utilisateurs.
La riposte s’organise
Si les Etats, à commencer par la France, ne se sont pas encore emparés du sujet, d’autres s’y sont essayé. A l’image de la Californie, dont les législateurs ont adopté récemment un arsenal législatif à même de ralentir l’évolution du recours au deepfake dans l’espace public. Le gouverneur californien Gavin Newsom a ainsi récemment signé deux lois, les projets de loi 730 et 602, en préparation de la lutte contre les deepfakes et les conséquences politiques potentielles de la manipulation du contenu sur les élections futures.
Le premier projet de loi propose d’interdire la production et la distribution de matériel politique “malveillant” ou “matériellement trompeur”, y compris la superposition d’images sur du matériel de campagne tel que l’audio et la vidéo jusqu’en 2023 au moins. “Ce projet de loi interdirait à une personne, à un comité ou à une autre entité, dans les 60 jours suivant une élection à laquelle un candidat à une charge élective apparaîtra sur le bulletin de vote, de distribuer avec une intention malveillante des supports audio ou visuels trompeurs du candidat dans le but de nuire à sa réputation ou de tromper un électeur en lui faisant voter pour ou contre le candidat, à moins que ces supports ne contiennent une déclaration selon laquelle ils ont été manipulés”, peut-on lire dans les attendus de ce nouveau projet de loi.
Le deuxième projet de loi vise pour sa part à donner aux citoyens le droit de riposter s’ils sont victimes de manipulation de documents falsifiés, en particulier dans les cas de contenus sexuellement explicites. Bien que la loi actuelle prévoie une voie légale pour ceux dont les photographies privées ont été partagées sans consentement, par exemple pour se venger d’une vidéo truquée, le projet de loi ajoute une cause d’action potentielle contre ceux qui “créent et divulguent intentionnellement du matériel sexuellement explicite si la personne sait ou aurait raisonnablement dû savoir que la personne représentée n’a pas consenti à sa création ou divulgation”, ainsi que pour ceux qui partagent du “matériel sexuellement explicite que la personne n’a pas créé” ou auquel elle a consenti.
L’Etat californien n’est pas le seul à se saisir du sujet. Facebook et Microsoft ont en effet annoncé en septembre le lancement d’un nouveau projet, appelé le Deepfake Detection Challenge, qui offre des récompenses et des subventions d’une valeur de 10 millions de dollars à des universitaires désireux de lancer et de développer des solutions pour la détection automatique des deepfakes. Afin de fournir un ensemble de données avec lequel les universitaires pourront travailler, les deux géants américains se sont engagé à payer des acteurs pour développer à la fois de la vidéo et de l’audio en profondeur.
Google aussi a prévu de participer à ce mouvement de riposte. La firme de Mountain View a ainsi mis à la disposition des universitaires une base de données contenant 3 000 vidéos manipulées par l’IA, qui font également appel à des acteurs rémunérés. La base de données a été ajoutée au benchmark FaceForensics, un standard développé par l’Université Technique de Munich et l’Université Federico II de Naples dans l’espoir de devenir la référence acceptée pour la détection des deepfakes à l’avenir.
Comentarios