Société

[Tribune] Les « deepfakes », arme de désinformation massive

Cette vidéo de Barack Obama traitant son successeur Donald Trump d’idiot face caméra paraît inimaginable. Et elle l’est, en effet. Il s’agit d’un deepfake. Dernière innovation en date dans l’arsenal de désinformation, cette technique utilise l’intelligence artificielle pour modifier les visages et les voix.

Réservé aux abonnés
Mis à jour le 11 avril 2019 à 19:04
Julie Owono

Par Julie Owono

Directrice exécutive d'Internet sans frontières, chercheuse au Berkman Klein Center for Internet and Society de l'Université d'Harvard (États-Unis).

Les réseaux sociaux sont dans le collimateur des autorités ivoiriennes. © Timur Emek/AP/SIPA

À l’ère du chaos informationnel, de telles manipulations peuvent avoir des conséquences très graves. Comme souvent pour les outils de désinformation, et particulièrement les plus douteux, celui-ci a d’abord visé les publics les plus vulnérables. En effet, les deepfakes ont à l’origine été testés contre les femmes, à travers des vidéos pornographiques dans lesquelles étaient insérés les visages d’actrices connues, ou de parfaites inconnues victimes de la revanche de leurs ex-partenaires.

Mais comment se défendre contre des vidéos qui paraissent plus vraies que nature ? Et comment être sûr que de telles manipulations ne seront pas utilisées à des fins politiques, pour déstabiliser un État, voire pour renforcer un mensonge d’État ?

Visages désynchronisés

La question s’est récemment posée au Gabon, à l’occasion du discours à la nation d’Ali Bongo Ondimba, prononcé le 31 décembre 2018, plus de deux mois après l’AVC dont le président avait été victime pendant un séjour à Riyad, en Arabie saoudite. Dès sa diffusion, la vidéo de cette première prise de parole depuis son hospitalisation, alors qu’il était encore en convalescence à Rabat, a alimenté les discussions sur le possible usage d’un deepfake pour faire parler le chef de l’État.

Premier élément de suspicion : pendant les trois minutes que dure ladite allocution, les yeux du président demeurent quasi immobiles, ne clignant qu’une dizaine de fois. Le rythme de battement des paupières est un des principaux indices pour détecter les deepfakes. Autre élément relevé par les critiques : ces mouvements des yeux paraissent complètement désynchronisés de ceux du reste du visage, et notamment de la mâchoire. Comme si plusieurs éléments avaient été assemblés en une seule figure.


>> A LIRE – Gabon : tous au chevet d’Ali Bongo Ondimba


Nouvelles menaces numériques

Interpellée par ces débats, et le peu d’écho que ceux-ci avaient rencontré dans la presse, mon organisation, Internet sans frontières, a décidé de mener l’enquête : nous avons signalé le cas de cette vidéo au magazine Mother Jones, une publication spécialisée dans les nouvelles technologies et leur impact sur les sociétés. Ils ont ainsi réalisé un article sur le risque que représentent les deepfakes dans des pays où les institutions sont assez fragiles et peu armées pour répondre à ces nouvelles menaces numériques.

Mais les experts qu’ils ont interrogés n’ont pu ni confirmer ni infirmer que cette vidéo d’Ali Bongo Ondimba avait été truquée. Tous s’accordent en revanche pour dire que l’idée même de la possibilité d’un tel mensonge télévisuel est déjà très dommageable.

Et pour cause : c’est après la diffusion de cette allocution litigieuse qu’a eu lieu à Libreville, le 7 janvier 2019, la première tentative de coup d’État au Gabon depuis 1964. Pour justifier leur acte, les militaires impliqués ont notamment affirmé n’avoir pas été convaincus par la vidéo présidentielle du nouvel an.

Rapidité fulgurante

S’inquiéter de l’utilisation des deepfakes dans un contexte africain est tout à fait pertinent. Durant les dernières élections générales au Nigeria, l’une des préoccupations majeures était la désinformation utilisée sans vergogne sur les réseaux sociaux par certains candidats et leurs partisans. Et ce n’est qu’une question de temps avant que des entreprises proposent de faire dire à des femmes ou des hommes politiques africains des paroles qu’ils ou elles n’ont jamais prononcées.

Or l’arsenal législatif et juridique du continent est loin d’être suffisant pour faire face à ces menaces numériques, qui se propagent actuellement avec une rapidité fulgurante. Les populations, déjà vulnérables face à la désinformation sous forme de textes, sont encore plus susceptibles d’être déstabilisées et trompées par ces vidéos extrêmement bien montées.


>> À LIRE – [Tribune] Quand les réseaux sociaux ravivent les conflits ethniques


Vigilance et prévoyance

À défaut d’adopter de nouvelles lois ou de former la police et les juges, vigilance et prévoyance sont aujourd’hui de mise. Les organisations de la société civile ne doivent ainsi pas hésiter à sonner l’alerte, et à travailler en collaboration avec des universités américaines, parmi les plus avancées sur ces questions, pour disséquer et déconstruire toute vidéo suspicieuse.

Les plateformes de réseau social, sur lesquelles ces contenus se répandent comme une traînée de poudre, doivent quant à elles prêter une attention particulière à la détection d’éventuels deepfakes, notamment dans les régions du monde qui ne disposent pas d’outils pour y répondre de manière rapide et efficace, à l’image de l’Afrique.

Surtout, les classes politiques du continent doivent absolument s’interdire d’y avoir recours. Pour alléchante et tentante que soit la possibilité de créer de toutes pièces leur vérité sans que la supercherie ne puisse être aisément détectée, une telle initiative ne fera qu’entraîner davantage de problèmes dans leurs pays respectifs. Une société dans laquelle les citoyens ne peuvent plus croire en ce que dit la puissance publique est une société dans laquelle le contrat social est rompu, ouvrant ainsi la voie à plus d’instabilité.