top of page
Rechercher

Deepfakes: de la définition à la loi.

  • Photo du rédacteur: Franck Negro
    Franck Negro
  • 6 mars 2023
  • 2 min de lecture

Dernière mise à jour : 18 janv.

Le terme deepfake est apparu à la fin de l’année 2017. À cette époque, un utilisateur se présentant sous le pseudonyme « Deepfakes » publie, sur le forum Reddit — site web américain de discussions et d’actualités sociales fondé en 2005 —, une série de vidéos pornographiques dans lesquelles les visages d’actrices de films X avaient été remplacés par ceux de célébrités. Ces contenus étaient produits à l’aide d’un programme d’intelligence artificielle.


Le mot, composé de deux éléments, renvoie à la fois à l’usage du deep learning (apprentissage profond) et à l’idée de falsification, suggérée par le terme anglais fake ("faux"). En d’autres termes, les deepfakes désignent à l’origine des enregistrements vidéo générés artificiellement. Ils peuvent être aisément diffusés sur Internet à des fins pornographiques ou parodiques. À côté de ces usages visuels, il existe également des deepfakes audio, qui permettent de substituer une voix à une autre. La combinaison de ces deux techniques rend possible, comme le rappelait Le Monde, de "faire dire n’importe quoi à n’importe qui".


Si le mot apparaît dès 2017, c’est surtout avec le développement de l’IA générative et le lancement de produits tels que DALL·E (janvier 2021) et Midjourney (juillet 2022) que la question des deepfakes a pris une place centrale dans les débats publics. Depuis lors, il n’a jamais été aussi simple, pour toute personne disposant de compétences informatiques de base, de générer des images réalistes à partir d’un simple prompt. Mais suffit-il de produire une vidéo réaliste à l’aide d’un logiciel d’IA pour qu’elle soit qualifiée de deepfake ? Qu’en est-il des contenus audio, ou même des images fixes, comme celles dont Taylor Swift a récemment été victime ?


En 2020, la Commission d’enrichissement de la langue française a proposé de traduire le terme par "vidéotox". Ce choix terminologique excluait de facto les images statiques et les fichiers audio, ce que soulignait très justement Le Monde. De plus, la combinaison des termes "vidéo" et "infox" définit le deepfake non seulement par son support, mais aussi par l’intention de son producteur, puisque l’infox désigne une information mensongère ou délibérément biaisée visant à tromper ou à manipuler son destinataire. Du côté francophone nord-américain, les autorités québécoises ont préféré le terme "hypertrucage", défini comme "un procédé de manipulation audiovisuelle qui recourt aux algorithmes de l’apprentissage profond pour créer des trucages ultraréalistes".


La question de la définition précise du deepfake revêt une importance particulière dès lors qu’il s’agit de légiférer. Dans l’AI Act, le législateur européen a consacré son article 3 aux « définitions importantes » et a retenu une approche proche de celle des autorités québécoises. Le deepfake, traduit par « hypertrucage », y est défini comme une image, un contenu audio ou une vidéo généré ou manipulé par l’intelligence artificielle, présentant une ressemblance avec des personnes, des objets, des lieux, des entités ou des événements existants, et pouvant être perçu à tort comme authentique ou véridique. Cette définition, volontairement large, englobe tout type de contenu ou de média numérique — images fixes, fichiers audio ou vidéos — produit par une intelligence artificielle, dès lors qu’il est susceptible d’induire une personne en erreur. L’accent est ainsi mis moins sur la caractérisation technique des procédés que sur les risques que ces contenus font peser en matière de confiance, de sécurité et de manipulation de l’information.

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page