top of page
Rechercher

OpenAI face aux usagers malveillants de l'IA.

  • francknegro1900
  • 24 févr.
  • 2 min de lecture

Dernière mise à jour : 18 sept.

Dans un rapport de sécurité mis en ligne le 21 février, Disrupting Malicious Uses of AI, OpenAI dresse un état des lieux des tentatives d’utilisation malveillante des modèles d’intelligence artificielle. Il met en lumière des cas d’abus identifiés et bloqués par OpenAI et ses partenaires, tels que des opérations de surveillance, des escroqueries à l’emploi, des campagnes d’influence ou encore des arnaques amoureuses. L’objectif du rapport est de partager ces informations afin de mieux comprendre, mais surtout de prévenir les menaces émergentes liées aux usages malveillants de l’IA en général et de ChatGPT en particulier. Il s’inscrit dans la volonté de l’éditeur californien de participer, selon ses propres termes, à l’encadrement de l’IA "par des règles de bon sens visant à protéger les individus des préjudices réels et à construire une IA démocratique." Cela inclut notamment "la prévention de l’utilisation des outils d’IA par des régimes autoritaires cherchant à asseoir leur pouvoir, contrôler leurs citoyens ou menacer d’autres États, ainsi que la lutte contre des activités telles que les opérations d’influence clandestines, l’exploitation des enfants, les escroqueries, les spams et les cyberattaques malveillantes."

 

La nouvelle mouture de ce rapport, initié par OpenAI il y a un an, inclut deux incidents "semblant provenir" de Chine, respectivement nommés Peer Review et Sponsored Discontent. Ils révèlent la tentative faite par des acteurs "semblant venir de Chine" d’utiliser les modèles développés par OpenAI et par un autre laboratoire américain dans le cadre d’opérations de surveillance et de production de contenus anti-américains en langue espagnole.

 

  • Peer Review : C’est grâce à l’étude et à l’analyse des activités réalisées par un groupe de comptes qui travaillaient en langue chinoise et selon les horaires de bureau en Chine qu’OpenAI a pu déterminer et reconstituer la nature de l’outil que ces protagonistes étaient en train de concevoir. Il s’agissait d’un programme de surveillance en temps réel des messages publiés sur les réseaux sociaux, destiné à fournir aux services de sécurité chinois des informations sur les conversations en ligne portant sur des sujets politiques et sociaux jugés sensibles par le gouvernement chinois, tels que les appels à manifester en faveur des droits de l’homme. Or, précise OpenAI : "Nos politiques interdisent strictement l’usage de l’IA à des fins de surveillance des communications ou de surveillance non autorisée d’individus, y compris lorsqu’il s’agit d’activités menées par ou pour le compte de gouvernements cherchant à réprimer les libertés personnelles et les droits fondamentaux."

  • Sponsored Discontent : Le deuxième incident, semblant également provenir de Chine pour des raisons similaires, concerne l’usage de ChatGPT à des fins d’influence, via la rédaction d’articles en espagnol critiquant les États-Unis. ChatGPT servait à produire des textes en chinois, ensuite traduits puis publiés sur des sites d’information en Amérique latine (Pérou, Mexique, Équateur). Certains de ces articles portaient des titres accrocheurs visant à dénoncer les inégalités aux États-Unis, tels que : "La réalité tragique du problème des sans-abris aux États-Unis", "La manipulation de l’opinion publique lors des élections américaines", "Les États-Unis profitent secrètement de la guerre en Ukraine » ou encore « L’aveuglement de Washington face à la crise du fentanyl !".

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page