L'UE publie son code de bonnes pratiques: entre ambitions et contestations.
- francknegro1900
- 3 juil.
- 3 min de lecture
Dernière mise à jour : 18 sept.
Le 10 juillet 2025, la Commission européenne a publié la version finale de son code de bonnes pratiques de l’IA à usage général. Ce dernier a été élaboré dans le cadre d’un processus multipartite qui aurait mobilisé 13 experts indépendants mandatés par le Bureau européen de l’IA (organe de la Commission européenne), plus de 1000 parties prenantes, incluant des fournisseurs de modèles d’IA, des PME, des universitaires, des spécialistes de la sécurité, ainsi que des représentants des États membres de l’UE ou autres observateurs européens et internationaux.
Comme indiqué sur le site de la Commission européenne, "le code est conçu pour aider l’industrie à se conformer aux règles de la législation sur l’IA relatives à l’IA à usage général, qui entreront en vigueur le 2 août 2025." S’adressant principalement aux fournisseurs de modèles d’IA à usage général, il est composé de trois chapitres principaux : un premier chapitre sur le sujet de la transparence ; un second sur le droit d’auteur ; et enfin un troisième sur la sûreté et la sécurité ne concernant qu’un nombre limité de fournisseurs des modèles les plus avancés. En d’autres termes, le texte vise à garantir la transparence, la sécurité, le respect des droits d’auteur et la gestion des risques pour les modèles d’IA à usage général. Ces derniers sont définis à l’article 3, paragraphe 63 de l’AI Act :
« (63) "modèle d'IA à usage général", un modèle d'IA, y compris lorsqu'il est formé à l'aide d'une grande quantité de données en utilisant l'autosupervision à l'échelle, qui présente une grande généralité et est capable d'exécuter avec compétence un large éventail de tâches distinctes, quelle que soit la manière dont le modèle est mis sur le marché, et qui peut être intégré dans divers systèmes ou applications en aval, à l'exception des modèles d'IA qui sont utilisés pour des activités de recherche, de développement ou de prototypage avant d'être mis sur le marché. »
De façon plus concrète, le texte est destiné aux grands modèles de génération de contenus qui servent de fondation à des applications comme ChatGPT (OpenAI), Gemini (Google), ou encore Le Chat (Mistral).
Rappelons qu’un code de bonnes pratiques relève d’un type de règles dites de "soft law" et n’a donc pas de force obligatoire. Il s’agit ni plus ni moins que d’un recueil de recommandations et de lignes directrices ayant pour objectif de servir de cadre de référence et d’autorégulation à destination des fournisseurs de SIA à usage général, lesquels pourront ou non décider de l’implémenter. Sa signature et son application sont donc facultatives et font l’objet d’une démarche volontaire de la part des signataires potentiels. Il peut servir néanmoins, pour ces derniers, à démontrer leur engagement en faveur du développement d’une IA digne de confiance, ainsi que la conformité de leurs systèmes aux exigences légales édictées dans l’AI Act.
Alors que le texte est supposé entrer en vigueur dès le 2 août 2025, il fait déjà l’objet de vives critiques de la part des principaux concernés, à savoir les entreprises de la Tech américaine. Bruxelles doit également faire face à une opposition de plus en plus grande émanant notamment de 45 grands groupes européens, dont AXA, Airbus, TotalEnergies, BNP Paribas ou Carrefour, mais également de start-up technologiques (Mistral AI, Pigment, Owkin, etc.), qui ont demandé, dans une lettre ouverte du 3 juillet, une "pause" de deux ans sur l’application de l’AI Act. Les auteurs alertent sur l’excès de régulation et le risque qu’elle fait courir sur les ambitions de l’UE en matière d’IA, "fragilisant sa capacité à faire émerger des champions européens, mais aussi la possibilité pour tous les secteurs de déployer l’IA à l’échelle nécessaire pour faire face à la concurrence internationale."

Commentaires