OpenAI critique le projet de règlement de l’IA en cours d’étude au sein des instances européennes et menace de se retirer de l’UE.

Partager cet article :

Le développement et le potentiel impressionnant des logiciels d’intelligences artificielles génératives comme ChatGTP ont rapidement alerté sur les risques de désinformation et de traitement des données personnelles des utilisateurs. Ces inquiétudes ont poussé des experts et même des fondateurs d’IA à appeler à un encadrement plus strict.

L’Union Européenne travaille actuellement sur le premier règlement mondial d’usage et de commercialisation des intelligences artificielles appelé « Artificial Intelligence Act ». Le projet examiné prévoit notamment l’interdiction de certains systèmes considérés comme contraires aux droits fondamentaux de l’Union Européenne (exploitation des personnes vulnérables, identification biométrique à distance, système de score social ou encore techniques subliminales). La proposition de règlement présente également trois autres niveaux protections pour les systèmes considérés à « haut risque », à « moyen risque » et enfin « autorisés ».

Le nouveau règlement devrait permettre de lutter contre le risque de désinformation ou de mésinformation sur internet. Ces techniques désignent la diffusion massive et délibérée d’informations respectivement fausses et incertaines sur les réseaux sociaux, le web ou les forums dans le but de tromper et de manipuler l’opinion publique. Grâce au règlement, les députés européens souhaitent obliger les IA à lutter contrer les contenus illégaux et imposer plus de transparence autours de l’utilisation des données personnelles.

Ces annonces de la création d’une réglementation européenne ont notamment suscité la réaction du CEO d’OpenAI qui a exprimé publiquement son mécontentement. Alors en intervention à l’University College London, Sam Altman a critiqué cette décision et annoncé la possibilité que OpenAI se retire de l’Union Européenne si elle ne se trouve pas en mesure de répondre aux nouvelles exigences. L’entreprise spécialisée dans le raisonnement artificiel est à l’origine de plusieurs IA génératives dont le célèbre modèle de langage ChatGTP qui permet de générer de manière autonome un texte et sa nouvelle version GPT-4.

ChatGTP et GPT-4, deux intelligences artificielles développées par l’entreprise pourraient en effet faire partie des systèmes considérés comme à « haut risque » ce qui les obligeraient à subir une évaluation de la part des agences nationales et à déployer plus de mesures de sécurité. Si Sam Altman a affirmé qu’il était favorable à la recherche d’un « équilibre entre réglementation et innovation » et avait même appelé dans un billet de blog à une meilleure réglementation, il avance également que les plateformes de médias sociaux ont davantage d’influence de la diffusion de désinformation. M. Altman a toutefois assuré lors d’une intervention à Station F qu’OpenAI essaierait de se conformer au nouveau règlement pour rester actif en Europe.

La déclaration de M. Altman intervient dans un contexte d’inquiétude quant à l’annonce d’OpenAI du développement d’une intelligence générale artificielle (AGI) dont la puissance pourrait dépasser l’intelligence humaine. Cette nouvelle forme d’intelligence artificielle utilise des technologies proches des capacités cognitives humaines qui pourrait entraîner des conséquences dans nombre de secteurs et de professions. Le CEO d’OpenAI a d’ailleurs été témoin d’une manifestation de protestation contre la construction d’une AGI organisée devant l’University College of London avant son intervention.

Face au développement rapide de la capacité et de l’utilisation des IA, l’Union Européenne n’est pas la seule à décider de s’armer d’une réglementation. Ainsi, les pays du G7 ont déclaré le samedi 20 mai à Hiroshima le lancement d’un futur groupe de travail pour « promouvoir une intelligence artificielle responsable » et se positionner contre ses dérives. Le G7 a annoncé sa volonté de construire des discussions autour de « la protection des droits de propriété intellectuelle », de « l’utilisation raisonnable » des nouvelles technologies, de la « transparence » et du « respect à la vie privée » pour lutter contre la manipulation des informations et la désinformation. Dans ce cadre, les ministres concernés de chaque pays ont été chargés d’établir « le processus d’Hiroshima sur l’IA » pour créer le groupe de travail en coopération avec des organisations internationales.

Nos dernières publications

Vous avez besoin d'aide ?

Contactez-nous pour recevoir l’assistance d’un avocat spécialisé :

Le cabinet ACBM vous accueille du lundi au vendredi de 10h à 19h sur place ou par téléphone. Nous vous répondrons  sous 24h, sans engagement !

Call Now Button