Règlements de l’UE sur l’intelligence artificielle

Cet article a été mis à jour pour la dernière fois le décembre 7, 2023

Règlements de l’UE sur l’intelligence artificielle

European artificial intelligence rules

Introduction

Il y a de plus en plus de chances que la technologie derrière le chatbot ChatGPT et les outils d’IA similaires échappe aux règles européennes strictes en matière d’intelligence artificielle, ce qu’on appelle la loi sur l’IA. Un changement de cap frappant : cet été, tant les États membres de l’UE que le Parlement européen y étaient favorables.

Lobbying dans les principaux pays

Cela est dû à un changement de cap de la part des trois plus grands pays de l’UE, l’Allemagne, la France et l’Italie. Ils craignent que des règles trop strictes n’affectent non seulement les géants américains de la technologie mais aussi les partis européens, et ils veulent empêcher cela. La société française d’IA Mistral AI, entre autres, s’est également impliquée avec des positions franches.

Loi sur l’IA et ses implications

La loi sur l’IA est en préparation depuis des années. Le principe de base est le suivant : plus les risques sont grands, plus les règles sont strictes. Les règles étaient déjà élaborées avant l’arrivée de ChatGPT sur le marché à la fin de l’année dernière.

La loi sur l’IA

Le point de départ de la loi européenne est que les systèmes d’intelligence artificielle sont classés en fonction des risques qu’ils présentent. Cela prend la forme d’une pyramide : en haut, les systèmes qui sont interdits, par exemple parce qu’ils évaluent le comportement des personnes, et en bas, les systèmes classés comme « à haut risque ».

Cela inclut les technologies qui peuvent avoir des conséquences sur les droits légaux des citoyens, mais aussi sur la santé, ou les systèmes utilisés pour traquer les suspects ou scanner les CV des candidats.

Assouplir les restrictions

Mais ce projet est désormais mis en doute. Le mois dernier, la France, l’Allemagne et l’Italie ont publié conjointement un document dans lequel elles préconisent que les entreprises soient autorisées à élaborer leurs propres règles.

Cela signifie que de puissantes entreprises technologiques telles que Microsoft, Google et Meta, mais aussi OpenAI, le créateur de ChatGPT, expliqueraient elles-mêmes comment leur technologie fonctionne et ce qu’elle peut et ne peut pas faire. Il devrait y avoir une certaine forme de surveillance.

Réponse et préoccupations de l’industrie

« Alors vous n’avez pas de bâton derrière la porte », répond Catelijne Muller, présidente de l’organisation d’IA ALLAI. Elle suit les discussions sur la loi sur l’IA depuis des années. « Ce qu’ils veulent, bien sûr, c’est qu’ils ne puissent pas obtenir d’amendes. » Ceci est également indiqué dans la proposition des trois pays. Ils veulent commencer sans système de sanctions et n’y penser qu’une fois que plusieurs violations ont été commises.

Selon elle, il y a un important lobby technologique derrière le document. Non seulement de la part des géants américains de la technologie, connus pour tenter d’exercer une grande influence sur toutes sortes de questions technologiques majeures en Europe, mais également de la part de deux acteurs européens. Van Sparrentak cite le français Mistral AI et l’allemand Aleph Alpha.

Impact et négociations

Mistral compte une vingtaine de salariés, n’existe que depuis six mois et valorise déjà 1 ou 2 milliards d’euros. Quatre semaines après sa création, l’entreprise a déjà reçu un investissement de 105 millions d’euros.

Le député européen Van Sparrentak affirme que lors du dernier cycle de négociations, le Parlement tentera de rendre contraignantes des règles, par exemple concernant les tests des systèmes. Si cela ne fonctionne pas, on demandera tout au plus aux entreprises de « faire de leur mieux ».

Règles européennes en matière d’intelligence artificielle

Partager avec des amis

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*