L'UE veut établir des normes pour l'utilisation de l'intelligence artificielle

Le développement progressif de l'intelligence artificielle comporte divers avantages, mais il présente aussi des risques. L’UE veut réduire ces derniers avec le règlement sur l’IA, qui a été lancé en mars 2024. Dans le même temps, les opportunités économiques considérables offertes par l'IA doivent être encouragées.

Le Parlement européen et les États membres s'étaient déjà mis d'accord sur un projet en décembre 2023, le feu vert pour la mise en œuvre a maintenant été donné en séance plénière.  En 2026, tous les points de la loi devraient alors être entièrement mis en œuvre.

La loi stipule qu'à l'avenir, les systèmes d'IA seront catégorisés en différents groupes de risques. Plus les risques potentiels d'abus sont élevés ou plus l'infrastructure dans laquelle l'IA est utilisée est critique, plus les restrictions doivent être importantes pour l'application d'IA en question.

Les systèmes d'IA du groupe de risque le plus élevé sont formellement interdits, la deuxième classe de risque la plus élevée comprend les applications qui présentent un « potentiel de dommage important », par exemple pour la démocratie, la santé ou la sécurité. Diverses mesures restrictives ont été prises à leur égard et des possibilités de recours ont été accordées aux personnes concernées. En revanche, les applications d'IA, comme les chatbots déjà établis, ne sont que peu réglementées.
 

Quelles sont les applications de l’IA qui seront interdites dans l'UE ?

La reconnaissance des émotions sur le lieu de travail au moyen de l'IA fait l'objet par exemple d'une interdiction précise pour les entreprises. Ce système permettrait aux entreprises de capturer les sentiments des candidats lors d'un entretien d'embauche ou d'un centre d'évaluation.

En principe, les applications d'IA ne sont pas autorisées à catégoriser les personnes en fonction de la couleur de leur peau, de leur religion ou de leur orientation sexuelle. De même, le « scoring social » est interdit, l'IA étant utilisée pour la reconnaissance faciale en temps réel dans l'espace public. La Chine utilise justement cette technologie pour surveiller le comportement des citoyens.

La reconnaissance faciale biométrique dans l'espace public est elle aussi interdite en principe. Toutefois, il existe des exceptions pour les poursuites pénales en cas d'infractions graves, notamment lorsque la police tente d'empêcher un attentat ou recherche des victimes issues de la traite des êtres humains. De même, les autorités peuvent utiliser la reconnaissance faciale guidée par l'IA dans les lieux publics si un mandat judiciaire a été délivré.

Les entreprises qui ne se conforment pas à ces exigences s'exposent désormais à des amendes : en fonction de l'infraction et de la taille de l'entreprise, l'amende peut atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial.
 


Exigences pour les chatbots IA

Les chatbots basés sur l'IA, comme ChatGPT, ne sont pas considérés par la loi sur l'IA comme critiques, mais doivent respecter les exigences de transparence et la législation européenne sur les droits d'auteur : en effet, les utilisateurs doivent révéler que le contenu a été généré par une IA. Ceci ne vaut pas seulement pour les textes, mais aussi pour les images, les fichiers audio ou vidéo. En outre, il convient de rendre publiques les données protégées par des droits d'auteur utilisées pour la formation.
 

De cette manière, la loi vise à soutenir l’innovation

La loi doit avant tout aider les PME et les start-ups à développer et à former des modèles d'IA. À cette fin, les autorités nationales seront désormais tenues de mettre à la disposition des entreprises un cadre d'essai simulant des conditions proches de la réalité.
 

Les entreprises sont conscientes des risques liés à l'IA

Bien que la plupart des entreprises se montrent ouvertes à l'intelligence artificielle et ont déjà intégré de telles applications dans leurs processus de travail, elles sont tout à fait conscientes des risques. Selon une étude de KPMG, seulement 31 % des Français font confiance à l'IA. Bien que 65 % l'acceptent, 68 % la craignent, ce qui en fait les plus inquiets au niveau mondial. Cette enquête révèle ainsi un contraste entre l'optimisme pour les avancées technologiques et les préoccupations éthiques et sociales. Enfin, seulement 39 % des répondants indiquent être prêts à faire confiance à l’IA dans leur activité professionnelle et 40 % des répondants estiment que les avantages de l’IA l’emportent sur les risques.