Sélectionner une page

L’UE valide une loi pour réguler l’IA

L’UE valide une loi pour réguler l’IA

Le Parlement et le Conseil européens se sont mis d’accord vendredi dernier sur une législation sur l’intelligence artificielle, qui définit des règles globales pour une IA digne de confiance, tout en ne bridant pas l’innovation des entreprises européennes du secteur. C’est en tout cas l’idée.

Après des négociations intenses qui ont duré près de 40 heures en fin de semaine dernière, le Parlement et le Conseil européens sont parvenus à un accord vendredi dernier sur une législation sur l’intelligence artificielle qui définit des « règles globales pour une IA digne de confiance ». Ce règlement, baptisé IA Act et que Thierry Breton a qualifié d’historique, vise à garantir que les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale soient protégés contre les risques liés à l’IA, tout en encourageant l’innovation et en faisant de l’Europe un des leaders dans ce domaine. Réguler tout en étant suffisamment flexible pour ne pas brider l’innovation des entreprises dans ce domaine, tel était donc tout l’enjeu de ces négociations d’une durée record.

© Parlement européen / Conseil européen

« L’UE est la première au monde à mettre en place une réglementation solide sur l’IA, qui oriente son développement et son évolution dans une direction centrée sur l’humain. La loi sur l’IA fixe des règles pour les grands modèles d’IA puissants, en veillant à ce qu’ils ne présentent pas de risques systémiques pour l’Union, et offre des garanties solides à nos citoyens et à nos démocraties contre tout abus de technologie de la part des pouvoirs publics. Elle protège nos PME, renforce notre capacité d’innovation et de leadership dans le domaine de l’IA et protège les secteurs vulnérables de notre économie. L’Union européenne a apporté des contributions impressionnantes au monde ; la loi sur l’IA en est une autre qui aura un impact significatif sur notre avenir numérique », a déclaré Dragos Tudorache, co-rapporteur de l’IA Act.

Des garanties convenues s’appliqueront à l’intelligence artificielle à usage général, comme la limitation de l’utilisation des systèmes d’identification biométrique aux seuls services répressifs, l’interdiction de la notation sociale et du recours à l’IA pour manipuler ou exploiter les vulnérabilités des utilisateurs, le droit des consommateurs à déposer plainte et à recevoir des explications et l’application d’amendes pouvant aller de 7,5 millions d’euros ou 1,5% du chiffre d’affaires à 35 millions d’euros ou 7% du CA mondial, en fonction de l’infraction et de la taille de l’entreprise.

Plus précisément, reconnaissant la menace potentielle pour les droits des citoyens et la démocratie que représentent certaines applications de l’IA, les colégislateurs sont convenus d’interdire les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (opinions politiques, religieuses, philosophiques, orientation sexuelle, race), l’extraction non ciblée d’images faciales sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale, la reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement, la notation sociale basée sur le comportement social ou les caractéristiques personnelles, les systèmes d’IA qui manipulent le comportement humain pour contourner le libre arbitre, ou encore l’IA utilisée pour exploiter les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).

Les négociateurs se sont mis d’accord sur une série de garanties et d’exceptions limitées pour l’utilisation des systèmes d’identification biométrique dans les espaces accessibles au public à des fins répressives, sous réserve d’une autorisation judiciaire préalable et pour des listes d’infractions strictement définies. Les systèmes d’identification biométrique « à distance » seront ainsi utilisés strictement dans le cadre de la recherche ciblée d’une personne condamnée ou soupçonnée d’avoir commis un crime grave.

Pour les systèmes d’IA classés comme présentant un risque élevé (en raison de leur préjudice potentiel important pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit), des obligations strictes ont été convenues. Les députés ont réussi à inclure une analyse d’impact obligatoire sur les droits fondamentaux, entre autres exigences, également applicable au secteur bancaire et des assurances.

Pour tenir compte du large éventail de tâches que les systèmes d’IA peuvent accomplir et de l’expansion rapide de leurs capacités, l’IA Act impose des garde-fous. Il a notamment été convenu que les systèmes d’IA à usage général, et les modèles sur lesquels ils sont basés, devront respecter des exigences de transparence, comme initialement proposé par le Parlement. Il s’agit notamment de mettre à jour la documentation technique, de se conformer à la législation de l’UE sur les droits d’auteurs et de diffuser des résumés détaillés sur le contenu utilisé pour leur formation.

Enfin, la loi européenne sur l’IA inclut des mesures permettant aux entreprises, en particulier les PME, de développer des solutions d’IA sans pression excessive de la part des géants de l’industrie qui contrôlent la chaîne de valeur. À cette fin, la promeut ce qu’elle appelle des « bacs à sable réglementaires », et des environnements réels, mis en place par les autorités nationales pour développer et tester une IA innovante avant sa mise sur le marché.

Le texte approuvé devra désormais être formellement adopté par le Parlement et le Conseil pour être intégré à la législation de l’UE.

ALLEZ A L'ESSENTIEL !

Recevez notre newsletter par email  

You have Successfully Subscribed!

Pin It on Pinterest

Share This