Mercredi, le Parlement a approuvé la loi sur l’intelligence artificielle qui garantit la sécurité et le respect des droits fondamentaux, tout en stimulant l’innovation.
Le règlement, convenu lors des négociations avec les États membres en décembre 2023, a été approuvé par les députés avec 523 voix pour, 46 contre et 49 abstentions.
Il vise à protéger les droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale contre l’IA à haut risque, tout en stimulant l’innovation et en faisant de l’Europe un leader dans le domaine. Le règlement établit des obligations pour l’IA en fonction de ses risques potentiels et de son niveau d’impact.
Applications interdites
Les nouvelles règles interdisent certaines applications d’IA qui menacent les droits des citoyens, notamment les systèmes de catégorisation biométrique basés sur des caractéristiques sensibles et la récupération non ciblée d’images faciales sur Internet ou de séquences de vidéosurveillance pour créer des bases de données de reconnaissance faciale. La reconnaissance des émotions sur le lieu de travail et dans les écoles, la notation sociale, la police prédictive (lorsqu’elle repose uniquement sur le profilage d’une personne ou l’évaluation de ses caractéristiques) et l’IA qui manipule le comportement humain ou exploite les vulnérabilités des personnes seront également interdites.
Exemptions d’application de la loi
L’utilisation de systèmes d’identification biométrique (RBI) par les forces de l’ordre est en principe interdite, sauf dans des situations exhaustivement énumérées et étroitement définies. La RBI « en temps réel » ne peut être déployée que si des garanties strictes sont respectées, par exemple son utilisation est limitée dans le temps et dans sa portée géographique et soumise à une autorisation judiciaire ou administrative préalable spécifique. De telles utilisations peuvent inclure, par exemple, la recherche ciblée d’une personne disparue ou la prévention d’une attaque terroriste. L’utilisation de tels systèmes a posteriori (« post-remote RBI ») est considérée comme un cas d’utilisation à haut risque, nécessitant une autorisation judiciaire étant liée à une infraction pénale.
Obligations pour les systèmes à haut risque
Des obligations claires sont également prévues pour d’autres systèmes d’IA à haut risque (en raison de leurs dommages potentiels importants à la santé, à la sécurité, aux droits fondamentaux, à l’environnement, à la démocratie et à l’État de droit). Les exemples d’utilisations à haut risque de l’IA comprennent les infrastructures critiques, l’éducation et la formation professionnelle, l’emploi, les services privés et publics essentiels (par exemple, les soins de santé, les banques), certains systèmes d’application de la loi, la gestion des migrations et des frontières, la justice et les processus démocratiques (par exemple, influencer les élections). . De tels systèmes doivent évaluer et réduire les risques, tenir des journaux d’utilisation, être transparents et précis et garantir une surveillance humaine. Les citoyens auront le droit de déposer des plaintes concernant les systèmes d’IA et de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque qui affectent leurs droits.
Exigences de transparence
Les systèmes d’IA à usage général (GPAI) et les modèles GPAI sur lesquels ils sont basés doivent répondre à certaines exigences de transparence, notamment le respect de la loi européenne sur le droit d’auteur et la publication de résumés détaillés du contenu utilisé pour la formation. Les modèles GPAI les plus puissants susceptibles de présenter des risques systémiques seront confrontés à des exigences supplémentaires, notamment la réalisation d’évaluations de modèles, l’évaluation et l’atténuation des risques systémiques et la création de rapports sur les incidents.
De plus, les images, contenus audio ou vidéo artificiels ou manipulés (« deepfakes ») doivent être clairement étiquetés comme tels.
Mesures de soutien à l’innovation et aux PME
Des bacs à sable réglementaires et des tests en situation réelle devront être mis en place au niveau national et rendus accessibles aux PME et aux start-ups, pour développer et former une IA innovante avant sa mise sur le marché.
Citations
Lors du débat en plénière de mardi, le co-rapporteur de la commission du marché intérieur, Brando Benifei (S&D, Italie), a déclaré : « Nous disposons enfin de la première loi contraignante au monde sur l’intelligence artificielle, pour réduire les risques, créer des opportunités, lutter contre la discrimination et apporter de la transparence. Grâce au Parlement, les pratiques inacceptables de l’IA seront interdites en Europe et les droits des travailleurs et des citoyens seront protégés. L’AI Office sera désormais créé pour aider les entreprises à commencer à se conformer aux règles avant leur entrée en vigueur. Nous avons veillé à ce que les êtres humains et les valeurs européennes soient au centre même du développement de l’IA.
Le co-rapporteur de la commission des libertés civiles, Dragos Tudorache (Renew, Roumanie), a déclaré : « L’UE a tenu ses promesses. Nous avons lié le concept d’intelligence artificielle aux valeurs fondamentales qui fondent nos sociétés. Cependant, il reste encore beaucoup de travail à accomplir, qui va au-delà de la loi sur l’IA elle-même. L’IA nous poussera à repenser le contrat social au cœur de nos démocraties, nos modèles éducatifs, nos marchés du travail et la manière dont nous menons la guerre. L’AI Act est le point de départ d’un nouveau modèle de gouvernance construit autour de la technologie. Nous devons maintenant nous concentrer sur la mise en pratique de cette loi ».
Prochaines étapes
Le règlement est encore soumis à un dernier contrôle juriste-linguiste et devrait être définitivement adopté avant la fin de la législature (par le biais de la procédure dite de rectificatif). La loi doit également être formellement approuvée par le Conseil.
Elle entrera en vigueur vingt jours après sa publication au Journal officiel, et sera pleinement applicable 24 mois après son entrée en vigueur, à l’exception : des interdictions des pratiques interdites, qui s’appliqueront six mois après la date d’entrée en vigueur ; codes de bonnes pratiques (neuf mois après l’entrée en vigueur) ; des règles générales sur l’IA, y compris la gouvernance (12 mois après l’entrée en vigueur) ; et obligations pour les systèmes à haut risque (36 mois).
Arrière-plan
La loi sur l’intelligence artificielle répond directement aux propositions des citoyens de la Conférence sur l’avenir de l’Europe (COFE), plus concrètement à la proposition 12 (10) sur le renforcement de la compétitivité de l’UE dans les secteurs stratégiques, à la proposition 33 (5) sur une société sûre et digne de confiance, y compris lutter contre la désinformation et garantir que les humains ont finalement le contrôle, la proposition 35 sur la promotion de l’innovation numérique, (3) tout en garantissant la surveillance humaine et (8) une utilisation fiable et responsable de l’IA, en établissant des garanties et en garantissant la transparence, et la proposition 37 (3) sur l’utilisation L’IA et les outils numériques pour améliorer l’accès des citoyens à l’information, y compris des personnes handicapées.