L’IA et l’Europe : comment créer un cadre pour l’innovation responsable ?
L’Intelligence Artificielle (IA) est en train de révolutionner notre monde à une vitesse fulgurante. Avec ces avancées, viennent des défis complexes en matière de sécurité, de responsabilité et de protection des droits fondamentaux. L’Union européenne s’est positionnée en précurseur en adoptant une approche proactive pour réguler l’IA, et le processus est tout sauf anodin.
La genèse d’un projet de grande ampleur
En février 2020, la Commission européenne a ouvert la voie en publiant un livre blanc sur l’IA ainsi qu’un rapport approfondi sur les implications de l’IA en terme de sécurité et de responsabilité. À l’échelle internationale, des acteurs tels que le Conseil de l’Europe ont également joué un rôle clé en recensant les travaux existants et en explorant la faisabilité d’un cadre juridique pour l’IA.
Le 21 avril 2021, la Commission européenne a officiellement déposé le “Artificial Intelligence Act” . Le calendrier est serré, avec un objectif de vote parlementaire en juin 2023 et une entrée en vigueur prévue d’ici la fin de la même année.
Le 8 septembre 2023, la présidente de la Commission européenne a appelé à une régulation mondiale de l’IA accompagnée par un groupe d’experts en la matière sur le modèle du GIEC.
Enjeux et objectifs
L’Europe a jeté les bases d’une réglementation sectorielle de l’IA, privilégiant une approche qui met l’accent sur les produits industriels et technologiques.
Les principaux objectifs ?
- la régulation de la mise sur le marché, de la mise en service et de l’utilisation des systèmes d’IA
- un définition juridique de ces systèmes et de leur environnement
- une approche graduée basée sur le niveau de risque de chaque système d’IA
Définir l’IA, entre neutralité et évolutivité
Pour faire définir cette notion complexe, la Commission a choisi d’élaborer une définition générique et neutre technologiquement.
“un logiciel qui est développé au moyen d’une ou plusieurs des techniques énumérées à l’annexe I et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit”
Article 3 du projet de règlement
Cette définition est susceptible d’évoluer car le Parlement européen souhaite reprendre celle de l’OCDE qui offre plus flexibilité et permet de suivre l’évolution rapide de cette technologie.
L’éclairage Numéricité
En 2018, la Commission européenne et d’autres organisations internationales ont déjà travaillé sur une définition de l’IA dans le cadre de travaux d’experts.
Dans le cas du Règlement, le risque est d’inclure des systèmes qui seraient plus des algorithmes que de l’IA, ou bien d’oublier des systèmes avec une définition qui ne serait pas suffisamment large. L’équilibre est difficile à trouver dans un système en perpétuel changement.
Le 18 juin 2021, la CNIL, ses homologues et le Contrôleur européen de la protection des données ont adopté un avis sur la proposition de règlement de la Commission européenne sur l’IA
Une approche basée sur le risque
Le législateur a choisi d’adopter une approche par le risque : plus le risque est élevé, plus les fournisseurs d’IA est soumis à des obligations. Les systèmes d’IA définis comme à “risque inacceptable”, notamment la surveillance biométrique dans les espaces publics, sont interdits.
Les systèmes d’IA considérés à “haut risque” seront évalués en fonction de leur finalité avec des critères stricts et une supervision renforcée. Cela passe notamment par une évaluation de conformité ex ante.
Les systèmes à “risque limité” sont soumis à des obligations de transparence vis-à-vis de l’utilisateur. Ceux dits à “risque minimal” pourront être déployés et utilisés sans nouvelles règles.
IA génératives : quid des droits de la propriété intellectuelle ?
Les IA génératives, telles que Chat GPT ou Midjourney, capables de produire du contenu (image, audio…) à partir de données existantes, font l’objet d’obligations spécifiques. Elles doivent clairement indiquer leur nature générative et mentionner les sources pour identifier les éventuels droits d’auteur.
Quel cadre pour la recherche ?
Le règlement prévoit la création de “bacs à sable réglementaires” sous le contrôle des autorités publiques, où les systèmes d’IA peuvent être testés et expérimentés avant leur déploiement.
Une protection des utilisateurs réaffirmée
La proposition de texte votée par le Parlement affirme le droit des citoyens à porter plainte contre des systèmes d’IA. Elle prévoit également le droit de recevoir des explications concernant les décisions fondées sur des systèmes d’IA à haut risque ayant une incidence significative sur leurs droits.
Le projet de loi prévoit un Bureau de l’IA dédié à l’application uniforme du règlement dans tous les pays membres. Le contrôle au niveau des États serait confié à une autorité nationale.
L’éclairage Numericité
L’un des enjeux de ce texte est d’articuler le règlement IA avec le RGPD. Ce que la CNIL a déjà souligné dans son avis sur le projet de règlement le 8 juillet 2021.
Le règlement IA reste un texte qui régule la mise sur le marché de système d’IA (approche industrielle et technologique). Les droits des utilisateurs restent en retrait malgré les annonces de la commission de mettre l’humain au centre.
Violation et sanctions : que prévoit le projet ?
Les autorités nationales disposent de pouvoirs d’enquête pour contrôler l’activité de l’IA, notamment dans le cadre de la surveillance du marché. Des amendes administratives pouvant atteindre jusqu’à 4 % du chiffre d’affaires annuel mondial des entreprises sont prévues en cas de violation.
L’Union européenne s’engage résolument sur le chemin de la régulation de l’IA en essayant de concilier innovation et protection des droits fondamentaux. façonner l’avenir de l’IA de manière responsable, en assurant à la fois l’innovation et la protection des droits fondamentaux.