Intelligence artificielle (IA)
 

IA : l'Europe impose ses règles

Carlos PIRES
15 juin 2023 à 23h53  
1

C'est fait ! Le Parlement européen a adopté, ce mercredi, sa position de négociation concernant la législation sur l'intelligence artificielle (par 499 voix pour, 28 contre et 93 abstentions), avant les discussions avec les États membres sur la forme finale de la législation.

Les règles garantiraient que l'IA qui est développée et utilisée en Europe soit pleinement conforme aux droits et valeurs de l'UE, notamment sur la surveillance humaine, la sécurité, la protection de la vie privée, la transparence, la non-discrimination et le bien-être social et environnemental.

Les règles suivent une approche fondée sur les risques et établissent des obligations pour les fournisseurs et ceux qui déploient des systèmes d'IA en fonction du niveau de risque que l'IA peut générer. Les systèmes d'IA présentant un niveau de risque inacceptable pour la sécurité des personnes seront donc interdits, comme ceux qui sont utilisés pour la notation sociale (classifiant les personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles). Les députés ont élargi la liste pour inclure des interdictions des utilisations intrusives et discriminatoires de l'IA, telles que:

  • les systèmes d'identification biométriques à distance en « temps réel » dans les espaces accessibles au public ;
  • les systèmes d'identification biométrique à distance "a posteriori", à la seule exception des forces de l'ordre pour la poursuite de crimes graves, et seulement après autorisation judiciaire ;
  • les systèmes d'identification biométrique utilisant des caractéristiques sensibles (par exemple, le genre, la race, l'origine ethnique, le statut de citoyen, la religion, l'orientation politique) ;
  • les systèmes de police prédictive (fondés sur le profilage, la localisation ou le comportement criminel passé) ;
  • les systèmes de reconnaissance des émotions utilisés dans les services répressifs, la gestion des frontières, le lieu de travail et les établissements d'enseignement ;
  • la saisie non ciblée d'images faciales provenant d'internet ou de séquences de vidéosurveillance en vue de créer des bases de données de reconnaissance faciale (ce qui constitue une violation des droits humains et du droit au respect de la vie privée).

Les députés ont veillé à ce que la classification des applications à haut risque inclue désormais les systèmes d'IA qui portent gravement atteinte à la santé, à la sécurité et aux droits fondamentaux des personnes ou à l'environnement. Les systèmes d'IA utilisés pour influencer les électeurs et le résultat des élections, ainsi que les systèmes d'IA utilisés dans les systèmes de recommandation exploités par les plateformes de médias sociaux (ayant plus de 45 millions d'utilisateurs) ont été ajoutés à la liste des systèmes à haut risque.

Les systèmes d'IA à usage général constituent un développement nouveau dans le domaine de l'IA, qui évolue rapidement. Les fournisseurs de tels systèmes devront évaluer et atténuer les risques potentiels (dans les domaines de la santé, de la sécurité, des droits fondamentaux, de l'environnement, la démocratie et l'état de droit). Ils devront aussi enregistrer leurs modèles dans la base de données de l'UE avant leur mise en circulation sur le marché européen. Les systèmes d'IA générative basés sur de tels modèles, comme ChatGPT, devront respecter les exigences en matière de transparence (mentionner que le contenu est généré par l'IA, aider également à distinguer les fausses images des vraies) et offrir des garanties contre la génération de contenus illicites. Des résumés détaillés des données protégées par le droit d'auteur utilisées pour la formation des IA devront également être rendus publics.

Pour encourager l'innovation en matière d'IA et soutenir les PME, les députés ont ajouté des exceptions pour les activités de recherche et les composants d'IA fournis dans le cadre de licences libres. La nouvelle législation encourage ce que l'on appelle les « bacs à sable réglementaires pour l'IA », ou les environnements de mise en situation, mis en place par les autorités publiques pour tester l'IA avant son déploiement.

Enfin, les députés veulent renforcer le droit des citoyens à porter plainte contre les systèmes d'IA, et à recevoir des explications sur les décisions fondées sur des systèmes d'IA à haut risque qui ont une incidence significative sur leurs droits fondamentaux. Les députés ont aussi révisé le rôle du Bureau européen de l'IA, qui serait chargé de surveiller la manière dont le règlement relatif à l'IA est mis en œuvre.

1 commentaire

M
Max le Défouleur - Il y a 1 an
L'histoire humaine a montré que tout ce qui est techniquement possible est inévitablement utilisé un jour ou l'autre à des fins néfastes, en parallèle aux aspect positifs qui sont mis en avant.
Il en ira de cette prétendue "IA" comme du reste.
Et s'il s'agit de savoir qui cédera entre les grosses multinationales ou les institutions européennes, je ne parierai pas sur les premières, car elles possèdent le nerf de la guerre, et que les secondes sont largement corruptibles tout en jouissant d'une impunité apparemment complète, comme l'ont montré certaines affaires récentes (les sacs remplis de billets n'étant que la minuscule partie émergée de l'iceberg).

Connectez-vous ou devenez membre pour participer et profiter de nombreux autres services.