FYTT #AI

Intelligence Artificielle IA
Artificial Intelligence Act
GlobalPolicy.AI

Règles harmonisées pour le développement, la mise sur le marché et l’utilisation de l’IA suivant une approche proportionnée fondée sur le risque

Plateforme européenne de coopération intergouvernementale et d’information en temps réel sur l’Intelligence Artificielle

 

Règlementation et Coopération européenne en matière d'Intelligence Artificielle IA

 

GlobalPolicy.AI – Plateforme de coopération intergouvernementale et d’information en temps réel sur l’Intelligence Artificielle


(EU) Artificial Intelligence Act (AIA) proposition de Règlement Européen en discussion 2021/0106/COD


Dans le prolongement de son Livre Blanc sur l’Intelligence Artificielle prônant une approche européenne axée sur l’excellence et la confiance (19 février 2020), la Commission propose, aux termes de son exposé des motifs”, un projet de Règlement Européen sur l’IA « Artificial Intelligence Act » (AIA) qui établit des règles harmonisées pour le développement, la mise sur le marché et l’utilisation de systèmes d’IA dans l’Union suivant une approche proportionnée fondée sur le risque, notamment en matière de santé, de sécurité ou en ce qui concerne tous les autres droits fondamentaux des personnes.

En fournissant de meilleures prédictions, en optimisant les processus et l’allocation des ressources et en permettant la prestation de services personnalisés, le recours à l’intelligence artificielle peut produire des résultats bénéfiques sur les plans sociaux et environnementaux et donner des avantages concurrentiels aux entreprises et à l’économie européenne.

Cela étant, les éléments et techniques qui rendent possibles les bénéfices socio-économiques de l’IA peuvent aussi être à l’origine de nouveaux risques ou de conséquences négatives pour les personnes ou la société, notamment par le mode de fonctionnement des algorithmes en « Black Box ».

L’utilisation de l’IA, en effet, compte tenu des caractéristiques spécifiques de cette technologie fonctionnant par le biais d’algorithmes opaques, complexes, très dépendants du volume et de la qualité des données utilisées, voire, de manière quasi-autonome avec le Deep Learning, peut porter atteinte à nombre de droits fondamentaux.

Les attendus de la Proposition se veulent de lutter efficacement contre ces biais et promettent notamment de renforcer et favoriser la protection des droits protégés par la Chartes des Droits Fondamentaux, en ce: le droit à la dignité humaine (article 1er), le respect de la vie privée et la protection des données à caractère personnel (articles 7 et 8), la non-discrimination (article 21) et l’égalité entre les femmes et les hommes (article 23). Elle vise à prévenir un effet dissuasif sur les droits à la liberté d’expression (article 11) et à la liberté de réunion (article 12), à préserver le droit à un recours effectif et à accéder à un tribunal impartial, les droits de la défense et la présomption d’innocence (articles 47 et 48), ainsi que le principe général de bonne administration.

La Commission a pris en considération les travaux et réflexions antérieures menées par le Conseil et le Parlement, notamment en ce qui concerne :

– la protection des données, des droits numériques et des normes éthiques d’un niveau élevé» – European Council, European Council meeting (19 October 2017) – Conclusion EUCO 14/17, 2017, p. 8.

– l’adoption de mesures visant à remédier aux difficultés posées par l’opacité, la complexité, les biais, le degré relatif d’imprévisibilité et le comportement partiellement autonome de certains systèmes d’IA, afin de faire en sorte que ceux-ci soient compatibles avec les droits fondamentaux – Council of the European Union, Presidency conclusions – The Charter of Fundamental Rights in the context of Artificial Intelligence and Digital Change , 11481/20, 2020

– la définition des applications d’IA à haut risque – European Council, Special meeting of the European Council (1and 2 October 2020) – Conclusions EUCO 13/20, 2020.

– les problématiques :

. – en matière pénale – European Parliament Draft Report, Artificial intelligence in criminal law and its use by the police and judicial authorities in criminal matters, 2020/2016(INI)

. – en matière de responsabilité des acteurs et des sujets de l’IA (European Parliament resolution of 20 October 2020 on a civil liability regime for artificial intelligence, 2020/2014(INL) ,

– en matière de propriété intellectuelle (European Parliament resolution of 20 October 2020 on intellectual property rights for the development of artificial intelligence technologies, 2020/2015(INI).

. et naturellement en matière d’éthique ( European Parliament resolution of 20 October 2020 on a framework of ethical aspects of artificial intelligence, robotics and related technologies, 2020/2012(INL)

Règlementation et Coopération européenne en matière d'Intelligence Artificielle IA

 


La proposition établit une définition de l’IA unique qui se veut pérenne et universelle de sorte que soient identifiées clairement les applications d’IA dits à haut risque.

Certaines pratiques d’IA particulièrement néfastes sont interdites en raison de leur caractère contraire aux valeurs de l’Union, tandis que des restrictions et des garanties spécifiques sont proposées en ce qui concerne certaines utilisations de systèmes d’identification biométrique à distance à des fins répressives.

Le contrôle de l’application des règles proposées sera assuré au moyen d’un système de gouvernance au niveau des États membres reposant sur des structures déjà existantes ainsi que d’un mécanisme de coopération au niveau de l’Union accompagnant la création d’un Comité européen de l’intelligence artificielle.

La cohérence est aussi assurée avec la charte des droits fondamentaux de l’UE et le droit dérivé de l’Union existant en matière de protection des données, de protection des consommateurs, de non-discrimination et d’égalité entre les femmes et les hommes.

Il importe de souligner que la proposition est sans préjudice du RGPD (UE) 2016/679] et de la Directive “Police Justice” (UE) 2016/680 en matière de protection des données dans le domaine répressif, et qu’elle complète lesdits actes avec un ensemble de règles harmonisées concernant la conception, le développement et l’utilisation de certains systèmes d’IA à haut risque ainsi que des restrictions portant sur certaines utilisations de systèmes d’identification biométrique à distance.

La notion de données biométriques utilisée dans la proposition AIA est conforme à la notion de données biométriques telle que définie à l’article 4, paragraphe 14, du règlement (UE) 2016/679 du Parlement européen et du Conseil

En outre, la promotion des innovations engendrées par l’IA est étroitement liée au projet de Règlement sur la Gouvernance des DonnéesData Governance Act et à la Directive concernant les données ouvertes Open Data qui établiront des mécanismes et des services de confiance pour la réutilisation, le partage et la mise en commun des données essentielles au développement de modèles d’IA fondés sur les données de haute qualité.

En ce qui concerne la gouvernance des données, l’article 10 de la proposition AIA définit et encadre précisément par un certain nombre de critères les systèmes d’IA à haut risque dits de « deep learning ».

Le choix du Règlement en tant qu’instrument juridique se justifie par la nécessité d’une application uniforme des nouvelles règles, notamment en ce qui concerne la définition de l’IA, l’interdiction de certaines pratiques préjudiciables reposant sur l’IA et la classification de certains systèmes d’IA. L’applicabilité directe du règlement, conformément à l’article 288 du TFUE, réduira la fragmentation juridique et facilitera la mise en place d’un marché unique pour des systèmes d’IA licites, sûrs et dignes de confiance

Une liste des pratiques d’IA interdites est ainsi établie par le Titre II de la proposition AIA.

L’exposé des motifs rappelle ainsi que la proposition de Règlement suit une approche fondée sur les risques et introduit une distinction entre les utilisations de l’IA qui créent i) un risque inacceptable, ii) un risque élevé et iii) un risque faible ou minimal.

La liste des pratiques interdites figurant au titre II comprend tous les systèmes d’IA dont l’utilisation est considérée comme inacceptable car contraire aux valeurs de l’Union, par exemple en raison de violations des droits fondamentaux.

Les interdictions portent sur les pratiques qui présentent un risque important de manipuler des personnes par des techniques subliminales agissant sur leur inconscient, ou d’exploiter les vulnérabilités de groupes vulnérables spécifiques tels que les enfants ou les personnes handicapées afin d’altérer sensiblement leur comportement d’une manière susceptible de causer un préjudice psychologique ou physique à la personne concernée ou à une autre personne. Pour le reste et en coordination avec la législation positive concernant la protection des données avec le diptyque RGPD/ePrivacy, la protection des consommateurs et les services numériques, l’AIA considère que d’autres pratiques de manipulation ou d’exploitation visant les adultes et susceptibles d’être facilitées par des systèmes d’IA pourraient être couvertes par cette règlementation déjà en vigueur qui garantit que les personnes physiques soient correctement informées et puissent choisir librement de ne pas être soumises à un profilage ou à d’autres pratiques susceptibles de modifier leur comportement.

La proposition AIA interdit également la notation sociale fondée sur l’IA effectuée à des fins générales par les autorités publiques.

De même, l’utilisation de systèmes d’identification biométrique à distance «en temps réel» dans des espaces accessibles au public à des fins répressives est également interdite, à moins que certaines exceptions limitées ne s’appliquent.

Les exigences légales applicables aux systèmes d’IA « à haut risque » en ce qui concerne les données et la gouvernance des données, la documentation et la tenue de registres, la transparence et la fourniture d’informations aux utilisateurs, le contrôle humain, la robustesse, l’exactitude et la sécurité sont également définies au chapitre 2 de la proposition AIA.