[ INTELLIGENCE ARTIFICIELLE ] Comment l’Europe veut la réglementer

Mercredi 21 avril, la Commission Européenne a présenté une articulée proposition pour la réglementation de l’utilisation des systèmes d’Intelligence Artificielle (AI), dans le but d’en indiquer les utilisations autorisées et interdites pour protéger la vie privée et d’autres droits des citoyens européens.

La proposition était plutôt attendue et est considérée comme le projet le plus ambitieux réalisé jusqu’à présent pour réglementer un secteur en pleine expansion et aux contours encore flous.

Pour entrer en vigueur, le nouveau règlement devra être discuté et voté par le Parlement européen et les États membres, processus qui prendra quelques années pour être achevé.

L'Intelligence Artificielle et l'Europe
L'Intelligence Artificielle et l'Europe

L’initiative de la Commission couvre différents domaines et applications de l’IA, allant des systèmes de recrutement de personnel dans les entreprises aux algorithmes qui font fonctionner les voitures autonomes, en passant par la reconnaissance faciale par les forces de l’ordre.

Le règlement établit ce que l’on peut et ne peut pas faire avec les AI et prévoit des amendes pouvant atteindre 6 % du chiffre d’affaires annuel des entreprises concernées, avec des mécanismes similaires à ceux utilisés pour le RGPD, le règlement de protection de la vie privée en vigueur depuis quelques années dans l’Union Européenne.

Vidéo-surveillance
(AP Photo/Eric Risberg)

Reconnaissance Faciale

L’un des thèmes centraux, qui a déjà été largement débattu avant la présentation officielle de la proposition, est lié aux systèmes permettant de reconnaître automatiquement les individus sur les caméras de sécurité.

La proposition prévoit l’interdiction générale de l’utilisation «en temps réel» de ces systèmes dans les espaces publics, même à des fins d’activités menées par les forces de l’ordre.

Le règlement prévoit toutefois de nombreuses exceptions, y compris la possibilité de recourir à la reconnaissance faciale pour la recherche par la police de suspects dans des activités criminelles.

Dans ce dernier cas, il est fait mention de la nécessité d’une autorisation des autorités judiciaires, ce qui, selon plusieurs critiques, ne dissuadera pas de recourir à une reconnaissance faciale excessive.

Il est rare qu’aucun permis ne soit accordé pour des activités de ce type, surtout en cas d’urgence et lorsque la recherche d’une ou de plusieurs personnes suspectées d’un crime est nécessaire.

Comme cela avait été signalé au cours des derniers mois, lorsque des anticipations du texte étaient apparues, le nouveau règlement semble maintenir une position peu nette vis-à-vis des technologies qui pourraient violer les droits à la vie privée des citoyens.

Bien qu’il interdise l’utilisation des données en signalant les risques, il prévoit plusieurs exceptions qui permettront en fait aux forces de police d’effectuer des activités de surveillance de masse, sans beaucoup de garanties sur le traitement des données.

L’interdiction parle également d’activités de surveillance « en temps réel », ce qui semble indiquer qu’il est toujours permis d’effectuer des recherches avec des technologies de reconnaissance faciale sur des images déjà acquises.

Si tel était le cas, les différents États membres pourraient utiliser des solutions technologiques déjà disponibles depuis un certain temps et de plus en plus utilisées aux États-Unis et en Chine.

Autres interdictions

Le règlement prévoit d’autres interdictions dans l’utilisation des AI, par exemple, il ne sera pas permis d’utiliser des technologies pour calculer le «score de crédit social» de chaque individu, une pratique de plus en plus expérimentée en Chine.

Dans ce pays chaque citoyen se voit attribuer des points sur la base des comportements, qui donnent la possibilité d’accéder à des services particuliers qui sont interdits aux personnes ayant de faibles scores.

Il sera également interdit de développer des algorithmes susceptibles de causer des dommages physiques ou psychologiques aux individus, ou avec la capacité d’en manipuler les comportements, même sous forme subliminale.

Échelle de risque

IA - Échelle de risque
( Commission Européenne )

Toutefois, les AI sont déjà utilisées dans de nombreux domaines et apportent d’innombrables avantages, sur lesquels la Commission n’est pas disposée à intervenir.

Le règlement identifie différents niveaux de risque pour ces technologies, en indiquant ce que les entreprises doivent faire pour pouvoir les utiliser sans encourir d’amendes et d’autres pénalités.

Le niveau de risque le plus faible comprend des systèmes tels que les filtres contre les e-mails ou les appels non sollicités, pour lesquels aucun problème particulier n’est décelé, sauf évolutions à évaluer à l’avenir.

Le niveau suivant comprend les technologies «à risque limité» telles que les systèmes de réponse automatique pour fournir une assistance en ligne, par exemple pour réserver un vol ou un examen médical, Ils devront faire l’objet d’un contrôle plus attentif car ils impliquent l’utilisation de données à caractère personnel.

Par contre, le troisième niveau, celui à «haut risque», comprend les technologies qui ont un impact direct et tangible sur la population et qui échappent au contrôle des individus.

C’est un domaine sans fin et en croissance constante, qui va des algorithmes pour déterminer qui peut accéder à un prêt au contrôle et à la prévision des transactions numériques, en passant par les systèmes qui gèrent la conduite autonome des véhicules et les projets de transport urbaine ou les dispositifs médicaux.

Contrôles

Pour ces systèmes, la Commission a prévu différents niveaux de contrôle pour garantir la vie privée et les autres droits de la population.

Le règlement exige que les AI soient formées en utilisant des données qui ne contiennent pas de préjugés (par exemple de genre ou d’origine géographique), qu’ils disposent de systèmes de contrôle aisément accessibles par les êtres humains et que leur fonctionnement soit décrit de manière détaillée et claire aux autorités compétentes et pour les utilisateurs.

La proposition prévoit également la création d’une sorte de registre européen des intelligences artificielles à haut risque, accessible à tous et contenant des informations sur les caractéristiques des différentes IA développées et utilisées par les entreprises privées, publiques et les institutions.

L’idée a été bien accueillie par les observateurs, car elle devrait favoriser la transparence.

Troisième voie

En présentant ce projet, Margrethe Vestager, commissaire européenne chargée de la stratégie numérique, a expliqué que l’initiative européenne cherche à se distinguer des expériences menées jusqu’à présent aux États-Unis et en Chine.

Cette « troisième voie » européenne vise à mettre en place une législation couvrant tous les principaux aspects des technologies qui, pour le meilleur et pour le pire, seront au centre des développements des décennies à venir.

Margrethe Vestager (AP Photo/Francisco Seco)
Margrethe Vestager (AP Photo/Francisco Seco)

Toutefois, cette approche ne bénéficie pas aux États-Unis, qui auraient souhaité un effort plus coordonné, notamment pour contrer les progrès rapides dans le secteur de la Chine.

Mais l’approche américaine a jusqu’à présent prévu l’adoption de quelques règles, laissant aux grandes entreprises technologiques la responsabilité de s’organiser pour développer des solutions qui respectent les droits et les lois qui les protègent.

Une approche similaire a également été suivie dans le domaine de la vie privée, marquant une différence importante entre les règles prévues aux États-Unis par rapport à celles beaucoup plus strictes comprises dans le RGPD européen.

Gagner la concurrence des grandes entreprises américaines comme Google, Amazon, Apple et Facebook ne sera pas facile, surtout parce que ces entreprises possèdent des quantités énormes de données, essentielles pour instruire les intelligences artificielles (machines et deep learning).

Selon les détracteurs, le nouveau règlement européen sur les AI pourrait dissuader les entreprises de développer leurs technologies dans l’Union européenne, précisément en raison de l’existence de contraintes excessives.

La Commission prévoit toutefois d’investir environ un milliard d’euros par an pour encourager les initiatives et les programmes liés à la numérisation, en finançant les entreprises et les startups du secteur.

Le plan prévoit d’attirer des investissements jusqu’à 20 milliards d’euros d’ici la fin de la décennie dans le secteur.

cet article a été initialement publié par Il Post du 22/04/2021

5/5