Business

L’AI Act : pourquoi certains usages de l’intelligence artificielle sont interdits en Europe ?

Niveau de dangerosité jugé inacceptable

L’intelligence artificielle, ou IA, est une technologie qui permet aux machines d’apprendre, de raisonner et de prendre des décisions. Elle peut être utilisée pour faire des choses très utiles, comme traduire des langues, reconnaître des visages ou jouer aux échecs. Mais elle peut aussi être utilisée pour faire des choses très dangereuses, comme manipuler les gens, espionner leur vie privée ou les discriminer. C’est pourquoi l’Union européenne a décidé de créer une loi pour encadrer l’usage de l’IA. Cette loi s’appelle l’AI Act et elle définit quatre niveaux de risque pour les systèmes d’IA : minimal, limité, élevé et inacceptable.

Dans cet article, nous allons nous intéresser au niveau de risque inacceptable, qui concerne les usages de l’IA qui sont interdits en Europe. Quels sont ces usages ? Pourquoi sont-ils interdits ? Qu’est-ce qui change pour les citoyens européens ? Quelle est la situation en France ? C’est ce que nous allons voir ensemble.

En bref…

  • AI Act : loi européenne sur l’intelligence artificielle
  • Niveau inacceptable : usages interdits (manipulation, exploitation, surveillance, reconnaissance)
  • Principes éthiques : respect, protection, promotion, responsabilité
  • Droits des citoyens : information, opposition, correction, réparation
  • Situation en France : conformité, législation, stratégie

Quels sont les usages de l’IA qui sont interdits en Europe ?

Selon l’AI Act, les usages de l’IA qui sont interdits en Europe sont ceux qui portent atteinte aux droits fondamentaux des personnes, comme la dignité humaine, la liberté, la démocratie, l’égalité, l’État de droit et le respect de la vie privée. Il s’agit notamment de :

  • Les systèmes d’IA qui manipulent le comportement, les opinions ou les décisions des personnes, en utilisant par exemple des informations trompeuses, des techniques de persuasion ou des émotions artificielles.
    Par exemple, un système d’IA qui vous fait croire que vous parlez à un ami alors qu’il s’agit d’un robot, ou qui vous incite à acheter un produit en vous faisant peur ou en vous faisant rire.
  • Les systèmes d’IA qui exploitent les vulnérabilités des personnes, en tenant compte de leur âge, de leur handicap, de leur état mental ou physique, ou de toute autre situation qui les rend plus susceptibles d’être influencées.
    Par exemple, un système d’IA qui vous propose des jeux d’argent en sachant que vous êtes addict, ou qui vous montre des images choquantes en sachant que vous êtes sensible.
  • Les systèmes d’IA qui permettent la surveillance de masse, c’est-à-dire la collecte, l’analyse et le partage de données personnelles à grande échelle, sans le consentement des personnes concernées.
    Par exemple, un système d’IA qui utilise des caméras, des micros ou des capteurs pour suivre vos déplacements, vos activités, vos relations ou vos opinions.
  • Les systèmes d’IA qui permettent la reconnaissance biométrique à distance, c’est-à-dire l’identification ou la vérification de l’identité des personnes à partir de leurs caractéristiques physiques ou comportementales, comme le visage, la voix, les empreintes digitales ou la démarche.
    Par exemple, un système d’IA qui scanne votre visage pour savoir qui vous êtes, où vous allez ou ce que vous faites.

Ces usages de l’intelligence artificielle sont considérés comme inacceptables car ils peuvent nuire à la confiance, à la sécurité et au bien-être des personnes. Ils peuvent aussi porter atteinte à la souveraineté, à la diversité et aux valeurs de l’Union européenne.

Pourquoi ces usages de l’IA sont-ils interdits en Europe ?

Ces usages de l’intelligence artificielle sont interdits en Europe car ils vont à l’encontre des principes éthiques qui doivent guider le développement et le déploiement de l’IA. Ces principes sont :

  • Le respect de la dignité humaine, qui implique de reconnaître la valeur intrinsèque de chaque personne, de protéger son autonomie et son intégrité et de ne pas la traiter comme un objet ou un moyen.
  • La protection des droits de l’Homme, qui implique de garantir le respect de la vie privée, de la liberté d’expression, de la non-discrimination, de la justice et de la participation démocratique.
  • La promotion du bien commun, qui implique de contribuer au progrès social, à la solidarité, à la durabilité et à l’inclusion.
  • La responsabilité, qui implique de rendre compte des actions et des conséquences liées à l’usage de l’intelligence artificielle, de prévenir et de réparer les dommages éventuels et de respecter les normes de qualité et de sécurité.

Ces principes éthiques sont inspirés par la Charte des droits fondamentaux de l’Union européenne, qui est le texte qui définit les droits et les devoirs des citoyens européens. L’AI Act vise à faire respecter ces principes, en interdisant les usages de l’IA qui les violent et en imposant des obligations aux fournisseurs et aux utilisateurs de l’intelligence artificielle.

Qu’est-ce qui change pour les citoyens européens ?

L’AI Act apporte plusieurs changements pour les citoyens européens, qui peuvent être considérés comme des bénéfices ou des garanties. Parmi ces changements, on peut citer :

  • Le droit à l’information qui permet aux citoyens de savoir quand ils interagissent avec un système d’IA, quel est son objectif, comment il fonctionne et quels sont ses impacts potentiels.
  • Le droit à l’opposition qui permet aux citoyens de refuser d’être soumis à un système d’intelligence artificielle, ou de demander une intervention humaine, lorsque cela affecte leurs droits ou leurs intérêts légitimes.
  • Le droit à la correction qui permet aux citoyens de demander la rectification ou l’effacement des données personnelles traitées par un système d’IA, ou de contester les résultats ou les décisions produits par un système d’IA.
  • Le droit à la réparation qui permet aux citoyens de demander une compensation financière ou morale en cas de préjudice causé par un système d’intelligence artificielle, ou de porter plainte auprès des autorités compétentes.

Ces droits visent à renforcer la confiance des citoyens dans l’usage de l’IA, en leur donnant plus de contrôle, de transparence et de recours. Ils visent aussi à protéger les citoyens des risques liés à l’IA, en leur garantissant le respect de leurs droits fondamentaux.

Quelle est la situation en France ?

La France est l’un des pays membres de l’Union européenne et à ce titre, elle doit se conformer à l’AI Act. Cela signifie que les usages de l’intelligence artificielle qui sont interdits en Europe le sont aussi en France et que les fournisseurs et les utilisateurs de l’IA en France doivent respecter les obligations prévues par l’AI Act. La France dispose également de sa propre législation sur l’IA, qui complète l’AI Act.

Par exemple, la loi pour une République numérique de 2016 prévoit le droit à l’explication des algorithmes publics, qui permet aux citoyens de connaître les règles et les critères utilisés par les administrations pour prendre des décisions les concernant. La France a aussi adopté une stratégie nationale pour l’intelligence artificielle en 2017 (avec un déploiement en deux temps, entre 2018 et 2025), qui vise à faire de la France un leader mondial de l’IA, en soutenant la recherche, l’innovation, la formation et l’éthique dans ce domaine.

Afficher plus

Damien LADURELLE

Après un long moment en tant que gérant d'une agence web & communication à Lille, j'ai rejoint les rangs de l'entreprise au poste de Directeur Marketing et Communication dans une holding. Aujourd'hui, j'accompagne TPE & PME dans leur croissance digitale grâce notamment à l'aide des dernières innovations technologiques. Toujours à la recherche de nouvelles façons de se démarquer, d'innover, de dépasser les barrières du "casual".

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page