
L’AI Act : tout ce que vous devez savoir sur la nouvelle loi européenne sur l’intelligence artificielle
Les bonnes clefs pour tout comprendre à ce charabia !
Vous avez sûrement entendu parler de l’intelligence artificielle, ou IA. C’est ce qui permet à des machines, comme votre ordinateur, votre téléphone ou votre console de jeux, de faire des choses que seuls les humains pouvaient faire avant, comme parler, voir, apprendre ou décider. L’IA, c’est super cool, ça peut vous aider à faire vos devoirs, à vous amuser, à vous soigner ou à vous protéger. Mais l’IA, ça peut aussi être dangereux, ça peut fouiller dans votre vie privée, vous mentir, vous discriminer ou vous faire du mal. C’est pourquoi l’Europe a décidé de faire une loi pour contrôler l’utilisation de l’IA et faire respecter vos droits et vos valeurs. Cette loi s’appelle l’AI Act et c’est la première du genre dans le monde.
Dans cet article, nous allons voir ce que contient cette loi, pourquoi elle est importante, comment elle va s’appliquer et ce qu’elle va changer pour vous.
En bref
L’AI Act, c’est :
- Une loi européenne qui va réguler l’utilisation de l’IA dans l’UE
- Une loi qui va renforcer la confiance, la protection et l’innovation dans l’IA
- Une loi qui va classer les systèmes d’IA selon leur niveau de risque
- Une loi qui va imposer des obligations et des sanctions aux acteurs de l’IA
- Une loi qui va entrer en vigueur en avril 2024
Qu’est-ce que l’AI Act ?
L’AI Act est le nom donné au projet de règlement sur l’intelligence artificielle proposé par la Commission européenne en avril 2021. Un règlement, c’est une loi qui s’applique directement à tous les pays membres de l’Union européenne, sans qu’ils aient besoin de la transposer dans leur droit national. L’AI Act vise à créer un cadre juridique harmonisé pour le développement, le déploiement et l’utilisation de l’IA dans l’UE, en tenant compte des principes éthiques et des droits fondamentaux. L’AI Act a été adopté par le Conseil de l’UE, qui représente les gouvernements des États membres, en février 2024 et il doit encore être approuvé par le Parlement européen, qui représente les citoyens, avant d’entrer en vigueur, probablement en avril 2024.
Pourquoi l’AI Act est-il nécessaire ?
L’AI Act est nécessaire pour plusieurs raisons. Tout d’abord, il veut que vous puissiez faire confiance à l’IA, en s’assurant que les machines d’IA sont sûres, de bonne qualité et efficaces et qu’elles vous disent ce qu’elles font, pourquoi elles le font et qui est responsable si quelque chose ne va pas. Par exemple, si vous utilisez une application d’intelligence artificielle pour réserver un voyage, vous devez savoir comment elle choisit les destinations, les hôtels et les activités et à qui vous pouvez vous plaindre si vous n’êtes pas satisfait.
Ensuite, l’AI Act veut que vous soyez protégé des dangers de l’IA, en interdisant ou en limitant les usages qui sont contraires à nos valeurs, comme espionner les gens, les influencer, les discriminer ou les humilier. Par exemple, il sera interdit d’utiliser l’intelligence artificielle pour noter les individus en fonction de leur apparence, de leur origine ou de leur comportement.
Enfin, l’AI Act veut que l’Europe soit forte et innovante dans le domaine de l’IA, en créant un marché unique pour l’IA, en favorisant la collaboration entre les acteurs publics et privés et en encourageant l’investissement, la recherche et la formation. Il sera ainsi plus facile pour les entreprises européennes de développer et de vendre des produits et des services dans toute l’UE et pour les chercheurs et les étudiants de bénéficier de programmes et de bourses dédiés à l’intelligence artificielle.
Comment l’AI Act va-t-il fonctionner ?
L’AI Act va fonctionner selon une approche basée sur le risque, c’est-à-dire qu’il va imposer des obligations différentes selon le niveau de risque que présente un système d’IA pour les personnes et la société. L’AI Act distingue quatre catégories de risque :
- Le risque inacceptable
Il concerne les systèmes d’IA qui sont interdits car ils portent atteinte aux droits fondamentaux ou à la sécurité publique. Par exemple, il sera interdit d’utiliser l’IA pour diffuser de la désinformation, pour exploiter les enfants, ou pour influencer les élections. - Le risque élevé
Il concerne les systèmes d’intelligence artificielle qui sont soumis à des exigences strictes car ils peuvent avoir un impact significatif sur la vie des personnes ou sur des domaines sensibles. Par exemple, il faudra respecter des règles spécifiques pour utiliser l’IA dans les domaines de la santé, de l’éducation, de la justice, de la police, ou des transports. - Le risque limité
Il concerne les systèmes d’IA qui sont soumis à des obligations de transparence car ils peuvent induire les utilisateurs en erreur ou affecter leurs choix. Par exemple, il faudra informer les utilisateurs lorsqu’ils interagissent avec un chatbot, un assistant vocal, ou un avatar virtuel. - Le risque minimal
Il concerne les systèmes d’IA qui sont exempts d’obligations car ils présentent peu ou pas de risque pour les personnes ou la société. Par exemple, il n’y aura pas de contraintes pour utiliser l’intelligence artificielle pour jouer aux jeux vidéo, pour faire de l’art, ou pour gérer son agenda.
Pour vérifier que les systèmes d’IA respectent les obligations qui leur sont imposées, l’AI Act prévoit la mise en place de mécanismes de contrôle, comme des tests, des audits, ou des certifications, qui seront réalisés par des organismes indépendants. L’AI Act prévoit également la création d’un comité européen de l’IA, qui sera chargé de coordonner les actions des autorités nationales compétentes, de fournir des avis et des recommandations et de suivre l’évolution de l’intelligence artificielle. En cas de non-respect des règles, les contrevenants s’exposeront à des sanctions, qui pourront aller jusqu’à 6% de leur chiffre d’affaires annuel mondial.
Et en France ?
En France, l’AI Act s’appliquera directement, sans qu’il soit nécessaire de changer les lois françaises. Mais la France avait déjà pris des mesures pour encadrer l’IA, comme la loi pour une République numérique de 2016, qui donne le droit de savoir comment fonctionnent les algorithmes utilisés par l’administration, ou la loi relative à la protection des données personnelles de 2018, qui suit le règlement européen sur la protection des données (RGPD), qui s’applique aussi à l’IA. La France a aussi adopté une stratégie nationale pour l’IA en 2018, qui veut faire de la France un leader dans le domaine de l’intelligence artificielle, en s’appuyant sur ses forces scientifiques, industrielles et éthiques.
Selon l’AI Act, les entreprises françaises qui utilisent l’IA devront se conformer aux obligations et aux sanctions prévues par la loi européenne, en fonction du niveau de risque de leurs systèmes d’IA. Voici quelques exemples d’entreprises françaises d’intelligence artificielle et du niveau de risque auquel elles appartiennent :
- Bodyguard.ai : c’est une startup qui a créé une application d’IA qui protège les internautes des cyberharcèlements sur les réseaux sociaux. Son système d’IA analyse les messages reçus par les utilisateurs et les bloque s’ils sont insultants, menaçants ou haineux. Son niveau de risque est limité, car il peut affecter les choix des utilisateurs. Il devra donc être transparent et informer les utilisateurs qu’ils interagissent avec un système d’IA.
- DentalMonitoring : c’est une startup qui a développé une plateforme d’intelligence artificielle qui permet aux dentistes de suivre à distance l’évolution des traitements orthodontiques de leurs patients. Son système d’IA utilise des photos prises par les patients avec leur smartphone pour analyser l’état de leurs dents et leur donner des conseils personnalisés. Son niveau de risque est élevé, car il concerne le domaine de la santé. Il devra donc respecter des exigences strictes de sécurité, de qualité et de performance et être explicables et responsables.
- Shift Technology : c’est une startup qui a créé une solution d’IA qui aide les assureurs à détecter les fraudes à l’assurance. Son système d’IA utilise des algorithmes d’apprentissage automatique pour analyser les données des sinistres et les comparer avec des bases de données externes. Son niveau de risque est inacceptable, car il peut porter atteinte aux droits fondamentaux des personnes. Il sera donc interdit d’utiliser l’intelligence artificielle pour prendre des décisions qui ont des conséquences juridiques ou similaires sur les personnes, sans intervention humaine.
Conclusion
L’AI Act, c’est une loi européenne qui va encadrer l’utilisation des machines intelligentes. Elle va nous permettre d’en profiter sans avoir peur qu’elles nous nuisent et de montrer au monde que l’Europe sait faire de l’AI qui respecte les droits de l’homme et l’environnement. C’est une chance de nous former, de nous informer et de nous impliquer dans l’avenir de l’IA. Mais c’est aussi un challenge pour les entreprises françaises qui utilisent les machines intelligentes, parce qu’elles vont devoir suivre des règles plus strictes et plus compliquées.
Certaines entreprises vont devoir changer leurs méthodes, voire leur modèle économique, pour s’adapter à la nouvelle réglementation. D’autres entreprises vont pouvoir profiter d’un marché unique pour l’intelligence artificielle en Europe et se différencier de leurs concurrents grâce à leurs atouts scientifiques, industriels et éthiques. L’AI Act va donc transformer le paysage de l’intelligence artificielle en Europe et avoir des impacts majeurs sur les entreprises françaises qui utilisent l’AI. Il va leur imposer des contraintes, mais aussi leur offrir des opportunités. Il va les préparer à affronter les défis et les enjeux de l’intelligence artificielle de demain.