L’intelligence artificielle est aujourd’hui devenue omniprésente en société, et malgré les bénéfices que cette technologie apporte, son utilisation à mauvais escient inquiète les gouvernements. C’est pourquoi, dans le but de mieux l’encadrer, l’Union européenne a voté un texte de réglementation de l’intelligence artificielle nommé « AI act ». Découvrez dans cet article, les objectifs, avantages et obstacles de ce projet de loi souhaitant créer une IA éthique.
Qu’est-ce que la loi IA Act ?
Présenté pour la première fois le 21 avril 2021 devant la commission européenne, la loi sur l’IA « AI Act » a été dévoilée dans sa version quasi finalisée le 22 janvier 2024, puis votée par le parlement européen le 13 mars 2024. La version finalisée devrait sortir le 22 avril 2024.
Cette loi est une proposition de règlement européen sur l’intelligence artificielle (IA), marquant la première réglementation complète sur l’IA émanant d’une autorité de régulation majeure dans le monde. Elle classe les applications utilisant l’IA en trois catégories de risque: les applications qui créent un risque inacceptable ; les applications à haut risques ; et les applications qui ne sont ni interdites ni répertoriées comme à haut risques.
Cette réglementation vise à fournir des exigences et des obligations claires pour les développeurs et les déployeurs d’IA, tout en réduisant les charges administratives et financières pour les entreprises, en particulier les petites et moyennes entreprises (PME). Ce texte fait partie d’un ensemble plus large de mesures politiques destinées à soutenir le développement d’une IA digne de confiance en Europe.

Pourquoi doit-on régulariser les intelligences artificielles ?

Quelles sont les risques posés par les intelligences artificielles ?
Le cadre réglementaire de l’UE pour les systèmes d’IA définit quatre niveaux de risque, allant des applications interdites à celles à risque minimal.
Interdiction des applications à risque inacceptable :
Certaines utilisations de l’IA, considérées comme une menace directe pour la sécurité et les droits des personnes, seront totalement interdites. Cela inclut, par exemple, la notation sociale par les autorités gouvernementales et les jouets à assistance vocale promouvant des idéologies dangereuses.
Risque élevé :
Les applications d’IA à haut risque incluent celles utilisées dans les infrastructures critiques, comme les systèmes de transport pouvant mettre en péril la vie des usagers; les processus éducatifs ou professionnels affectant l’accès à l’éducation et à l’emploi; les composants de sécurité des produits, tels que l’IA en chirurgie robotisée; et dans l’emploi et les services essentiels, comme les logiciels de tri de CV ou les systèmes de notation de crédit. Ces systèmes doivent respecter des obligations strictes avant leur mise sur le marché, telles que l’évaluation des risques, l’assurance de la qualité des données, la traçabilité des activités, une documentation complète, et la surveillance humaine pour garantir la sécurité et la précision.

Risque limité :
Cette catégorie concerne les applications où le principal risque est le manque de transparence. La loi impose des obligations de transparence pour des applications comme les chatbots, afin que les utilisateurs soient conscients qu’ils interagissent avec une machine. Il est également requis que le contenu généré par l’IA, y compris les textes, audios et vidéos, soit clairement identifié comme tel, surtout s’il s’agit de contenus profonds.
Risque minimal ou nul :
L’utilisation de l’IA à risque minimal est librement permise, englobant des applications comme les jeux vidéo intégrant de l’IA ou les filtres anti-spam. La plupart des systèmes d’IA utilisés actuellement dans l’UE se trouvent dans cette catégorie.
Exceptions :
Des exceptions strictement réglementées sont prévues pour l’utilisation de l’identification biométrique à distance dans des espaces publics, autorisée uniquement dans des circonstances particulières telles que la recherche d’enfants disparus ou la prévention de menaces terroristes, sous l’autorité judiciaire ou d’un organisme indépendant.

Comment les entreprises peuvent elles l’appliquer ?
Pour aider les développeurs de nouvelles IA à appliquer l’AI Act, le FLI, Future of Life Institute, organisme indépendant qui s’efforce de réduire les risques extrêmes et à grande échelle liés aux technologies de transformation, a développé un nouvel outil destiné à aider les PME et les startups européennes. Il permet de déterminer si elles sont soumises à des obligations légales en vertu de la loi européenne sur l’IA, ou s’il est judicieux de l’appliquer simplement pour accroître la confiance en leur entreprise. Il est important de noter que la loi est toujours en négociation et que l’outil est une simplification. Actuellement, il existe trois positions différentes avec des propositions variées pour l’Acte, et ils ont été sélectifs pour rendre l’outil plus facile à utiliser. Cet outil peut leur donner une idée des obligations auxquelles leurs systèmes pourraient être confrontés. Il est encore en cours de développement.

Quel est le futur de l’IA Act ?
Actuellement, le texte est en phase d’adoption et de traduction. Cette loi entrera en vigueur 20 jours après sa publication dans le Journal officiel de l’UE et sera entièrement mise en application deux ans après, bien que certaines dispositions soient exceptionnelles : les interdictions prendront effet six mois après la publication, les exigences de gouvernance et les obligations pour les modèles d’IA généraux après un an, et les règles pour les systèmes d’IA intégrés dans des produits réglementés après trois ans. Pour accompagner cette période de transition vers ce cadre réglementaire, la Commission européenne a initié le pacte sur l’IA, une démarche volontaire destinée à faciliter la future mise en œuvre de la loi et encourageant les développeurs d’IA, en Europe et ailleurs, à se conformer par anticipation aux principales obligations légales.

