Le règlement sur l'intelligence artificielle (RIA ou AI Act), premier cadre juridique complet sur l’intelligence artificielle en Europe, entrera progressivement en application à partir de 2025. La première échéance clé est le 2 février 2025, date à laquelle les chapitres 1 et 2 entrent en vigueur. Ces dispositions concernent :
✔️ L’obligation de formation et sensibilisation des acteurs manipulant de l’IA
✔️ L’interdiction immédiate de certaines pratiques dangereuses en IA
1. Le champ d’application de l’AI Act
L’AI Act repose sur une approche fondée sur le risque, classant les systèmes d’IA en quatre catégories :
- IA interdite (ex. manipulation subliminale, notation sociale)
- IA à haut risque (ex. reconnaissance biométrique, recrutement, justice)
- IA à risque limité (ex. chatbots, deepfakes)
- IA à risque minimal (ex. filtres anti-spam)
Les premières obligations entrant en vigueur concernent surtout les IA interdites et la maîtrise de l'IA.
A noter que des lignes directrices sont attendues par le Bureau européen de l'IA pour nous éclairer le champ d'application de ces catégories.
2. L’obligation de sensibilisation et de formation des acteurs manipulant l’IA (maitrise de l'IA)
Dès le 2 février 2025, les fournisseurs et déployeurs de systèmes d’IA doivent s’assurer que leurs équipes disposent d’un niveau suffisant de connaissances en matière d’IA, en fonction de :
- Leur expérience et formation préalable
- Le contexte dans lequel l’IA est utilisée
- L’impact de ces systèmes sur les personnes concernées
Exemples concrets :
✅ Un éditeur de logiciel d’IA doit mettre en place une formation interne sur le fonctionnement et les limites de l’algorithme utilisé.
✅ Un hôpital utilisant une IA d’aide au diagnostic doit s’assurer que les médecins et personnels concernés comprennent son fonctionnement et ses limites.
✅ Un service RH utilisant un outil de tri automatique des CV doit informer ses recruteurs des biais potentiels et des mécanismes de décision de l’IA.
💡 Pourquoi cette obligation ? L’objectif est de réduire les risques liés aux biais algorithmiques et à la mauvaise interprétation des décisions prises par l’IA.
3. Quels acteurs sont concernés ?
Entreprises et fournisseurs de solutions IA
- Les éditeurs de logiciels, les plateformes d’IA et les entreprises commercialisant des solutions basées sur l’IA doivent se mettre en conformité immédiatement.
Utilisateurs professionnels d’IA (entreprises, cabinets, administrations)
- Les entreprises qui utilisent des IA tierces doivent vérifier la conformité des outils qu’elles exploitent.
- Ex. : Un cabinet d’avocats utilisant un outil d’analyse de contrats basé sur l’IA doit s’assurer que celui-ci ne fait pas l’objet de pratiques interdites.
4. L’interdiction immédiate de certaines pratiques en IA
L’article 5 de l’AI Act interdit certaines pratiques jugées inacceptables en raison de leur dangerosité.
📌 Voici la liste complète des IA désormais illégales en Europe :
🚫 1. IA manipulatrices et trompeuses 👉 Exemple : Un assistant vocal qui influence subtilement un utilisateur à souscrire à une offre sans qu’il en soit pleinement conscient.
🚫 2. IA exploitant les vulnérabilités 👉 Exemple : Une IA marketing ciblant les enfants ou les personnes en situation de précarité pour les inciter à acheter un produit dont ils n’ont pas besoin.
🚫 3. IA de notation sociale (social scoring) 👉 Exemple : Un système classant les citoyens selon leur comportement (paiement des impôts, amendes, habitudes de consommation) et limitant leurs droits en fonction de leur score.
🚫 4. IA prédictive de criminalité basée uniquement sur du profilage 👉 Exemple : Un algorithme qui attribue un score de dangerosité criminelle à une personne sur la seule base de son origine, de son genre ou d’autres facteurs non objectifs.
🚫 5. Reconnaissance faciale illégale
- Extraction massive d’images de visages sur internet sans consentement
- Déduction des émotions d’un employé sur son lieu de travail ou d’un élève à l’école
- Classification biométrique en fonction de la race, des opinions politiques ou de la sexualité
🚫 6. Identification biométrique en temps réel dans l’espace public (avec quelques exceptions) 👉 Exemple : Une caméra de vidéosurveillance équipée d’une IA analysant chaque visage pour identifier en temps réel les passants dans une ville.
📌 Seules exceptions pour l’usage répressif par les forces de l’ordre :
✔️ La recherche de victimes d’enlèvement ou de traite d’êtres humains
✔️ La prévention d’une menace imminente (terrorisme, attentat, crime grave)
✔️ L’identification d’un suspect dans le cadre d’une enquête criminelle
💡 Quelles sont les sanctions ? Le non-respect de ces interdictions pourra entraîner des amendes pouvant aller jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires mondial.
Les sanctions n'entreront en application qu'à partir du 2 aout 2025 !
5. Actions à mettre en place dès maintenant
📌 1. Faire un audit des systèmes d’IA utilisés ✔️ Vérifier si un outil ou un logiciel IA utilisé en interne ou via un prestataire figure dans la liste des pratiques interdites. ✔️ Vérifier les pratiques des fournisseurs d’IA et s’assurer qu’ils respectent la réglementation.
📌 2. Mettre en place des formations internes ✔️ Sensibiliser les équipes sur les risques et obligations liés à l’IA. ✔️ Former les équipes spécifiquement à l'usage des systèmes d'IA selon la documentation technique du fournisseur. ✔️ Intégrer l’IA dans les formations conformité et éthique des entreprises.
Comment Dastra peut aider ? 💡
✅ Commencez par cartographier vos systèmes d'IA et classifiiez les facilement grâce à notre registre des systèmes d'IA. Vous pourrez intervenir pour interdire rapidement les IA considérées inacceptables
✅ Utilisez notre modèle de questionnaire de formation pour former et sensibiliser vos collaborateurs aux enjeux de l'intelligence artificielle. Nous avons spécialement conçu un modèle de questionnaire de formation pour tous les salariés permettant de répondre aux exigences de sensibilisation de l'article 4 du RIA.
🚀 Entreprises, DPO, juristes : le compte à rebours est lancé ! Il est impératif d’auditer les systèmes d’IA utilisés et de mettre en place un plan de conformité dès maintenant.
📌 Prochaine échéance : aout 2025
L’AI Act imposera des obligations encore plus strictes sur les IA à haut risque, notamment dans la santé, la justice, les ressources humaines et la finance.