/reboot/media/64676fc0-0972-11f0-b43a-7a41756b04df/1b76c280-0660-11f0-8713-7a41756b04df/1-1-an-abstract-image-of-a-sphere-with-dots-and-lines-ngocbxiaro0.jpg)
IA ACT - Règlementation relative à l'intelligence artificielle
L’Union européenne souhaite encadrer la mise sur le marché, l’utilisation des systèmes d’IA pour garantir la sécurité, la transparence et le respect des droits fondamentaux.
- Une approche basée sur la classification des systèmes d’intelligence artificielle
- Des obligations pour les fournisseurs et les utilisateurs de systèmes d’IA
Périmètre d’application : toutes les entreprises qui développent ou utilisent l’IA (basées en Europe ou hors d’Europe).
Un calendrier d’application progressif .
L’IA Act a été publié au journal officiel de l’Union Européenne le 12 juillet 2024 et entre en vigueur le 1 er août 2024.
- 2 février 2025 : Entrée en vigueur des interdictions relatives aux systèmes d'IA présentant un risque inacceptable.
- 2 août 2025 : Application des obligations pour les fournisseurs de modèles d'IA à usage général et nomination des autorités nationales compétentes.
- 2 août 2026 : Mise en conformité requise pour les systèmes d'IA à haut risque
Classement des systèmes d’intelligence artificielle en quatre (4) catégories :
1. Risque inacceptable : Ces systèmes sont interdits car ils représentent une menace évidente pour la sécurité ou les droits fondamentaux.
- Notation sociale des individus
- Exploitation des vulnérabilités
- Surveillance biométrique en temps réel
2. Risque élevé : Ces systèmes sont soumis à des exigences strictes en matière de transparence, de sécurité et de surveillance humaine.
- Recrutement
- Décisions judiciaires
- Systèmes de notation de crédit
3. Risque limité : Ces systèmes doivent respecter des obligations de transparence spécifiques.
- Assistants vocaux
- Chatbots
4.Risque minimal ou nul : Ces systèmes ne sont pas soumis à des obligations particulières.
- Système de recommandation
- Jeux vidéo intégrant de l’IA
Les obligations des fournisseurs de systèmes d’IA :
Il convient de distinguer les fournisseurs d’IA à haut risque et les fournisseurs d’IA à usage général.
IA à haut risque
- Système de gestion des risques : Mettre en place un processus continu pour identifier, analyser, estimer et évaluer les risques associés au système d'IA.
- Gouvernance des données : Assurer une gestion rigoureuse des données utilisées.
- Documentation technique : Élaborer et maintenir une documentation détaillée du système d'IA.
- Transparence et informations aux utilisateurs : Fournir des informations claires et compréhensibles aux utilisateurs sur le fonctionnement du système d'IA.
- Surveillance humaine : Concevoir le système de manière à permettre une supervision humaine appropriée.
- Précision, robustesse et cybersécurité : Garantir que le système d'IA fonctionne avec un niveau élevé de précision
IA à usage général
- Documentation technique : Établir et tenir à jour une documentation technique du modèle.
- Informations pour les intégrateurs : Fournir aux entités qui intègrent le modèle dans leurs propres systèmes d'IA des informations et une documentation leur permettant de comprendre les capacités et les limites du modèle.
- Respect du droit d'auteur : Mettre en place une politique visant à respecter le droit de l'Union en matière de droit d'auteur.
- Résumé public des données d'entraînement : Rédiger et mettre à la disposition du public un résumé détaillé du contenu utilisé pour la formation du modèle d'IA
Les obligations des utilisateurs de systèmes d’IA :
- Il est essentiel pour les utilisateurs de comprendre que leurs obligations varient en fonction du niveau de risque associé au système d'IA utilisé. Une évaluation approfondie des systèmes déployés est donc cruciale pour assurer une conformité adéquate avec l'IA Act.
Pour les utilisateurs de systèmes d’IA classés à haut risques, l’IA Act prévoit plusieurs obligations :
a. Surveillance et contrôle humain : Les utilisateurs doivent mettre en place une surveillance appropriée et des mesures garantissant une surveillance humaine adéquate des systèmes d'IA, afin de prévenir ou d'atténuer les risques potentiels pour la santé, la sécurité ou les droits fondamentaux.
b. Utilisation conforme : Les systèmes d'IA doivent être utilisés conformément aux instructions fournies par le fournisseur, en veillant à respecter les conditions d'utilisation prévues.
c. Surveillance post commercialisation : Les utilisateurs sont tenus de surveiller le fonctionnement des systèmes d'IA après leur mise en service, afin de détecter tout dysfonctionnement ou effet indésirable et de réaliser un suivi des performances.
d. Signalement des incidents : En cas d'incident grave ou de dysfonctionnement susceptible de constituer une violation des obligations légales, les utilisateurs doivent informer les autorités compétentes sans délai injustifié (système de notification des incidents graves).
e. Coopération avec les autorités : Les utilisateurs doivent coopérer avec les autorités de surveillance en fournissant les informations nécessaires pour évaluer la conformité du système d'IA aux exigences réglementaires.
Les enjeux de conformité du déploiement de l’IA dans les services financiers :
Un levier stratégique, L'IA est utilisée pour l'automatisation des processus, la gestion des risques, la lutte contre la fraude, et l'amélioration de l'expérience client. En vue d’analyser des données massives, optimiser la détection des anomalies et personnaliser les services. L'IA permet aussi d'améliorer la gestion des investissements (ex : robo‑advisors) et de renforcer les modèles de crédit scoring.
Des enjeux réglementaires pour la conformité, L'IA doit respecter des cadres réglementaires stricts, notamment en matière de protection des données (RGPD) et de transparence des algorithmes. Des exigences de traçabilité et d'explicabilité sont imposées pour éviter les biais algorithmiques et garantir des décisions justifiables.
Des difficultés à maîtriser :
- Sécurisation des données : Assurer une cybersécurité robuste pour protéger les informations sensibles des clients.
- Fiabilité des algorithmes : Éviter les erreurs de prédiction et garantir des décisions financières objectives.
- Interprétabilité des modèles : Les institutions financières doivent pouvoir expliquer comment et pourquoi une décision a été prise par une IA.
- Surveillance et audit : Mettre en place des mécanismes de contrôle pour s'assurer que l'IA respecte les normes et évolue dans un cadre éthique