IA ACT — la législation sur l'intelligence artificielle expliquée simplement
Accusant du retard sur ses adversaires étasunien et chinois, l’Union Européenne prend la tête d’un nouveau front, celui de la régulation.
Dès 2024, le vieux continent compte se doter de la première réglementation à portée mondiale sur l’intelligence artificielle. Une réactivité assez impressionnante quand on la compare à la loi sur la réglementation des données personnelles RGPD, qui est entrée en vigueur 20 ans après la création de Google et 14 ans après la naissance de Facebook.
La réglementation s’appliquera à toutes les technologies IA opérant sur le marché européen, quel que soit son pays de conception. L’enjeu ? Imposer une vision européenne de l’intelligence artificielle sur les principes de transparence, de traçabilité, d’accès non discriminatoire et de respect de l’environnement.
La réglementation s’appliquera à toutes les technologies IA opérant sur le marché européen, quel que soit son pays de conception. L’enjeu ? Imposer une vision européenne de l’intelligence artificielle sur les principes de transparence, de traçabilité, d’accès non discriminatoire et de respect de l’environnement.
Afin de se familiariser avec cette réglementation il s’agit d’en comprendre la philosophie : l’Union Européenne propose une approche par les risques afin de classifier les différentes typologies d’IA. Suivez le guide ⬇️
Intelligence artificielle à risque inacceptable ⛔
Comme son nom l’indique, vous n’aurez tout simplement pas le droit de déployer de telles IA.
Il s’agit notamment d’interdire toute manipulation visant des publics sensibles. Comme utiliser le jouet d’un enfant pour exploiter ses biais cognitifs. *Bruit de chaise chez Mattel
Il s’agit notamment d’interdire toute manipulation visant des publics sensibles. Comme utiliser le jouet d’un enfant pour exploiter ses biais cognitifs. *Bruit de chaise chez Mattel
N’espérez pas non plus classer vos employés ou vos clients en fonction de leurs comportements ou de leurs croyances en leur attribuant un “score social.” À moins que vous souhaitiez lancer votre IA en Chine (mais ils ont de l’avance sur le sujet.)
En outre, tout système utilisant des données biométriques en temps réel à des fins d’identification sera proscrit. Des autorisations a posteriori pourront être délivrées au cas par cas, notamment pour des applications médicales.
Intelligence artificielle à risque élevé ⚠️
Les IA à risque élevé sont considérées comme pouvant toucher aux droits fondamentaux ou à la sécurité des personnes. Cette définition est encore assez floue et fait l’objet d’intense lobbying au parlement. Citons quelques exemples pour y voir plus clair :
Concrètement si votre IA est destinée à être déployée sur des produits sensibles comme la voiture, l’aviation, les ascenseurs, les dispositifs médicaux, etc. Elle sera considérée d’office comme “à risque élevé” et sa mise sur le marché devra être soumise à un régime d’approbation et de suivi strict en matière de transparence et de gouvernance.
Outre les produits, 8 domaines sensibles sont considérés comme “à risque élevé” et devront être hébergés sur une base de données de L’UE. Citons l’exemple de l’éducation, des infrastructures, de la gestion de la migration ou encore des services publics.
Concrètement si votre IA est destinée à être déployée sur des produits sensibles comme la voiture, l’aviation, les ascenseurs, les dispositifs médicaux, etc. Elle sera considérée d’office comme “à risque élevé” et sa mise sur le marché devra être soumise à un régime d’approbation et de suivi strict en matière de transparence et de gouvernance.
Outre les produits, 8 domaines sensibles sont considérés comme “à risque élevé” et devront être hébergés sur une base de données de L’UE. Citons l’exemple de l’éducation, des infrastructures, de la gestion de la migration ou encore des services publics.
Intelligence artificielle à risque limité 🟢
C’est un peu la catégorie “fourre-tout”. Elle nous intéresse particulièrement, car les IA génératives d’Open AI (ChatGPT), de Google (Bard) ou encore de Meta (Llama) sont classées dans cette catégorie de risque... pour l’instant.
Elles ne sont pas soumises à des exigences spécifiques à condition de respecter la loi, ce qui est déjà une gageure sur les questions de droits d’auteurs et de modération du contenu illégal. Elles ont également l’obligation de mentionner clairement que le contenu est généré par une IA.
Elles ne sont pas soumises à des exigences spécifiques à condition de respecter la loi, ce qui est déjà une gageure sur les questions de droits d’auteurs et de modération du contenu illégal. Elles ont également l’obligation de mentionner clairement que le contenu est généré par une IA.
Après l’accessibilité (RGAA) et la règlementation sur les données personnelles (RGPD) — il y a fort à parier que l’IA Act devienne le nouvel enjeu de mise en conformité des entreprises.
Noé Melon — Directeur de la CréationQu’en retenir pour votre stratégie d’utilisation de l’IA ?
Tout l’enjeu est de savoir dans quelle catégorie de risque se place l’IA que vous cherchez à déployer. Si vous avez un doute, voici un pense-bête non exhaustif :
⛔ Si vous souhaitez mettre en place une IA de surveillance à des fins discriminatoires ou de manipulation. Ne le faites pas.
⚠️ Si vous souhaitez développer une IA dans un domaine sensible comme l’éducation, la sécurité ou encore en lien avec les infrastructures et le transport : vous devrez passer une évaluation de conformité.
🟢 Si vous souhaitez créer votre propre réseau de neurones pour concurrencer ChatGPT (ou pour tester les limites de votre carte graphique) vous aurez une obligation de transparence sur la gouvernance et l’origine des données.
Si vous ne rentrez dans aucun de ces cas-là, l’IA ACT ne devrait vous imposer aucune obligation.
⛔ Si vous souhaitez mettre en place une IA de surveillance à des fins discriminatoires ou de manipulation. Ne le faites pas.
⚠️ Si vous souhaitez développer une IA dans un domaine sensible comme l’éducation, la sécurité ou encore en lien avec les infrastructures et le transport : vous devrez passer une évaluation de conformité.
🟢 Si vous souhaitez créer votre propre réseau de neurones pour concurrencer ChatGPT (ou pour tester les limites de votre carte graphique) vous aurez une obligation de transparence sur la gouvernance et l’origine des données.
Si vous ne rentrez dans aucun de ces cas-là, l’IA ACT ne devrait vous imposer aucune obligation.