Règlement sur l'intelligence artificielle
Ce règlement, présenté en 2021, encadre les systèmes d'IA en fonction de leur niveau de risques : pour ceux dont le niveau est faible, comme les chatbots, il prévoit des obligations de transparence ; pour ceux à « haut risque », il prévoit des exigences plus importantes avant d'obtenir le marquage « CE » et enfin, il interdit les systèmes qui présentent des risques inacceptables, comme les applications de notation sociale. La version finale du règlement s'attaque également aux à l'IA à usage général, sachant que les modèles les plus puissants - dits « systémiques » - doivent répondre à davantage d'exigences. Le texte crée aussi le bureau de l’IA, un nouvel organe visant à s’assurer que l’UE supervise de manière cohérente les modèles à usage général. En France, l’enjeu porte sur la désignation d’un point de contact unique parmi les multiples autorités de surveillance du marché, qui devra veiller sur l’application du règlement au niveau national. La Cnil est sur les rangs, malgré les réticences du secteur économique et de Bercy.
Où en sommes-nous ?
Un accord politique a été trouvé en décembre 2023 et il est en phase d'approbation. Le règlement entrera en application deux ans après son entrée en vigueur (donc en 2026), à l’exception de certaines dispositions particulières. Les regards sont tournés vers le bureau de l’IA, qui doit être mis en place d’ici mai 2024 en théorie, le début d’année prochaine en ce qui concerne les équipes. D’ici février 2025, le nouvel organe devra produire plusieurs codes de bonnes pratiques et des lignes directrices.