top of page

Les règlementations en matière d'intelligence artificielle s'intensifient pour les entreprises

Entré en vigueur le 1er août 2024, l'AI Act suit une mise en application progressive. Le 2 février 2025, les systèmes d’intelligence artificielle classés comme à risque inacceptable ont été interdits.

Graphique représentant l'intensité du risque vis-à-vis de la législation de l'AI act en matière d'intelligence artificielle

Cette fois, à partir du 2 août 2025, la deuxième vague sera focalisée sur la mise en place des autorités compétentes nationales mais aussi sur les obligations de gouvernances des modèles d'IA à usage général (GPAI).


Qu'est-ce qu'un GPAI ?

Selon le texte adopté par le Parlement Européen, un GPAI est un modèle d'IA pouvant être "utilisé et adapté à de nombreuses applications pour lesquelles il n'a pas été conçu". C'est un modèle polyvalent qui peut servir de base à d'autres systèmes d'IA développés par des tiers. Quelques exemples parlant sont GPT-4, Claude ou encore Gemini.


Ces modèles peuvent effectuer de nombreuses tâches et peuvent présenter des risques systémiques s'ils sont très performants ou largement utilisés. Pour garantir une IA sûre et fiable, la loi impose des règles aux fournisseurs de ces modèles, incluant la transparence, l'évaluation et l'atténuation des risques potentiels ainsi que le respect du droit d'auteur.


Ce qui change le 2 août 2025


A. Nouvelles obligations pour les GPAI

Les fournisseurs de modèles GPAI devront procurer une documentation détaillée sur leurs modèles, leurs caractéristiques, capacités et limites. Cette documentation doit être transmise à l’Office européen de l’IA et aux autorités nationales compétentes.

Les obligations comprennent également l'obligation d'application de règles de transparence sur l’utilisation des données protégées par le droit d’auteur pour l’entraînement des modèles.


Un code de bonnes pratiques, développé avec l’industrie et supervisé par l’Office européen de l’IA, doit servir de fil directeur pour la conformité des fournisseurs de GPAI. Ce code précise comment respecter les obligations de transparence et de gestion des risques systémiques.


B. Mise en place des autorités de supervision

A partir de cette date, l'Office européen de l'IA devient pleinement opérationnel pour superviser, appliquer et faire respecter les obligations liées aux modèles GPAI en coordination avec les états membres.

Les règles de gouvernance et obligation liées aux modèles GPAI seront désormais accompagnées et susceptibles de sanction en cas de non-conformité à l'exception des amendes pour les fournisseurs de GPAI qui, elles, entreront en application plus tard.


Qu'est-ce que ça change concrètement pour les PME ?

Même si vous ne développez pas vous-même de modèles d’IA, vous êtes très probablement utilisateur ou intégrateur de GPAI (via des API comme ChatGPT, Claude, Gemini, etc.).


À partir du 2 août 2025, vous devrez être capable de démontrer une certaine vigilance : d’où vient le modèle que vous utilisez ? Est-il conforme ? A-t-il été entraîné légalement ? Quelles sont ses données d'entrainement ?


L’AI Act responsabilise toute la chaîne d'utilisation de l'IA, ainsi, vos choix technologiques devront être documentés, traçables et explicables. Vous devrez également exiger de vos fournisseurs de solutions IA la documentation technique et une transparence sur la conception de la solution que vous utilisez.


Adopter une posture proactive aujourd’hui, c’est faire le choix d’une IA maîtrisée, responsable, et au service de vos ambitions.



Photo de Guillaume Rigaux, Technology Adoption Manager au MIC

Guillaume Rigaux, Technology Adoption Manager, MIC

コメント


bottom of page