fr
contact
BACK TO THE LIST

[Avis d’expert] AI Act : et l’IA générative dans tout ça ?

9 octobre 2024

L’IA Act et l’IA Générative : ce qu’il faut retenir

Depuis maintenant plusieurs mois, l’AI Act s’est imposé comme LE cadre réglementaire incontournable pour toutes les entreprises exploitant, de près ou de loin, des systèmes d’intelligence artificielle. Ce règlement européen, qui vise à encadrer et sécuriser l’usage de l’IA, impose aux organisations des normes strictes en termes de transparence, de gouvernance des données et des algorithme de gestion des risques.

Évaluer les IA génératives est bien plus complexe que pour les IA traditionnelles, car elles s’appuient sur des modèles très larges et autonomes, difficiles à prédire et à contrôler. Les risques de génération de contenu biaisé, trompeur ou non-éthique sont accrus, ce qui appelle à des mesures de contrôle plus strictes et des exigences accrues en termes de transparence. Selon une étude de Gartner, 15 % des organisations répondantes déclarent par ailleurs ne pas avoir encore formalisé de gouvernance et de gestion des risques associés à leurs IA.

Ce sujet reste encore peu traité, au-delà des approches classiques centrées sur la gestion des risques, c’est pourquoi nous vous proposons une synthèse en quelques points clés des enjeux spécifiques liés à l’application de l’AI Act aux IA génératives, à considérer pour vous aider à anticiper ces défis :

 

  • IA Générative (IA-Gen) vs IA à Usage Général (GPAI) : L’AI Act définit un système GPAI comme un « système d’IA basé sur un modèle d’IA à usage général et capable de servir différentes finalités, tant pour une utilisation directe que pour une intégration dans d’autres systèmes d’IA »,Les IA-Gen, basées sur ces modèles polyvalents, font donc partie des systèmes GPAI.

 

  • L’IA Générative n’est pas interdite par l’AI Act : Contrairement aux idées reçues, l’AI Act ne restreint pas l’utilisation des IA-Gen. Au contraire, il vise à promouvoir l’innovation, tout en protégeant les citoyens et en prévenant les abus potentiels (propriété intellectuelle notamment).

 

  • Une approche basée sur les risques
    Le cadre réglementaire du AI Act est structuré autour d’une approche par les risques, classant les systèmes d’IA de « risques minimaux » à « risques inacceptables ». Cette approche s’applique également aux GPAI. Les fournisseurs de modèles d’IA à usage général doivent permettre à leurs clients de respecter les exigences spécifiques à leur niveau de risque.

 

  • Exigences spécifiques pour les GPAI:
    L’ AI Act consacre un chapitre entier aux GPAI, imposant aux fournisseurs plusieurs obligations :

    • Rédiger une documentation technique détaillant les processus de formation, d’essai et les résultats des évaluations.
    • Fournir aux intégrateurs des informations claires sur les capacités et limites des modèles GPAI pour assurer leur conformité.
    • Respecter la directive sur le droit d’auteur.
    • Publier un résumé détaillé du contenu utilisé pour la formation du modèle GPAI.

 

  • GPAI à Risque Systémique
    Les modèles GPAI deviennent « à risque systémique » lorsqu’ils dépassent un certain seuil de capacité de calcul, fixé à 1025 FLOP. Pour des détails supplémentaires, l’article 51 et l’Annexe XIII de l’AI Act précisent les critères de désignation.

 

  • Exigences supplémentaires pour les GPAI à risque systémique
    Les fournisseurs de GPAI à risque systémique doivent :

    • Réaliser des tests contradictoires pour identifier et atténuer ces risques
    • Documenter et signaler tout incident grave à l’Office AI et aux autorités compétentes
    • Assurer une protection adéquate en matière de cybersécurité

 

  • Code de bonnes pratiques : En attendant la normalisation harmonisée prévue d’ici le 2 août 2025, les fournisseurs de GPAI peuvent volontairement adhérer à un code de bonnes pratiques. Le respect de ce code ou des normes harmonisées assure une présomption de conformité

 

Si n’est pas encore le cas, ne tardez pas à analyser vos systèmes d’IA pour identifier les actions correctives à mettre en place pour une mise en conformité avec l’IA Act.
Au-delà d’un sujet de conformité, ces pratiques permettent aussi de fiabiliser les IA utilisées et de mieux en saisir les risques ou les limites. C’est donc aussi un bénéfice métier qu’il est intéressant de viser à travers cette démarche.

Vous ne savez pas par où commencer ?

Nous pouvons vous aider dans cette démarche à plusieurs niveaux : acculturation, accompagnement à la certification, LNE, mise en place d’une méthodologie d’IA de Confiance…

Axionable a déjà accompagné plus de 10 clients dans leur démarche d’IA Responsable (Crédit Agricole, Colas, Orange, Arkéa, Chanel, Suez, La Mutuelle Générale, Groupama…) et est la première entreprise à avoir obtenu la certification IA du LNE et le Label responsable et de confiance de LabelIA.

Concocté avec amour par :
José Sanchez

Articles concoctés avec les mêmes ingredients

16 septembre 2025

[Avis d’expert] 🔒 IA de confiance : et si l’AI Act (RIA) devenait votre meilleur avantage compétitif grâce aux certifications ?

Le Règlement Européen sur l’IA (AI Act / RIA) entre progressivement en vigueur entre 2024 et 2027. Plus qu’un texte technique, il impose un cadre réglementaire exigeant et progressif, qui va bien au-delà de simples bonnes pratiques méthodologiques en s’appuyant sur différents piliers : gouvernance et stratégie IA, méthodologie et pratique de développement. Août 2024 […]

José Sanchez

[REPLAY] 🎬 🎙️ Webinar – Assurez la pérennité de votre entreprise en alliant plan de décarbonation et performance financière

[Webinar ] Assurez la pérennité de votre entreprise en alliant plan de décarbonation et performance financière🌱💵   « Chaque action de décarbonation doit être quantifiée en termes d’impact carbone ET d’impact financier pour éclairer la prise de décision. » 💬 Merci à Yannick Bottino, Manager Sustainability & Climate Change chez Axionable, Renaud Bettin, VP Climate Action chez […]

Yannick Bottino
18 mars 2025

#AxionableSuccessStories : Circet – Mesure d’empreinte GES et collecte de données ESG

Circet – Mesure d’empreinte GES scope 1 à 3 et collecte de données ESG Acteur mondial des services d’infrastructures télécoms et énergie, Circet s’est appuyé sur Axionable pour piloter son empreinte carbone de 2023 dans ses 13 pays d’implantation. Le Carbon Management System SWEEP a été choisi pour automatiser la mesure et le suivi de leur […]

Yannick Bottino
11 mars 2025

[Avis d’expert] 🛠️ Comment choisir un LLM (Large Language Model) de Confiance ?

Crédit photo : Unplash   La récente médiatisation de DeepSeek-R1, le nouveau modèle à chaîne de raisonnement développé par DeepSeek, a fait l’effet d’une onde de choc aux États-Unis de par ses résultats très prometteurs, rivalisant avec les champions américains (OpenAI, Anthropic, Claude notamment). Rapidement, les modèles de DeepSeek se sont vus reprocher des biais […]

Lucas SCELLOS
Paris
13 rue des Arquebusiers
75003 Paris
contact Contact