fr
contact
BACK TO THE LIST

[Avis d’expert] AI Act : et l’IA générative dans tout ça ?

9 octobre 2024

L’IA Act et l’IA Générative : ce qu’il faut retenir

Depuis maintenant plusieurs mois, l’AI Act s’est imposé comme LE cadre réglementaire incontournable pour toutes les entreprises exploitant, de près ou de loin, des systèmes d’intelligence artificielle. Ce règlement européen, qui vise à encadrer et sécuriser l’usage de l’IA, impose aux organisations des normes strictes en termes de transparence, de gouvernance des données et des algorithme de gestion des risques.

Évaluer les IA génératives est bien plus complexe que pour les IA traditionnelles, car elles s’appuient sur des modèles très larges et autonomes, difficiles à prédire et à contrôler. Les risques de génération de contenu biaisé, trompeur ou non-éthique sont accrus, ce qui appelle à des mesures de contrôle plus strictes et des exigences accrues en termes de transparence. Selon une étude de Gartner, 15 % des organisations répondantes déclarent par ailleurs ne pas avoir encore formalisé de gouvernance et de gestion des risques associés à leurs IA.

Ce sujet reste encore peu traité, au-delà des approches classiques centrées sur la gestion des risques, c’est pourquoi nous vous proposons une synthèse en quelques points clés des enjeux spécifiques liés à l’application de l’AI Act aux IA génératives, à considérer pour vous aider à anticiper ces défis :

 

  • IA Générative (IA-Gen) vs IA à Usage Général (GPAI) : L’AI Act définit un système GPAI comme un « système d’IA basé sur un modèle d’IA à usage général et capable de servir différentes finalités, tant pour une utilisation directe que pour une intégration dans d’autres systèmes d’IA »,Les IA-Gen, basées sur ces modèles polyvalents, font donc partie des systèmes GPAI.

 

  • L’IA Générative n’est pas interdite par l’AI Act : Contrairement aux idées reçues, l’AI Act ne restreint pas l’utilisation des IA-Gen. Au contraire, il vise à promouvoir l’innovation, tout en protégeant les citoyens et en prévenant les abus potentiels (propriété intellectuelle notamment).

 

  • Une approche basée sur les risques
    Le cadre réglementaire du AI Act est structuré autour d’une approche par les risques, classant les systèmes d’IA de « risques minimaux » à « risques inacceptables ». Cette approche s’applique également aux GPAI. Les fournisseurs de modèles d’IA à usage général doivent permettre à leurs clients de respecter les exigences spécifiques à leur niveau de risque.

 

  • Exigences spécifiques pour les GPAI:
    L’ AI Act consacre un chapitre entier aux GPAI, imposant aux fournisseurs plusieurs obligations :

    • Rédiger une documentation technique détaillant les processus de formation, d’essai et les résultats des évaluations.
    • Fournir aux intégrateurs des informations claires sur les capacités et limites des modèles GPAI pour assurer leur conformité.
    • Respecter la directive sur le droit d’auteur.
    • Publier un résumé détaillé du contenu utilisé pour la formation du modèle GPAI.

 

  • GPAI à Risque Systémique
    Les modèles GPAI deviennent « à risque systémique » lorsqu’ils dépassent un certain seuil de capacité de calcul, fixé à 1025 FLOP. Pour des détails supplémentaires, l’article 51 et l’Annexe XIII de l’AI Act précisent les critères de désignation.

 

  • Exigences supplémentaires pour les GPAI à risque systémique
    Les fournisseurs de GPAI à risque systémique doivent :

    • Réaliser des tests contradictoires pour identifier et atténuer ces risques
    • Documenter et signaler tout incident grave à l’Office AI et aux autorités compétentes
    • Assurer une protection adéquate en matière de cybersécurité

 

  • Code de bonnes pratiques : En attendant la normalisation harmonisée prévue d’ici le 2 août 2025, les fournisseurs de GPAI peuvent volontairement adhérer à un code de bonnes pratiques. Le respect de ce code ou des normes harmonisées assure une présomption de conformité

 

Si n’est pas encore le cas, ne tardez pas à analyser vos systèmes d’IA pour identifier les actions correctives à mettre en place pour une mise en conformité avec l’IA Act.
Au-delà d’un sujet de conformité, ces pratiques permettent aussi de fiabiliser les IA utilisées et de mieux en saisir les risques ou les limites. C’est donc aussi un bénéfice métier qu’il est intéressant de viser à travers cette démarche.

Vous ne savez pas par où commencer ?

Nous pouvons vous aider dans cette démarche à plusieurs niveaux : acculturation, accompagnement à la certification, LNE, mise en place d’une méthodologie d’IA de Confiance…

Axionable a déjà accompagné plus de 10 clients dans leur démarche d’IA Responsable (Crédit Agricole, Colas, Orange, Arkéa, Chanel, Suez, La Mutuelle Générale, Groupama…) et est la première entreprise à avoir obtenu la certification IA du LNE et le Label responsable et de confiance de LabelIA.

Concocté avec amour par :
José Sanchez

Articles concoctés avec les mêmes ingredients

30 janvier 2025

#AxionableSuccessStories : SAUR risques de transition

Identification des risques et opportunités de transition climatique SAUR, acteur majeur du secteur de l’eau en France et à l’international, a choisi de renforcer son analyse des risques et opportunités liés à la transition climatique. Pour cela, l’entreprise s’est appuyée sur l’expertise d’Axionable afin de personnaliser et tester, à travers un cas pilote, un outil […]

Paul LAVILLE
11 décembre 2024

[Avis d’expert] 🌍 La maîtrise des données géospatiales et climatiques : un atout stratégique pour votre entreprise

Dans un monde économique en mutation rapide, le changement climatique n’est plus une menace lointaine, mais un paramètre stratégique immédiat. Chaque décision d’investissement, chaque évaluation de risque devient un exercice de haute précision où la donnée géospatiale se transforme en véritable boussole stratégique. Exploiter ces données géospatiales relève pourtant du parcours du combattant. La complexité […]

Paul-Etienne Mallet
3 décembre 2024

[REPLAY] Produrable 🎥 CSRD : quels outils, data et quelles IA pour réussir sa stratégie ESG et sa mise en conformité 📈⚙️

[Conférence] CSRD : quels outils, data et quelles IA pour réussir sa stratégie ESG et sa mise en conformité ? 📈⚙️   « Les données ESG sont la boussole de la croissance et de la durabilité de demain pour les entreprises. S’outiller, comme le fait ADEO avec l’accompagnement d’Axionable et la solution SWEEP permet de mieux […]

Gwendal BIHAN
26 novembre 2024

[REPLAY] Produrable 🎙️Finance Durable : comment accélérer grâce à l’IA (générative) ? 🏦🌱

[Atelier] Finance Durable : comment accélérer grâce à l’IA (générative) ? 🏦🌱 « Il ne faut pas perdre de vue que ce sont avant tout des projets de data, aujourd’hui, les entreprises le plus avancées en termes de cycle d’analyse ESG et de mise en action l’ont bien compris et sont déjà en capacité de verbaliser […]

Guillaume Bodiou
Paris
13 rue des Arquebusiers
75003 Paris
contact Contact