top of page
bandeau.png

ADGREDIOR
et l'IA

Intelligence artificielle, IA générative et agents IA


Cadre d’information et positionnement d’ADGREDIOR


1. Préambule

Dans le cadre de sa politique d'amélioration permanente et en adéquation avec le référenciel QUALIOPI, ADGREDIOR intègre une information explicite sur l’intelligence artificielle dans ses formations et dans ses bilans de compétences afin de garantir la clarté de l’information délivrée au public, la qualité des prestations et la traçabilité des pratiques professionnelles. Cette démarche s’inscrit dans un contexte où les définitions de l’IA se stabilisent progressivement au niveau international, tandis que les usages professionnels se développent rapidement.

Sources et références directes

OCDE, Recommandation du Conseil sur l’intelligence artificielle : https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449


OCDE, Explanatory memorandum on the updated OECD definition of an AI system : https://www.oecd.org/en/publications/explanatory-memorandum-on-the-updated-oecd-definition-of-an-ai-system_623da898-en.html


OCDE, mise à jour des principes IA : https://www.oecd.org/en/about/news/press-releases/2024/05/oecd-updates-ai-principles-to-stay-abreast-of-rapid-technological-developments.html


2. Définition de l’intelligence artificielle (IA)

ADGREDIOR retient comme définition de référence celle d’un système machine qui, pour des objectifs explicites ou implicites, infère à partir des données qu’il reçoit la manière de produire des sorties telles que des prédictions, des contenus, des recommandations ou des décisions pouvant influencer un environnement physique ou virtuel. Cette base est cohérente avec le référentiel de l’OCDE, dont la définition a été révisée en 2023, puis diffusée comme point d’appui international.

Sources et références directes

OCDE, Recommandation du Conseil sur l’intelligence artificielle : https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449


OCDE, note explicative sur la définition mise à jour : https://www.oecd.org/en/publications/explanatory-memorandum-on-the-updated-oecd-definition-of-an-ai-system_623da898-en.html


OCDE, portail thématique IA : https://www.oecd.org/en/topics/artificial-intelligence.html


3. Définition de l’IA générative (IAG)

L’IA générative est une catégorie d’IA capable de produire des contenus synthétiques dérivés, notamment du texte, des images, de l’audio, de la vidéo ou d’autres contenus numériques, en reproduisant ou en émulent la structure et les caractéristiques des données d’entrée ou d’entraînement. Cette définition est cohérente avec le glossaire du NIST, qui constitue une source technique de référence.

Sources et références directes

NIST, Glossary, “Generative Artificial Intelligence” : https://csrc.nist.gov/glossary/term/generative_artificial_intelligence


NIST, publication SP 800-218A : https://csrc.nist.gov/news/2024/nist-publishes-sp-800-218a


4. Définition des IA agents ou agents IA

Le terme « agent IA » n’est pas encore totalement figé dans tous les textes normatifs. En revanche, l’OCDE constate en 2026 que les définitions existantes convergent autour de plusieurs caractéristiques récurrentes : poursuite d’un objectif, planification, usage d’outils, interaction avec un environnement et autonomie variable dans l’exécution d’actions. Pour ADGREDIOR, un agent IA peut donc être présenté comme un système d’IA capable non seulement de répondre, mais aussi d’organiser des étapes et d’agir pour atteindre un objectif donné.

Sources et références directes

OCDE, The agentic AI landscape and its conceptual foundations : https://www.oecd.org/en/publications/the-agentic-ai-landscape-and-its-conceptual-foundations_396cf758-en.html


OCDE, version PDF du même rapport : https://www.oecd.org/content/dam/oecd/en/publications/reports/2026/02/the-agentic-ai-landscape-and-its-conceptual-foundations_a9d4b451/396cf758-en.pdf


5. Distinction simple entre IA, IAG et agent IA

Pour un usage pédagogique et pour l’information du public, ADGREDIOR distingue les trois notions de la manière suivante :
L’IA analyse, classe, recommande ou prédit.
L’IAG génère du contenu.
L’agent IA enchaîne des actions ou des étapes pour atteindre un objectif.
Cette simplification est une reformulation pédagogique d’éléments tirés des référentiels OCDE et NIST ; elle constitue donc une synthèse explicative, et non une citation normative littérale.

Sources et références directes

OCDE, définition des systèmes d’IA : https://legalinstruments.oecd.org/en/instruments/oecd-legal-044


NIST, définition de l’IA générative : https://csrc.nist.gov/glossary/term/generative_artificial_intelligence


OCDE, agents IA : https://www.oecd.org/en/publications/the-agentic-ai-landscape-and-its-conceptual-foundations_396cf758-en.html


6. Évolution des définitions

Les définitions de l’IA ont évolué ces dernières années. Elles ne se limitent plus à l’idée ancienne d’une imitation de l’intelligence humaine ni au seul machine learning. Les textes récents mettent davantage l’accent sur l’inférence, les objectifs poursuivis, la variété des sorties produites et les effets possibles sur l’environnement. L’OCDE indique expressément que la définition a été révisée pour conserver sa pertinence technique et faciliter l’alignement avec d’autres cadres internationaux, y compris européens.

Sources et références directes

OCDE, note explicative sur la définition révisée : https://www.oecd.org/en/publications/explanatory-memorandum-on-the-updated-oecd-definition-of-an-ai-system_623da898-en.html


OCDE, Recommandation du Conseil sur l’IA : https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449


OCDE, communiqué sur la mise à jour des principes IA : https://www.oecd.org/en/about/news/press-releases/2024/05/oecd-updates-ai-principles-to-stay-abreast-of-rapid-technological-developments.html


7. Évolution liée à l’essor de l’IA générative

L’essor de l’IA générative a déplacé les usages de l’IA vers la production de textes, d’images, d’audio, de vidéo, de code et de synthèses conversationnelles. Les institutions publiques européennes ont intégré cette évolution dans le cadre réglementaire récent, notamment à travers les obligations de transparence applicables à certains systèmes génératifs et à certains contenus artificiels.

Sources et références directes

Commission européenne, transparency obligations under the AI Act : https://digital-strategy.ec.europa.eu/en/faqs/guidelines-and-code-practice-transparent-ai-systems


Commission européenne, GPAI models, questions and answers : https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers


Commission européenne, obligations des fournisseurs de GPAI : https://digital-strategy.ec.europa.eu/en/faqs/guidelines-obligations-general-purpose-ai-providers


8. Évolution liée aux agents IA

Le développement des agents IA marque une nouvelle étape, car la question n’est plus seulement « que génère le système ? », mais aussi « que fait-il ? ». L’OCDE relève que ce champ est en cours de structuration conceptuelle et qu’il appelle une attention particulière sur l’autonomie, l’usage d’outils et l’exécution d’actions.

Sources et références directes

OCDE, The agentic AI landscape and its conceptual foundations : https://www.oecd.org/en/publications/the-agentic-ai-landscape-and-its-conceptual-foundations_396cf758-en.html


OCDE, PDF : https://www.oecd.org/content/dam/oecd/en/publications/reports/2026/02/the-agentic-ai-landscape-and-its-conceptual-foundations_a9d4b451/396cf758-en.pdf


9. Mise en garde sur les hallucinations et erreurs factuelles

Les outils d’IA générative peuvent produire des contenus plausibles mais inexacts, incomplets ou trompeurs. La qualité de la formulation ne constitue pas une garantie d’exactitude. Pour cette raison, tout contenu sensible, notamment juridique, réglementaire, RH, pédagogique, médical ou stratégique, doit être vérifié à partir de sources fiables et, lorsque nécessaire, officielles. Les autorités de gouvernance de l’IA insistent sur la confiance, l’intégrité du cycle de vie des systèmes et la nécessité de réduire les risques.

Sources et références directes

UNESCO, Recommendation on the Ethics of Artificial Intelligence : https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence


UNESCO, page de présentation de la recommandation : https://www.unesco.org/en/artificial-intelligence/recommendation-ethics


CNIL, recommandations sur le développement des systèmes d’IA : https://www.cnil.fr/fr/developpement-des-systemes-dia-les-recommandations-de-la-cnil-pour-respecter-le-rgpd


10. Mise en garde sur les biais et discriminations

Les systèmes d’IA peuvent reproduire, amplifier ou masquer des biais présents dans les données, les méthodes de conception ou les conditions d’usage. L’UNESCO fait de la transparence, de l’équité et de la supervision humaine des principes centraux de son cadre éthique. La CNIL rappelle également que le développement de systèmes d’IA doit rester compatible avec les droits des personnes.

Sources et références directes

UNESCO, Recommendation on the Ethics of Artificial Intelligence : https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence


UNESCO, page de référence sur l’éthique de l’IA : https://www.unesco.org/en/artificial-intelligence/recommendation-ethics


CNIL, droits des personnes dans le contexte de l’IA : https://www.cnil.fr/fr/ia-respecter-lexercice-des-droits-des-personnes


11. Mise en garde sur les données personnelles et la confidentialité

L’usage d’un outil d’IA peut impliquer un traitement de données personnelles. Lorsque des données personnelles sont utilisées pour développer ou exploiter certains systèmes d’IA, le RGPD et, selon les cas, le règlement européen sur l’IA peuvent s’appliquer simultanément. La CNIL souligne aussi le risque spécifique de « régurgitation », c’est-à-dire la génération de données très proches des données d’entraînement, ce qui justifie une vigilance renforcée sur les données sensibles ou confidentielles.

Sources et références directes

CNIL, recommandations pour respecter le RGPD dans le développement des systèmes d’IA : https://www.cnil.fr/fr/developpement-des-systemes-dia-les-recommandations-de-la-cnil-pour-respecter-le-rgpd


CNIL, définition de la régurgitation : https://www.cnil.fr/fr/definition/regurgitation


CNIL, liste de vérification IA : https://www.cnil.fr/sites/default/files/2025-07/ia_liste_de_verification.pdf


12. Mise en garde sur la propriété intellectuelle et les droits d’auteur

Les contenus générés par IA soulèvent des questions juridiques importantes en matière de propriété intellectuelle. La WIPO rappelle que la GenAI peut créer des risques d’atteinte aux droits de propriété intellectuelle, notamment lorsque des contenus générés imitent des œuvres, des voix, des styles ou des éléments préexistants. Elle souligne aussi que les questions de copyright liées aux données d’entraînement, aux sorties générées et aux responsabilités juridiques ne sont pas harmonisées entre les juridictions. Du côté européen, la Commission rappelle que les fournisseurs de modèles d’IA à usage général sont soumis à des obligations publiques liées notamment au copyright.

Sources et références directes

WIPO, Generative AI: Navigating intellectual property : https://www.wipo.int/publications/en/details.jsp?id=4713


WIPO, fiche PDF : https://www.wipo.int/documents/d/frontier-technologies/docs-en-pdf-generative-ai-factsheet.pdf


WIPO, rôle de la GenAI et questions de copyright : https://www.wipo.int/web-publications/patent-landscape-report-generative-artificial-intelligence-genai/en/6-further-considerations.html


Commission européenne, obligations copyright pour les fournisseurs de GPAI : https://digital-strategy.ec.europa.eu/en/faqs/guidelines-obligations-general-purpose-ai-providers


Commission européenne, code de pratique GPAI : https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai


13. Mise en garde sur la transparence des contenus générés

Le cadre européen prévoit des obligations de transparence applicables à certains systèmes et contenus générés par IA, notamment afin de réduire les risques de tromperie, d’usurpation, de désinformation et de manipulation. Le principe est que les personnes doivent pouvoir savoir, dans certains cas prévus par les textes, qu’elles interagissent avec une IA ou qu’elles sont exposées à un contenu artificiel.

Sources et références directes

Commission européenne, Guidelines and Code of Practice on transparent AI systems : https://digital-strategy.ec.europa.eu/en/faqs/guidelines-and-code-practice-transparent-ai-systems


Commission européenne, General-Purpose AI Models in the AI Act, Questions & Answers : https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers


14. Mise en garde sur la surconfiance et la supervision humaine

Le risque principal n’est pas seulement l’erreur technique du système, mais aussi la délégation excessive du jugement humain. Les textes éthiques et institutionnels insistent sur la supervision humaine, l’intégrité, la transparence et la maîtrise des risques. ADGREDIOR considère donc que tout usage professionnel de l’IA doit rester sous contrôle humain effectif.

Sources et références directes

UNESCO, Recommendation on the Ethics of Artificial Intelligence : https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence


UNESCO, synthèse sur l’éthique de l’IA : https://www.unesco.org/en/artificial-intelligence/recommendation-ethics


OCDE, mise à jour des principes IA : https://www.oecd.org/en/about/news/press-releases/2024/05/oecd-updates-ai-principles-to-stay-abreast-of-rapid-technological-developments.html


15. Principe fondamental retenu par ADGREDIOR

ADGREDIOR affirme que l’intelligence artificielle est un outil et non une finalité. Elle peut assister la recherche documentaire, la structuration d’idées, la reformulation, la synthèse ou la préparation de supports. En revanche, elle ne remplace ni le discernement humain, ni l’expertise métier, ni la responsabilité juridique, ni la qualité de la relation d’accompagnement. Cette position est cohérente avec les cadres internationaux de confiance et de supervision humaine.

Sources et références directes

OCDE, Recommandation sur l’IA : https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449


UNESCO, Recommendation on the Ethics of Artificial Intelligence : https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence


CNIL, recommandations IA et RGPD : https://www.cnil.fr/fr/developpement-des-systemes-dia-les-recommandations-de-la-cnil-pour-respecter-le-rgpd


16. Déclaration d’ADGREDIOR sur son rapport à l’IA et son utilisation au quotidien

ADGREDIOR utilise certains outils d’intelligence artificielle comme outils d’appui au travail intellectuel, documentaire, pédagogique et organisationnel. Ces usages peuvent concerner la recherche d’informations, la préparation de supports, la reformulation, la synthèse ou l’exploration de pistes de travail. Aucun contenu généré par IA n’est utilisé sans relecture critique, sans contrôle humain et, lorsque cela est nécessaire, sans vérification par confrontation à des sources fiables ou officielles. ADGREDIOR veille à ce que l’usage de l’IA reste compatible avec les exigences de confidentialité, de protection des données, de propriété intellectuelle, de qualité pédagogique et de responsabilité professionnelle. Cette déclaration constitue un engagement interne d’ADGREDIOR ; elle s’appuie sur les principes de transparence, de supervision humaine et de réduction des risques décrits dans les textes de référence.

Sources et références directes

CNIL, recommandations sur le développement des systèmes d’IA : https://www.cnil.fr/fr/developpement-des-systemes-dia-les-recommandations-de-la-cnil-pour-respecter-le-rgpd


CNIL, liste de vérification IA : https://www.cnil.fr/sites/default/files/2025-07/ia_liste_de_verification.pdf


UNESCO, Recommendation on the Ethics of Artificial Intelligence : https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence


Commission européenne, transparence des systèmes IA : https://digital-strategy.ec.europa.eu/en/faqs/guidelines-and-code-practice-transparent-ai-systems


17. Application dans les formations ADGREDIOR

Dans ses formations, ADGREDIOR peut présenter les notions d’IA, d’IAG et d’agents IA, expliquer l’évolution des définitions, exposer les opportunités d’usage et rappeler systématiquement les limites, les biais, les risques de confidentialité et les enjeux de propriété intellectuelle. L’objectif pédagogique est de développer un usage informé, critique et responsable de ces outils. Cette logique est cohérente avec les principes internationaux de fiabilité, de transparence et de supervision humaine.

Sources et références directes

OCDE, mise à jour des principes IA : https://www.oecd.org/en/about/news/press-releases/2024/05/oecd-updates-ai-principles-to-stay-abreast-of-rapid-technological-developments.html


UNESCO, Recommendation on the Ethics of Artificial Intelligence : https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence


CNIL, recommandations IA et RGPD : https://www.cnil.fr/fr/developpement-des-systemes-dia-les-recommandations-de-la-cnil-pour-respecter-le-rgpd


18. Application dans les bilans de compétences ADGREDIOR

Dans les bilans de compétences, l’IA peut être utilisée comme outil d’appui à la structuration de l’information, à la synthèse, à l’exploration de pistes métiers ou à la préparation de documents de travail. En revanche, aucune conclusion d’orientation ou d’évaluation personnelle ne doit reposer exclusivement sur un système d’IA. L’analyse reste placée sous la responsabilité du consultant et la décision appartient au bénéficiaire. Cette prudence est cohérente avec les principes de supervision humaine, de respect des droits et de réduction des biais.

Sources et références directes

UNESCO, Recommendation on the Ethics of Artificial Intelligence : https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence


CNIL, exercice des droits des personnes dans le contexte IA : https://www.cnil.fr/fr/ia-respecter-lexercice-des-droits-des-personnes


CNIL, recommandations sur le développement des systèmes d’IA : https://www.cnil.fr/fr/developpement-des-systemes-dia-les-recommandations-de-la-cnil-pour-respecter-le-rgpd


19. Conclusion

ADGREDIOR adopte une approche raisonnée de l’intelligence artificielle. Cette approche repose sur cinq principes : information claire, usage utile, contrôle humain, vigilance juridique et protection des personnes. L’IA peut constituer un outil de travail pertinent, mais elle ne remplace ni la compétence professionnelle, ni la responsabilité, ni l’accompagnement humain.

Sources et références directes

OCDE, Recommandation sur l’IA : https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449


UNESCO, Recommendation on the Ethics of Artificial Intelligence : https://www.unesco.org/en/legal-affairs/recommendation-ethics-artificial-intelligence


CNIL, recommandations IA et RGPD : https://www.cnil.fr/fr/developpement-des-systemes-dia-les-recommandations-de-la-cnil-pour-respecter-le-rgpd

 

Charte ADGREDIOR et Intelligence Artificielle

Mise à jour : 20 avril 2026

Mention relative à l’élaboration du document

La présente charte a été élaborée avec l’assistance d’un outil d’intelligence artificielle conversationnelle, de type ChatGPT reposant sur un modèle de la famille GPT-5.

À la date de rédaction, l’assistant mobilisé dans le cadre de ce travail correspond à une version de type « GPT-5.4 Thinking », utilisée comme outil d’appui à la structuration, à la rédaction et à la formalisation du contenu.

Cette utilisation constitue un exemple concret d’un usage raisonné, encadré et sous contrôle humain strict de l’intelligence artificielle.

LOGO ADGREDIOR

8 rue Cadet, 75009 PARIS

 Tél: +33 6-50-27-48-80

L7 Cadet

L8 et 9 Grands Boulevards ou Richelieu-Drout

image_2025-03-23_165703701.png
Logo adgredior
ligne violette test adgredior_edited.png

ADGREDIOR

MENTIONS LÉGALES

Entreprise unipersonnelle à responsabilité limitée
 au capital social de 1000 euros

Siège social: 8 rue Cadet, 75009 Paris

Tél. : +33 6 50 27 48 80

cecile.fray.charlot@adgredior.fr

Numéro SIREN : 921 528 303

Organisme de Formation enregistré auprès du Préfet de la région Ile-de-France sous le numéro de déclaration d’activité :11756662475

Numéro TVA INTRACOMMUNAUTAIRE : FR46 921528303

Code NAF / APE : 7022Z

(conseil pour les affaires et autres conseils de gestion)

Directrice de la publication: Cécile Fray Charlot

Hébergeur: Wix Online Platform Limited

1 Grant’s Row, Dublin 2 D02HX96, Ireland. D02HX96 Dublin

Crédits photos de Cécile Fray-Charlot : 

Photographe de portraits 
Philippe Dureuil

2026 © ADGREDIOR.

Tous droits réservés.

bottom of page