La gouvernance globale de l’intelligence artificielle

Cadres juridiques, acteurs et enjeux géopolitiques

Formation avancée sur la gouvernance globale de l’intelligence artificielle, fondée sur une analyse juridique et multilatérale des cadres internationaux. Elle examine les acteurs, normes et enjeux géopolitiques de l’IA .

Présentation

Cette formation est directement issue de l’ouvrage : La gouvernance globale de l’intelligence artificielle : enjeux, acteurs et perspectives et en suit rigoureusement la structure et la logique analytique. Elle s’inscrit dans un contexte marqué par l’essor rapide de l’intelligence artificielle et par la multiplication des initiatives normatives, éthiques et politiques visant à en encadrer les usages à l’échelle nationale, régionale et internationale. Face à la fragmentation des cadres existants et aux tensions géopolitiques qu’elle suscite, la formation propose une lecture structurée et critique des dynamiques contemporaines de gouvernance de l’IA.

L’approche pédagogique est à la fois interdisciplinaire et progressive, mobilisant le droit international, les relations internationales, l’éthique des technologies et l’analyse des politiques publiques. Elle repose sur une articulation constante entre apports théoriques, analyse de documents officiels (résolutions, rapports, recommandations, stratégies nationales), études de cas concrets et discussions collectives. Une attention particulière est portée aux organisations internationales (ONU, UNESCO, OCDE, Conseil de l’Europe), aux forums plurilatéraux (G7, G20) ainsi qu’aux enjeux spécifiques du Sud global et de la justice technologique.

Le déroulement de la formation suit le plan du livre, en modules successifs : introduction aux fondements et aux typologies de l’IA ; émergence des enjeux éthiques et juridiques ; construction des cadres de gouvernance mondiale ; rôle des États, des organisations internationales et des acteurs privés ; implications géopolitiques et sécuritaires, notamment dans le domaine militaire ; usages de l’IA pour le développement durable ; et perspectives futures de régulation. Chaque module combine des exposés structurés, des analyses guidées de textes de référence et des exercices d’application, permettant aux participant·e·s d’acquérir à la fois des connaissances solides et des outils analytiques transférables à leurs contextes professionnels ou académiques.

Période de la formation

6 semaines

Date de début

23 avril 2026

Domaine de formation

Communication, médias et société, Technologies de l’information et du numérique

Reconnaissance

Attestation de réussite, Certificat numérique

Offert par :

CREDIA, INUFOCAD, IUAC

Cette formation propose une analyse approfondie de la gouvernance de l’intelligence artificielle aux niveaux mondial, régional et national. Elle examine les cadres juridiques et normatifs, les dynamiques multilatérales et les stratégies publiques, tout en accordant une attention particulière au rôle croissant des acteurs non étatiques (entreprises technologiques, société civile, milieux académiques et think tanks) dans la régulation de l’IA.

Objectifs de la formation :

  • Comprendre les fondements techniques, éthiques, juridiques et politiques de l’intelligence artificielle.
  • Analyser les cadres de gouvernance de l’IA aux niveaux international, régional et national.
  • Identifier le rôle des organisations internationales, des États et des acteurs non étatiques dans la régulation de l’IA.
  • Évaluer les enjeux géopolitiques, sécuritaires et militaires liés au développement de l’IA.
  • Appréhender les implications de l’IA pour le développement durable et la justice technologique, notamment dans les pays du Sud.
  • Maîtriser l’analyse critique de documents normatifs, stratégiques et politiques relatifs à la gouvernance de l’IA.
  • Développer une capacité d’argumentation et de positionnement éclairé sur les débats contemporains de la gouvernance de l’intelligence artificielle.

Module 1 – Introduction générale à l’intelligence artificielle

  • Définitions, concepts clés et typologies de l’IA
  • Brève histoire de l’IA et principales ruptures technologiques
  • Promesses, risques et enjeux globaux de l’IA
  • Clarification des notions d’IA faible, IA générative, systèmes autonomes

Module 2 – Fondements techniques et économiques de l’IA

  • Fonctionnement général des systèmes d’IA
  • Modèles d’apprentissage automatique et modèles fondamentaux
  • Acteurs économiques de l’IA et chaînes de valeur
  • Enjeux liés aux données, aux infrastructures et à l’énergie

Module 3 – L’IA à l’agenda des Nations Unies

  • Entrée progressive de l’IA dans les débats multilatéraux
  • Analyse des débats du Conseil de sécurité des Nations Unies (2023 et 2024)
  • Rôle de l’Assemblée générale et du Secrétaire général
  • Sécurité internationale, paix et stabilité mondiale

Module 4 – Éthique, droits humains et normes globales

  • Principes éthiques de l’IA (droits humains, équité, transparence)
  • Recommandation de l’UNESCO sur l’éthique de l’IA
  • Protection de la vie privée, biais algorithmiques et discrimination
  • Responsabilité, redevabilité et confiance dans les systèmes d’IA

Module 5 – Gouvernance mondiale et droit souple de l’IA

  • Notions de gouvernance globale, droit dur et droit souple
  • Rôle de l’OCDE, du G7, du G20 et d’autres forums plurilatéraux
  • Interactions entre normes internationales, régionales et nationales
  • Fragmentation normative et recherche de convergence

Module 6 – Approches régionales et nationales de la gouvernance de l’IA

  • Union européenne et AI Act
  • États-Unis et régulation par les politiques publiques
  • Chine et modèle étatique de gouvernance de l’IA
  • Comparaison des stratégies nationales et régionales

Module 7 – Acteurs non étatiques et gouvernance multi-acteurs

  • Rôle des entreprises technologiques et des plateformes numériques
  • Contribution de la société civile, des universités et des think tanks
  • Autorégulation, codes de conduite et initiatives privées
  • Tensions entre innovation, régulation et responsabilité

Module 8 – IA, développement durable et justice technologique

  • IA et Objectifs de développement durable (ODD)
  • Fracture numérique et inégalités Nord–Sud
  • Accès aux technologies et renforcement des capacités
  • Perspectives des pays en développement et justice technologique

Module 9 – IA, sécurité internationale et usages militaires

  • Militarisation de l’IA et systèmes d’armes létaux autonomes
  • Débats juridiques et éthiques sur l’IA militaire
  • Rôle du Conseil de sécurité et des forums de désarmement
  • Risques pour la stabilité internationale

Module 10 – Perspectives, scénarios et avenir de la gouvernance de l’IA

  • Défis futurs de la gouvernance mondiale de l’IA
  • Scénarios d’évolution normative et institutionnelle
  • Coopération internationale et construction de consensus
  • Synthèse générale et perspectives stratégiques
  • Diplomates et agents des ministères des affaires étrangères.
  • Fonctionnaires et décideur·euse·s des administrations publiques nationales et locales.
  • Cadres et expert·e·s des organisations internationales et régionales.
  • Chercheur·euse·s et étudiant·e·s en relations internationales, droit, sciences politiques et communication.
  • Acteur·rice·s de la société civile impliqué·e·s dans les questions numériques et de droits humains.
  • Professionnel·le·s du secteur technologique et de la gouvernance numérique.
  • Consultant·e·s, analystes et responsables de politiques publiques travaillant sur l’intelligence artificielle.

La formation est assurée par un encadrement académique et professionnel. Elle combine un accompagnement pédagogique structuré, des interventions magistrales, des échanges interactifs avec le formateur, ainsi qu’un suivi individualisé ou en petits groupes pour les travaux et l’évaluation finale.

Accompagnement, tutorat, forums, soutien pédagogique.

Équipe pédagogique

Wisnique Panier

Diplomate · Chercheur · Auteur Ministre Conseiller, Mission permanente d’Haïti auprès des Nations Unies Membre du Groupe d’experts du 4ᵉ cycle du Processus régulier des Nations Unies (2026–2030)