Gouverner l’IA : pourquoi un conseil d’administration doit la pratiquer pour la comprendre
- Marie Horodecki Aymes
- il y a 14 heures
- 5 min de lecture

Un panel récent de l’ICAEW sur la gouvernance de l’IA a remis sur la table une question que beaucoup de conseils d’administration continuent de traiter comme un dossier informatique : comment encadrer l’intelligence artificielle dans l’organisation. Les intervenants ont fait un bon travail de sensibilisation. Mais sensibiliser ne suffit plus. En 2026, le CA doit passer de la vigilance à la compétence.
C’est de cette compétence que je veux parler ici. Pas des risques habituels de l’IA, dont on a déjà beaucoup parlé. Mais de ce que ça signifie concrètement, pour un conseil d’administration, de bien gouverner un outil qu’il connaît souvent très mal.
L’IA est un enjeu de gouvernance complet
Quand on aborde l’IA en gouvernance, on tombe souvent dans le même schéma : on liste les risques (biais, hallucinations, cybersécurité, conformité), on recommande la prudence, et on conclut en disant que le CA devrait «s’y intéresser davantage». C’est vrai, mais c’est insuffisant.
Un conseil d’administration ne se contente pas d’évaluer des risques. Il évalue des risques ET des opportunités, et il prend des décisions en conséquence. L’IA n’échappe pas à cette logique.
L’opportunité est réelle et considérable. L’IA peut accélérer l’analyse de données, améliorer la qualité des décisions quand elle est bien encadrée, réduire des coûts opérationnels significatifs, ouvrir de nouveaux marchés, et permettre à des équipes plus petites de faire ce qui nécessitait auparavant des ressources importantes. Au panel de l’ICAEW, Peter Lee citait un fondateur qui fait aujourd’hui en une journée avec quatre personnes ce qui prenait deux mois à cinquante. On peut discuter du chiffre, mais la tendance est indiscutable.
Les risques sont réels aussi, et je ne les minimise pas. La dérive des modèles dans le temps, l’érosion de la pensée critique quand les équipes cessent de vérifier ce que l’IA produit, l’élargissement de la surface d’attaque cyber, les enjeux éthiques liés à la prise de décision autonome. Tout cela existe. Mais si le CA ne voit que les risques, il passe à côté de son rôle. Et surtout, il risque de prendre la pire des décisions : ne rien faire, ou tout verrouiller, pendant que le marché avance.
La vraie question pour un CA n’est donc pas seulement «l’IA est-elle risquée», mais plutôt : quels outils et quels processus met-on en place pour capturer les opportunités tout en minimisant les risques d’erreur, qui peuvent être graves ? Et comment accompagne-t-on les équipes dans cette transition ?
Pourquoi la compétence d’usage change tout
C’est là que je voudrais apporter un éclairage que je trouve insuffisamment présent dans les discussions actuelles sur la gouvernance de l’IA.
On parle beaucoup de «lettératie IA» comme d’un objectif à atteindre. C’est le bon mot. Mais la littératie ne se développe pas en lisant des rapports ou en assistant à des webinaires. Elle se développe en utilisant les outils.
Quand un administrateur utilise lui-même un outil d’IA, ne serait-ce que quelques heures, il découvre des choses qu’aucun briefing ne peut transmettre. Il découvre que l’outil est remarquablement efficace pour synthétiser un document de 40 pages, identifier des tendances dans un jeu de données, ou structurer une réflexion complexe. Il découvre aussi que ce même outil peut produire une réponse parfaitement formulée qui contient une erreur factuelle glissée dans un paragraphe impeccable, inventer des sources avec un aplomb qui ferait rougir n’importe quel consultant, ou approuver poliment un raisonnement bancal au lieu de le challenger.
C’est cette double expérience, celle des forces et des limites, qui change la nature des questions qu’on pose ensuite autour de la table du conseil. Un administrateur qui a vu ça de ses propres yeux ne demandera plus «est-ce qu’on utilise l’IA», mais «comment nos équipes vérifient-elles la qualité de ce que l’IA produit». Il ne demandera plus «est-ce qu’on est conformes», mais «quels mécanismes de contrôle avons-nous mis en place pour les usages à haut risque, et qui en est responsable».
Sans cette expérience directe, le CA reste dépendant des récits des autres. La direction dit que l’IA transforme la productivité. Les consultants vendent des stratégies IA. Les fournisseurs promettent des solutions intelligentes. Et le conseil acquiesce, parce qu’il n’a pas les repères pour distinguer une avancée réelle d’un effet de mode bien emballé.
Ce que ça implique concrètement pour la gouvernance

Un CA qui veut gouverner l’IA sérieusement doit agir sur plusieurs fronts simultanément.
Sur le plan stratégique, il doit exiger une cartographie claire des usages de l’IA dans l’organisation : quels départements, pour quelles tâches, avec quels niveaux de risque, sous quelle supervision. Cette cartographie est le point de départ de toute gouvernance sérieuse, et beaucoup d’organisations n’en disposent pas encore.
Sur le plan opérationnel, il doit s’intéresser aux processus de vérification et de contrôle qualité. Quand un outil d’IA produit une analyse financière, un document juridique ou une communication client, qui vérifie ? Selon quels critères ? Avec quelle fréquence ? Les mécanismes de revue humaine ne sont pas un frein à l’innovation, ils sont la condition de sa fiabilité.
Sur le plan humain, et c’est un aspect souvent négligé, le CA doit s’assurer que les équipes sont accompagnées dans cette transition. Accompagnées signifie formées, oui, mais aussi écoutées. Quels sont leurs retours d’expérience ? Où rencontrent-elles des difficultés ? Quels usages ont-elles développés spontanément qui mériteraient d’être encadrés ou généralisés ? La meilleure intelligence sur les usages réels de l’IA dans une organisation se trouve souvent chez les gens qui l’utilisent au quotidien, pas dans les présentations de la direction.
Sur le plan éthique, le CA doit tracer une ligne claire entre ce qui est permis par la loi et ce qui est acceptable pour l’organisation, ses employés et ses parties prenantes. Comme le soulignait Peter Lee au panel de l’ICAEW, la conformité réglementaire et l’acceptabilité éthique sont deux choses distinctes. Une entreprise peut être parfaitement conforme à l’EU AI Act et adopter des pratiques que ses employés trouvent inacceptables.
Et sur le plan de la compétence du conseil lui-même, les administrateurs doivent développer une familiarité pratique suffisante avec ces outils pour exercer leur jugement. Pas devenir des experts techniques. Mais avoir assez d’expérience directe pour poser les bonnes questions, évaluer la crédibilité des réponses qu’on leur apporte, et ne pas confondre une démonstration séduisante avec une avancée réelle.
Le piège symétrique
Je voudrais terminer sur un point qui me semble essentiel.
Il y a deux manières de mal gouverner l’IA. La première, c’est de foncer tête baissée, séduit par les promesses de productivité, sans mettre en place les garde-fous nécessaires. La seconde, c’est de tout verrouiller par peur, d’interdire les usages, et de laisser les employés qui pourraient bénéficier de ces outils se débrouiller seuls, parfois en utilisant des solutions personnelles hors du contrôle de l’organisation. Pauline Norstrom, au panel de l’ICAEW, décrivait exactement cette situation : des CIO qui reçoivent l’instruction de tout bloquer, et des équipes qui passent à côté d’opportunités concrètes.
La bonne gouvernance se situe entre ces deux extrêmes. Elle suppose de comprendre ce que l’IA permet, d’identifier où elle crée de la valeur, de cadrer les usages à risque, d’accompagner les équipes, et de mettre en place des boucles de rétroaction qui permettent d’apprendre et d’ajuster au fil du temps.
Et pour faire tout ça avec discernement, il faut avoir une idée concrète de ce dont on parle. Ce qui nous ramène au point de départ : la compétence du CA en matière d’IA passe par la pratique. Quelques heures d’usage attentif valent mieux que dix heures de lecture sur le sujet.
Source : Panel «AI Governance», ICAEW Corporate Governance Conference, 6 mars 2026.
Vous souhaitez développer votre compétence IA ?
Je développe actuellement un programme de formation pratique en intelligence artificielle, conçu pour les dirigeants, administrateurs et professionnels qui veulent comprendre concrètement ce que l’IA permet, où se situent ses limites, et comment l’intégrer de manière responsable dans leur pratique.
Pas de jargon technique, pas de code. Des cas concrets, des outils testés, et une approche calibrée pour des gens qui prennent des décisions.
Si le sujet vous intéresse, vous pouvez remplir ce court questionnaire pour m’aider à adapter le programme à vos besoins :



Commentaires