top of page

Gouverner l’IA : pourquoi un conseil d’administration doit la pratiquer pour la comprendre

Dernière mise à jour : 26 mars


Four people in business attire having a discussion at a conference table with a laptop, papers, and a large window in the background.

Un panel récent de l'ICAEW sur la gouvernance de l'IA a soulevé une question que beaucoup de conseils d'administration traitent encore comme un dossier informatique : comment encadrer l'intelligence artificielle dans l'organisation. Les intervenants ont offert une excellente sensibilisation. Mais la sensibilisation n'est plus suffisante. En 2026, le CA doit passer de la vigilance à la compétence.

C'est cette compétence que j'examine ici, plutôt que les risques habituels de l'IA qui ont déjà été largement documentés. Je m'intéresse à ce que signifie concrètement, pour un conseil d'administration, de bien gouverner un outil qu'il connaît souvent à peine.


L’IA est un enjeu de gouvernance complet

Aborder l'IA en gouvernance, c'est généralement énumérer les risques : biais, hallucinations, cybersécurité, conformité. On recommande la prudence. On conclut que le CA devrait s'y intéresser davantage. Tout cela est vrai, mais cela reste superficiel.

Un conseil d'administration n'évalue jamais les risques isolés. Il les considère aux côtés des opportunités, puis prend des décisions. L'IA ne fonctionne pas autrement.

Les opportunités concrètes sont considérables. L'IA peut accélérer l'analyse de données, améliorer la qualité des décisions quand elle est bien encadrée, réduire significativement les coûts opérationnels, ouvrir de nouveaux marchés. Elle permet aux petites équipes de faire ce qui exigeait autrefois des ressources importantes.

Au panel de l'ICAEW, Peter Lee citait un fondateur qui accomplit en une journée avec quatre personnes ce que sa prédécesseure réalisait en deux mois à cinquante. Le chiffre exact est moins important que la tendance : elle est manifeste.

Les risques, eux aussi, sont concrets. La dérive des modèles dans le temps. L'érosion de la pensée critique quand les équipes cessent de vérifier les résultats. L'élargissement de la surface d'attaque cyber. Les enjeux éthiques liés à la prise de décision autonome. Tout cela existe et mérite du sérieux. Mais si le CA ne voit que les risques, il abandonne son rôle de gouvernance. Pire : il risque de prendre la pire des décisions, celle qui paraît prudente mais est stérile. Ne rien faire. Tout verrouiller. Pendant que le marché avance.

La vraie question pour un CA ne se limite pas à « l'IA est-elle risquée ». Elle est : quels outils et quels processus met-on en place pour capturer les opportunités tout en minimisant les risques d'erreur graves ? Comment accompagne-t-on les équipes dans cette transition ?


Pourquoi la compétence d’usage change tout

L'élément que je trouve absent des discussions actuelles sur la gouvernance de l'IA mérite l'attention.

On parle beaucoup de « littératie IA » comme objectif. C'est le bon mot. Mais la littératie s'acquiert en utilisant les outils, non pas en lisant des rapports ou en assistant à des webinaires.

Quand un administrateur utilise lui-même un outil d'IA, ne serait-ce que quelques heures, il expérimente ce qu'aucun briefing ne peut transmettre. L'outil synthétise une page de 40 pages avec remarquable clarté, identifie les tendances dans un jeu de données, structure une réflexion complexe en minutes. Il expérimente aussi ses limites : une réponse parfaitement formulée qui glisse une erreur factuelle dans un paragraphe impeccable, des sources inventées avec l'aplomb d'un expert, l'incapacité à challenger un raisonnement bancal quand il est posé poliment.

C'est cette double expérience, celle des forces et des limites vérifiées personnellement, qui transforme les questions posées autour de la table du conseil.

Un administrateur qui a expérimenté cela repose ses questions différemment. Il demande : « comment nos équipes vérifient-elles la qualité de ce que l'IA produit » plutôt que « est-ce qu'on utilise l'IA ». Il demande : « quels mécanismes de contrôle avons-nous mis en place pour les usages à haut risque, et qui en est responsable » plutôt que « est-ce qu'on est conformes ».

Sans cette expérience directe, le CA demeure captif des récits d'autres. La direction affirme que l'IA transforme la productivité. Les consultants vendent des stratégies IA. Les fournisseurs promettent des solutions intelligentes. Le conseil acquier, faute de repères pour distinguer une avancée réelle d'un effet de mode bien emballé.


Ce que ça implique concrètement pour la gouvernance


Ordinateur portable sur un bureau en bois affichant un mémo sur la gouvernance de l'IA et les risques. Arrière-plan flou de bureau.

Un CA qui veut gouverner l'IA sérieusement doit agir sur plusieurs fronts.

Sur le plan stratégique : il exige une cartographie claire des usages de l'IA dans l'organisation. Quels départements l'utilisent. Pour quelles tâches. À quels niveaux de risque. Sous quelle supervision. Beaucoup d'organisations n'en disposent pas encore, ce qui explique en partie pourquoi l'IA progresse plus vite que leur capacité à la gouverner. Cette cartographie est le point de départ de toute gouvernance sérieuse.

Sur le plan opérationnel : il s'intéresse aux processus de vérification et de contrôle qualité. Quand un outil d'IA produit une analyse financière, un document juridique ou une communication client, qui vérifie ? Selon quels critères ? À quelle fréquence ? Les mécanismes de revue humaine ne ralentissent pas l'innovation. Ils transforment un exercice de foi en pratique responsable.

Sur le plan humain (aspect souvent négligé) : le CA s'assure que les équipes sont accompagnées dans cette transition. Accompagnées signifie formées, certes. Mais aussi écoutées, ce qui est une pratique moins courante. Quels sont leurs retours d'expérience ? Où rencontrent-elles des difficultés ? Quels usages ont-elles développés spontanément qui mériteraient d'être généralisés ? La meilleure intelligence sur les usages réels se trouve souvent chez ceux qui utilisent l'IA au quotidien, pas dans les présentations de la direction.

Sur le plan éthique : le CA trace une ligne claire entre ce qui est permis par la loi et ce qui est acceptable pour l'organisation, ses employés, ses parties prenantes. Peter Lee le soulignait au panel : la conformité réglementaire et l'acceptabilité éthique sont distinctes. Une entreprise peut être entièrement conforme à l'EU AI Act tout en adoptant des pratiques que ses employés rejettent.

Et sur le plan de la compétence du conseil lui-même : les administrateurs développent une familiarité pratique suffisante avec ces outils pour exercer leur jugement. Pas devenir des experts techniques. Mais avoir assez d'expérience directe pour poser les bonnes questions, évaluer la crédibilité des réponses, et ne pas confondre une démonstration séduisante avec une avancée réelle.


Le piège symétrique

Deux façons de mal gouverner l'IA méritent d'être nommées.

La première : foncer sans garde-fou, séduit par les promesses de productivité. La seconde : tout verrouiller par peur, interdire les usages, laisser les employés qui pourraient bénéficier de ces outils se débrouiller seuls, parfois avec des solutions personnelles hors du contrôle de l'organisation. Pauline Norstrom, au panel de l'ICAEW, décrivait exactement cette tension : des CIO qui reçoivent l'instruction de tout bloquer, et des équipes qui passent à côté d'opportunités concrètes.

La gouvernance responsable se situe entre ces deux extrêmes. Elle suppose de comprendre ce que l'IA permet, d'identifier où elle crée de la valeur, de cadrer les usages à risque, d'accompagner les équipes. Elle requiert des boucles de rétroaction qui permettent d'apprendre et d'ajuster au fil du temps.

Et pour exercer ce jugement avec discernement, il faut avoir une idée concrète de ce dont on parle. Quelques heures d'usage attentif valent mieux que dix heures de lecture sur le sujet.

 

Source : Panel «AI Governance», ICAEW Corporate Governance Conference, 6 mars 2026.

Vous souhaitez développer votre compétence IA ?

Je développe actuellement un programme de formation pratique en intelligence artificielle, conçu pour les dirigeants, administrateurs et professionnels qui veulent comprendre concrètement ce que l’IA permet, où se situent ses limites, et comment l’intégrer de manière responsable dans leur pratique.

Pas de jargon technique, pas de code. Des cas concrets, des outils testés, et une approche calibrée pour des gens qui prennent des décisions.

Si le sujet vous intéresse, vous pouvez remplir ce court questionnaire pour m’aider à adapter le programme à vos besoins :



Commentaires

Noté 0 étoile sur 5.
Pas encore de note

Ajouter une note
bottom of page