Utiliser l'IA professionnellement impose une nouvelle discipline du jugement
- Marie Horodecki Aymes
- il y a 2 jours
- 8 min de lecture

Utiliser l'IA professionnellement au travail exige davantage qu'un accès technique. Cela demande du jugement : la capacité de lire ce que l'outil ne perçoit pas, de protéger ce qu'il ne doit pas toucher, et d'assumer la pleine responsabilité de ce qu'il produit.
Il y a des textes que l’on reconnaît avant même d’avoir compris ce qu’ils veulent dire.
Ils arrivent bien alignés, bien polis, avec des mots qui semblent avoir été choisis pour leur bonne tenue en société. Tout y est “central”, “crucial”, “stratégique”, “prioritaire”. Les phrases avancent en rangs serrés. Les idées, elles, restent parfois au vestiaire.
Sur LinkedIn, le phénomène est devenu familier. On repère le post généré en deux lignes. L’emoji placé comme un panneau de signalisation. La phrase sans sujet qui prétend donner du rythme. La liste qui imite la clarté. Les mots qui se fréquentent correctement, sans jamais produire une idée solide. À force, le fil devient plus bruyant. Pas nécessairement plus intelligent.
Jusque-là, on peut encore passer son chemin. On scrolle. On soupire. On laisse le texte poursuivre sa petite vie algorithmique sans nous.
Quand l’IA s’invite dans les documents professionnels
Le malaise change de nature quand la même logique arrive dans un document professionnel.
Récemment, j’ai reçu une réponse d’un fournisseur potentiel à la suite d’un appel d’offres. Le dossier transmis était détaillé. Les objectifs étaient précisés. Les usages, les destinataires, les attentes, les contraintes, tout cela figurait dans les documents.
La réponse reçue contenait pourtant une série de questions censées clarifier le mandat. Plusieurs réponses se trouvaient déjà dans le dossier. Certaines formulations portaient cette petite musique désormais reconnaissable des sorties générées sans reprise humaine : “question prioritaire”, “question cruciale”, “question ultime”. Et puis ce mot, “vraiment”, glissé dans une question du type : qui utilisera vraiment ce livrable ?
Ce “vraiment” m’a arrêtée.
Il n’ajoutait aucune précision. Il introduisait une suspicion inutile. Il donnait l’impression d’une profondeur, alors qu’il signalait surtout une absence de lecture. Quel intérêt aurais-je eu à mentir sur l’usage d’un livrable dans un appel d’offres que j’avais moi-même cadré ?
La situation aurait été presque amusante si elle n’avait pas été aussi révélatrice.
Un LLM peut générer des questions. Il peut même les hiérarchiser avec beaucoup d’assurance. Il peut produire une structure propre, un ton poli, un semblant de méthode. Mais il ne peut pas savoir, seul, que les réponses sont déjà dans le dossier. Pour cela, quelqu’un doit lire. Quelqu’un doit comprendre. Quelqu’un doit décider que telle question est pertinente, que telle autre est inutile, que telle formulation risque d’abîmer la relation avant même qu’elle ne commence.
L’IA au travail oblige à réapprendre la rigueur
Ce moment disait quelque chose de plus vaste que la qualité d’une réponse à un appel d’offres.
Il montrait ce qui arrive quand l’intelligence artificielle est utilisée comme raccourci vers la production, plutôt que comme appui à une pensée déjà engagée. Elle produit alors une apparence de diligence. Elle donne au document les signes extérieurs du travail : des sections, des questions, des priorités, un vocabulaire appliqué. Mais elle peut aussi exposer très vite ce qui manque : l’attention portée au besoin, la compréhension du contexte, le jugement professionnel.
La crédibilité peut se perdre dans une question inutile, posée avec aplomb, à laquelle le client avait déjà répondu.
Comment utiliser l'IA de façon professionnelle
Utiliser l'IA de façon professionnelle signifie lui donner un cadre précis avant toute production, vérifier chaque résultat à l'aune du besoin initial, protéger les informations qui ne doivent pas être partagées, et conserver la pleine responsabilité de ce qui est livré. Le modèle exécute. Le professionnel décide.
Je ne regarde pas cette situation depuis une position de méfiance envers l’IA. C’est même l’inverse. J’utilise l’intelligence artificielle tous les jours. Elle m’a permis de bâtir, seule, avec peu de moyens, une pratique beaucoup plus solide que ce que j’aurais pu développer autrement dans les mêmes délais.
Une grande partie de mes livrables passe techniquement par l’IA. Mais rien ne lui est abandonné.
Je cadre. Je teste. Je spécialise mes outils. Je travaille avec des agents que j’ai progressivement professionnalisés. Je choisis les modèles selon leurs forces du moment. Je vérifie. Je challenge. Je recadre. Je refuse des sorties séduisantes mais faibles. Je reprends ce qui sonne bien mais ne tient pas. J’investis du temps en amont pour en gagner ensuite, et surtout pour livrer mieux.
L’IA rend le jugement professionnel plus nécessaire que jamais
L’IA accélère certaines tâches. Elle ne retire pas l’exigence de maîtrise. Elle la déplace.
Avant, une partie importante du temps était absorbée par la production : écrire, mettre en forme, structurer, compiler, reformuler. Aujourd’hui, une partie de ce temps se déplace vers d’autres gestes : formuler une intention claire, donner un cadre précis, protéger les données, sélectionner l’outil adéquat, vérifier les raisonnements, repérer les approximations, assumer la version finale.
C’est là que se joue la différence entre un usage amateur et un usage professionnel.
Un outil non supervisé produit vite. Un outil bien dirigé peut produire mieux. Entre les deux, il y a une compétence. Elle ne tombe pas du ciel. Elle s’apprend. Elle se teste. Elle demande de connaître les forces et les limites des modèles, de comprendre ce qu’on peut leur confier, de savoir quelles informations ne doivent pas y être déposées, de créer des réflexes de vérification.

L’IA donne aussi accès à une forme d’autonomie nouvelle.
Elle m’a appris à contester autrement les limites du “ce n’est pas possible” ou du “ça ne se fait pas”. Pas par enthousiasme naïf. Par expérimentation. Une hypothèse peut devenir un prototype. Une intuition peut être traduite en outil. Une idée que je n’aurais pas su coder peut être mise à l’épreuve, corrigée, améliorée, puis intégrée dans mon travail.
Il y a deux ans, certains outils que j’ai créés m’auraient semblé hors de portée. Je n’aurais pas eu les moyens techniques de contredire ceux qui m’auraient répondu que c’était trop complexe, trop long ou trop coûteux. Aujourd’hui, je peux tester. Je peux comparer. Je peux itérer. Je peux décider avec une preuve de fonctionnement plutôt qu’avec une impression.
L’IA ne supprime pas toutes les contraintes. Elle permet d’en vérifier certaines plus vite. Elle aide à distinguer ce qui est réellement impossible de ce qui était simplement inaccessible sans équipe technique, sans budget ou sans temps disponible.
Et parce que j’aime profondément mon métier, je dois le dire aussi : je m’amuse.
Pas parce que l’outil travaille à ma place. Parce qu’il me permet d’explorer plus loin ce que je sais déjà chercher. Il me donne les moyens de passer plus vite de l’idée au test, du test à l’outil, de l’outil à l’usage. Pour une personne qui pense toujours en fonction de l’implantation, c’est un changement considérable.
Mais cette puissance appelle une discipline.
L’IA au travail : l'usage devancent déjà la gouvernance
Dans les organisations, l’IA est déjà là. Statistique Québec estimait qu’en 2024, environ 59 % de la main-d’œuvre québécoise occupait un emploi fortement exposé à l’intelligence artificielle. KPMG Canada indiquait, dans son indice 2025, que 51 % des adultes canadiens utilisaient désormais l’IA générative au travail. À l’échelle des entreprises, Statistique Canada rapportait que 12,2 % des entreprises canadiennes utilisaient l’IA pour produire des biens ou fournir des services au deuxième trimestre 2025. Les chiffres ne mesurent pas tous la même chose, mais ils dessinent un même mouvement : les usages avancent plus vite que les cadres.
Les dirigeants qui préfèrent ne pas regarder le sujet ne l’empêchent pas d’exister. Ils rendent simplement les usages invisibles.
Des employés utilisent déjà l’IA pour rédiger, résumer, analyser, traduire, préparer des présentations, répondre à des courriels, produire des comptes rendus, structurer des idées. Souvent avec de bonnes intentions. Souvent pour gagner du temps. Parfois sans savoir quelles données peuvent être partagées, quels résultats doivent être vérifiés, ni comment reconnaître une réponse bien formulée mais fragile.
C’est là que le risque devient organisationnel.
Un texte LinkedIn médiocre abîme surtout la qualité du fil. Un document client mal généré peut abîmer une relation. Une donnée confidentielle déposée dans un outil mal configuré peut créer un risque de gouvernance. Une analyse produite sans vérification peut orienter une mauvaise décision. Une réponse à un appel d’offres qui trahit l’absence de lecture peut disqualifier un fournisseur avant même que la conversation commence.
Former les équipes sur l'IA : Une mesure de professionnalisme
Former les équipes à l’IA n’est donc pas un supplément de modernité. C’est une mesure de professionnalisme.
Les organisations doivent ouvrir la conversation. Quels outils peut-on utiliser ? Pour quels usages ? Avec quelles données ? Quels livrables exigent une validation humaine renforcée ? Comment cite-t-on les sources ? Comment vérifie-t-on une synthèse ? Comment repère-t-on une hallucination, une approximation, une emphase vide ? À quel moment l’IA aide-t-elle réellement, et à quel moment donne-t-elle seulement une apparence de travail accompli ?
Il faut des règles simples, mais applicables. Des formations concrètes. Des exemples issus du quotidien. Des politiques de confidentialité comprises par les équipes. Des espaces où l’on peut parler des usages réels, pas seulement des discours officiels.
Gérer l'IA Comme un Employé Brillant mais Junior
L’image que j’utilise souvent est celle du junior brillant.
Un bon modèle d’IA ressemble à un jeune collaborateur extrêmement rapide, très cultivé, capable de produire beaucoup en peu de temps. Mais il reste junior. Il ne connaît pas votre client comme vous. Il ne comprend pas spontanément votre responsabilité professionnelle. Il ne sait pas ce qui peut être dit, ce qui doit être tu, ce qui est sensible, ce qui est stratégique, ce qui est simplement hors sujet. Il peut livrer une réponse avec assurance, même quand il se trompe.
On ne confie pas un mandat sensible à un junior sans cadre, sans consignes et sans relecture. On ne devrait pas le faire avec l’IA.
La nouvelle compétence professionnelle n’est pas seulement de “prompter”. Ce mot est devenu commode, mais il est trop étroit. Il s’agit de manager l’IA : lui donner un cadre, préciser un niveau d’exigence, contrôler les étapes, corriger les angles morts, sécuriser les informations, décider de ce qui mérite d’être livré.
L’intelligence artificielle a une qualité redoutable : elle rend visibles nos propres méthodes de travail.
Si l’on sait lire, elle aide à lire plus largement. Si l’on sait structurer, elle aide à structurer plus vite. Si l’on sait questionner, elle aide à explorer plus loin. Si l’on ne lit pas, elle peut produire des questions déjà répondues. Si l’on ne vérifie pas, elle peut donner une forme impeccable à une erreur. Si l’on ne pense pas clairement, elle peut donner une allure professionnelle à une confusion.
C’est pour cela que l’IA impose une nouvelle discipline du jugement.
Elle oblige chacun à rendre plus explicites des exigences qui existaient déjà : lire attentivement, comprendre le contexte, protéger les informations, vérifier les sources, reconnaître les limites d’un raisonnement, assumer ce que l’on publie, transmet ou livre.
La machine peut accélérer la production. Le jugement reste attaché à la personne qui signe.
FAQ : utiliser l'IA professionnellement au travail
Qu'est-ce qu'utiliser l'IA professionnellement ?
Utiliser l'IA professionnellement signifie lui donner un cadre précis avant toute production, vérifier chaque résultat à l'aune du besoin initial, protéger les informations qui ne doivent pas être partagées, et conserver la pleine responsabilité de ce qui est livré. Le modèle exécute. Le professionnel décide.
Quelle est la différence entre un usage amateur et un usage professionnel de l'IA ?
L'usage amateur traite l'IA comme un raccourci vers la production. L'usage professionnel l'utilise comme appui à une pensée déjà engagée. La différence se joue avant l'ouverture de l'outil (clarté de l'intention, précision des consignes) et après sa production (vérification, correction, responsabilité sur le résultat).
Quelles compétences faut-il pour manager l'IA au travail ?
Il faut savoir formuler une intention claire avant de déléguer à l'IA, repérer les approximations dans ses sorties, identifier les informations qui ne doivent pas lui être confiées, et définir un niveau d'exigence suffisamment précis pour vérifier le résultat. Ce sont des compétences de jugement. Elles existaient avant l'IA.
Pourquoi l'IA exige-t-elle encore du jugement humain ?
Un modèle de langage produit des réponses avec aplomb, qu'elles soient justes ou non. Il ne connaît pas votre client, vos contraintes, ni votre responsabilité professionnelle. Il ne sait pas ce qui peut être dit, ce qui doit être tu, ce qui est sensible ou hors sujet dans un contexte donné. Cette capacité de distinction appartient à la personne qui signe.
Comment les organisations devraient-elles former leurs équipes à l'IA ?
La formation doit partir de cas concrets, pas de principes abstraits. Les équipes doivent savoir quels outils sont autorisés, quelles données peuvent être partagées, quels livrables exigent une validation humaine, et comment reconnaître une réponse bien formulée mais inexacte. Les politiques de confidentialité doivent être comprises, pas seulement distribuées.
Marie Horodecki-Aymes est fondatrice et PDG de MHA Insights Inc., cabinet de conseil montréalais, et créatrice de MHA Studio AI. Elle accompagne dirigeants, conseils d'administration et organisations dans l'adoption stratégique de l'intelligence artificielle. Elle utilise l'IA comme outil professionnel central depuis deux ans et écrit régulièrement sur la gouvernance, le jugement et les pratiques responsables.




Commentaires