Créé il y a 12 minutesMis à jour il y a quelques secondes

Conduire le changement IA

Ce que les organisations oublient

La plupart des projets IA ne déraillent pas sur la technologie. Ils déraillent sur ce qu'on n'a pas regardé avant de déployer.

On a lancé une série de posts sur notre page Linked'In avec une conviction simple, nourrie de ce qu'on observe sur le terrain. Ce qu'on partage ici, ce n'est pas un résumé de la série mais ce qui reste quand on met tout en perspective : ce que les organisations qui réussissent leur transformation IA n'ont pas esquivé et ce que les autres ont ignoré.

NAMI Logo
Un jeu d'échec

🧠 L'IA ne transforme pas vos outils. Elle transforme le raisonnement

C'est le point de départ et probablement la conviction la plus structurante de toute la série.

Face à l'IA, le réflexe naturel consiste à activer une mécanique bien connue : cadrage, pilote, déploiement, formation. Ce réflexe rassure parce qu'il est familier mais il repose sur l'hypothèse qu'on transforme des outils ou des processus. Avec l'IA, cette hypothèse est fausse : l'IA entre dans le raisonnement lui-même. Elle produit des analyses, formule des recommandations, influence des décisions. Le travail cognitif se trouve transformé, pas seulement son exécution.

Ce glissement change ce que signifie être compétent et déplace les repères de légitimité et les équilibres d'équipe de façon souvent invisible, et donc peu adressée.

  • L'expertise ne désigne plus "celui qui sait" mais celui qui sait questionner les résultats de l'IA, repérer où elle se trompe, challenger sa cohérence.

  • La valeur ne réside plus dans la capacité à produire une analyse, mais à en évaluer la solidité.

  • Décider, c'est assumer une recommandation formulée par un système qu'on ne contrôle pas entièrement, et cela change profondément ce que signifie porter une décision.

Ce déplacement rend caduque une bonne partie des indicateurs habituels de réussite. Les outils sont en place, les formations réalisées, le taux d'utilisation monte, et on se dit que l'adoption est là. Mais cette adoption peut être totalement de façade si les arbitrages n'ont pas changé, si les collaborateurs ne savent pas quand ne pas faire confiance à l'IA, si l'organisation n'a pas conscience de ce qu'elle délègue à la machine et de ce qu'elle garde. L'adoption rassure mais ne dit rien sur ce qui a vraiment bougé dans le travail réel.

NAMI Logo
Stormtroopers

📡 Les résistances ne sont pas un problème d'adhésion. Ce sont des signaux.

Avec l'IA, les résistances ne ressemblent pas aux autres. Les ignorer, c'est rater les informations les plus précieuses sur l'état réel de la transformation.

Ce que David Autissier appelle la "sidération schizophrénique" capture bien ce qu'on observe : les mêmes personnes qui utilisent l'IA massivement au quotidien ne lui font pas vraiment confiance. Elles l'adoptent et la rejettent simultanément. La tension que ça révèle est profonde et les formations à l'outil ne la résolvent pas : compréhension partielle, identité professionnelle bousculée, responsabilité floue, questions éthiques sans réponse. Tout cela se bouscule en même temps, souvent sans réel espace pour en parler.

Ces résistances signalent une perte réelle de repères, de légitimité, parfois de sens, que personne n'a encore pris le temps de reconnaître officiellement. C'est précisément pourquoi les réponses habituelles ratent leur cible : une formation à l'outil n'adresse pas une question d'identité professionnelle, une communication descendante sur les opportunités de l'IA ne résout pas un flou de responsabilité. On répond à côté parce qu'on traite le signal comme un problème à gérer plutôt que comme une information à lire.

Quand des collaborateurs contournent les outils officiels, c'est que le cadre proposé ne correspond plus au travail réel. Quand des managers freinent les usages dans leur équipe, c'est souvent qu'ils n'ont pas les réponses aux questions que leurs collaborateurs vont leur poser. Chaque résistance révèle ce qui n'a pas encore été pensé, dit ou décidé. On a tout à gagner à les lire plutôt qu'à les gérer.

NAMI Logo
Rouages

🏗️ Conduire le changement IA, c'est construire une architecture humaine.

Ce qu'on observe sur les projets qui tiennent dans la durée, c'est une architecture similaire, qu'on nomme "coalition", faite de niveaux qui se parlent vraiment : des dirigeants qui inscrivent l'IA dans un cap lisible et assument publiquement les arbitrages difficiles, des sponsors qui incarnent le projet dans la durée et pas seulement au kick-off, des managers qui traduisent ce cap en pratiques concrètes et créent les conditions de l'appropriation dans leur équipe, des champions qui rendent les usages visibles et crédibles auprès de leurs pairs. Quand un de ces niveaux est absent ou déconnecté des autres, l'énergie se disperse. La transformation ne s'arrête pas, mais elle ralentit et s'effrite.

La montée en compétences obéit à la même logique. La somme de compétences individuelles bien développées ne produit pas automatiquement une organisation capable de travailler avec l'IA de façon cohérente. Il faut aussi des pratiques partagées, des espaces pour poser les bonnes questions collectivement, une gouvernance qui clarifie qui assume quoi quand l'IA se trompe. Sans cette infrastructure collective, les compétences individuelles restent des îlots. L'organisation sait faire, mais elle ne sait pas faire ensemble.

NAMI Logo
Une mer représentée de manière abstraite

🔍 La vraie question : qu'est-ce qui se déplace ?

Trois signaux traversent presque tous les projets IA qu'on rencontre. Ils sont rarement nommés dans les plans de déploiement alors que c'est pourtant souvent là que tout se joue.

Quand le Shadow IA prolifère dans une organisation, c'est que le cadre officiel a cessé d'absorber les besoins réels du terrain. Les collaborateurs ne contournent pas les règles par mauvaise volonté : ils avancent avec ce qu'ils trouvent parce que ce qu'on leur propose est trop lent, trop rigide, ou trop déconnecté de leur quotidien. Traiter ces usages comme des écarts à sanctionner revient à ignorer ce qu'ils disent sur le cadre qu'on a construit.

La responsabilité reste trop souvent une question sans réponse formelle. Qui assume quand l'IA produit une recommandation erronée ? Qui décide quand un résultat est contestable ? Ces questions traversent le quotidien des équipes dès les premières semaines d'usage mais ne sont que trop peu adressées. Le vide qu'elles laissent crée alors de l'anxiété, de la prudence excessive ou, à l'inverse, une délégation aveugle à la machine. Ce flou a désormais une date de péremption : l'IA Act impose des obligations de traçabilité, de supervision humaine et de documentation des usages. Ce qui était une lacune de gouvernance devient une question de conformité.

Chaque accélération technologique crée une dette humaine : des repères qui n'ont pas eu le temps de se reconfigurer, des compétences qui n'ont pas pu se développer au rythme du déploiement. On planifie les licences, les formations à l'outil, le calendrier de déploiement mais presque jamais le temps qu'il faut aux équipes pour digérer ce qui a changé dans leur travail réel. Et comme toute dette, le coût de rattrapage, en tensions d'équipe, en décrochage progressif, en perte de sens, finit par dépasser celui de l'anticipation.

La question qu'on voit trop rarement posée en amont des projets IA, c'est "qu'est-ce que l'IA déplace dans notre façon de travailler, de décider, d'assumer". C'est ce déplacement de perspective, plus que la sophistication des outils ou l'exhaustivité du plan de déploiement, qui distingue les transformations qui tiennent dans la durée de celles qui n'existent que dans les reportings.

NAMI Logo

🤔 Et maintenant ?

L'IA Act est entré en vigueur et ses premières obligations sont déjà là : cartographier les usages, s'assurer que les équipes comprennent ce qu'elles utilisent, mettre en place une supervision humaine réelle. Mais la conformité ne sera qu'une première marche.

Le vrai sujet qui émerge, c'est l'esprit critique face à l'IA. Savoir questionner ce que l'IA produit, savoir arbitrer entre sa recommandation et son propre jugement, savoir identifier les moments où il faut s'en écarter. On forme aujourd'hui les gens à utiliser l'IA, rarement à en questionner les résultats ou à maintenir un jugement indépendant face à elle. C'est pourtant là que tout se joue pour les années qui viennent.

C'est le prochain chantier qu'on ouvre chez Nami, on vous en reparle très vite. 🕺

NAMI Logo

Les organisations qui réussissent leur transformation IA ont posé les bonnes questions avant de déployer. Et elles n'ont pas esquivé les réponses.

NAMI Logo

Pour ceux qui veulent creuser, on a mis tout ça dans un livre blanc : un espace où ces convictions ont la place de se déployer vraiment, avec les exemples et les outils pratiques que ce format ne permet pas.

Si vous souhaitez qu'on vous le présente, contactez-nous ici ou via notre Linked'In

Partager