Lorsque vous avez déjà pris un Uber autonome à travers le centre-ville de Los Angeles, vous pourriez reconnaître cette étrange sensation d’incertitude qui s’installe lorsqu’il n’y a ni chauffeur ni conversation, juste une voiture silencieuse faisant des suppositions sur le monde qui l’entoure. Le voyage se déroule bien jusqu’à ce que la voiture mal interprète une ombre ou ralentisse brusquement pour quelque chose d’inoffensif. À ce moment-là, vous voyez le véritable problème de l’autonomie. Elle ne panique pas quand elle le devrait, et c’est là que se situe le fossé entre la confiance et le jugement, là où la confiance est soit gagnée soit perdue. Une grande partie de l’IA d’entreprise d’aujourd’hui donne une impression remarquablement similaire. Elle est compétente sans être confiante, et efficace sans être empathique, c’est pourquoi le facteur décisif dans chaque déploiement réussi n’est plus la puissance de calcul mais la confiance.
Le rapport MLQ State of AI in Business 2025 met un chiffre précis sur cette question. 95 % des premiers pilotes d’IA échouent à produire un retour sur investissement mesurable, non pas parce que la technologie est faible, mais parce qu’elle est mal adaptée aux problèmes que les organisations tentent de résoudre. Le schéma se répète dans les industries. Les dirigeants s’inquiètent lorsqu’ils ne peuvent pas dire si la sortie est correcte, les équipes ne sont pas sûres si les tableaux de bord peuvent être fiables, et les clients perdent rapidement patience lorsqu’une interaction semble automatisée plutôt que soutenue. Toute personne qui a été bloquée hors de son compte bancaire alors que le système de récupération automatisé insiste sur le fait que ses réponses sont incorrectes sait à quel point la confiance peut rapidement s’évaporer.
Klarna reste l’exemple le plus médiatisé de l’automatisation à grande échelle en action. La société a maintenant réduit de moitié ses effectifs depuis 2022 et affirme que les systèmes internes d’IA effectuent le travail de 853 postes à temps plein, contre 700 plus tôt cette année. Les revenus ont augmenté de 108 %, tandis que la rémunération moyenne des employés a augmenté de 60 %, financée en partie par ces gains opérationnels. Pourtant, le tableau est plus compliqué. Klarna a encore déclaré une perte trimestrielle de 95 millions de dollars, et son PDG a averti que d’autres réductions d’effectifs sont probables. Cela montre que l’automatisation seule ne crée pas de stabilité. Sans responsabilité et structure, l’expérience se brise bien avant que l’IA ne le fasse. Comme le dit Jason Roos, PDG du fournisseur de CCaaS Cirrus, « Toute transformation qui ébranle la confiance, à l’intérieur ou à l’extérieur de l’entreprise, a un coût que vous ne pouvez pas ignorer. cela peut vous laisser dans une situation pire. »
Nous avons déjà vu ce qui se passe lorsque l’autonomie va plus vite que la responsabilité. Le Department for Work and Pensions du Royaume-Uni a utilisé un algorithme qui a signalé à tort environ 200 000 demandes d’aide au logement comme potentiellement frauduleuses, même si la majorité était légitime. Le problème n’était pas la technologie. C’était l’absence de propriété claire sur ses décisions. Lorsqu’un système automatisé suspend le mauvais compte, rejette la mauvaise réclamation ou crée une peur inutile, le problème n’est jamais simplement « pourquoi le modèle a-t-il mal fonctionné ? » C’est « qui est responsable du résultat ? » Sans cette réponse, la confiance devient fragile.
« Le pas manquant est toujours la préparation », dit Roos. « Si le processus, les données et les garde-fous ne sont pas en place, l’autonomie n’accélère pas les performances, elle amplifie les faiblesses. La responsabilité doit passer en premier. Commencez par le résultat, identifiez où les efforts sont gaspillés, vérifiez votre préparation et votre gouvernance, et automatisez ensuite. Sautez ces étapes et la responsabilité disparaît aussi rapidement que les gains d’efficacité arrivent. » Une partie du problème est une obsession pour l’échelle sans les bases qui rendent l’échelle durable. De nombreuses organisations poussent vers des agents autonomes capables d’agir de manière décisive, mais très peu s’arrêtent pour considérer ce qui se passe lorsque ces actions dépassent les limites attendues. Le Baromètre de la confiance d’Edelman montre une baisse régulière de la confiance du public dans l’IA au cours des cinq dernières années, et une étude conjointe de KPMG et de l’Université de Melbourne a révélé que les travailleurs préfèrent davantage d’implication humaine dans près de la moitié des tâches examinées. Les résultats renforcent un point simple. La confiance ne vient que rarement en poussant les modèles plus fort. Elle vient des gens qui prennent le temps de comprendre comment les décisions sont prises, et d’une gouvernance qui se comporte moins comme une pédale de frein et plus comme un volant.
Les mêmes dynamiques apparaissent du côté des clients. La recherche sur la confiance de PwC révèle un large fossé entre la perception et la réalité. La plupart des dirigeants pensent que les clients ont confiance en leur organisation, alors qu’une minorité seulement de clients sont d’accord. D’autres enquêtes montrent que la transparence aide à combler ce fossé, avec de grandes majorités de consommateurs souhaitant une divulgation claire lorsque l’IA est utilisée dans les expériences de service. Sans cette clarté, les gens ne se sentent pas rassurés. Ils se sentent trompés, et la relation devient tendue. Les entreprises qui communiquent ouvertement sur leur utilisation de l’IA protègent non seulement la confiance, mais normalisent également l’idée que la technologie et le soutien humain peuvent coexister.
Une partie de la confusion provient du terme « IA agentic » lui-même. Une grande partie du marché le traite comme quelque chose d’imprévisible ou d’autodirigé, alors qu’en réalité, il s’agit d’automatisation des flux de travail avec raisonnement et rappel. C’est une manière structurée pour les systèmes de prendre des décisions modestes à l’intérieur de paramètres conçus par des personnes. Les déploiements qui évoluent en toute sécurité suivent tous la même séquence. Ils commencent par le résultat qu’ils veulent améliorer, puis examinent où se situe l’effort inutile dans le flux de travail, puis évaluent si leurs systèmes et leurs équipes sont prêts pour l’autonomie, et choisissent alors la technologie. Inverser cet ordre ne fait rien avancer. Cela crée simplement des erreurs plus rapides. Comme le dit Roos, l’IA devrait élargir le jugement humain, et non le remplacer.
Tout cela pointe vers une vérité plus large. Chaque vague d’automatisation finit par devenir une question sociale plutôt qu’une question purement technique. Amazon a construit sa domination grâce à une cohérence opérationnelle, mais a également instauré un niveau de confiance quant à la livraison du colis. Lorsque cette confiance diminue, les clients passent à autre chose. L’IA suit le même schéma. Vous pouvez déployer des systèmes sophistiqués et auto-correcteurs, mais si le client se sent trompé ou induit en erreur à un moment donné, la confiance se brise. En interne, les mêmes pressions s’appliquent. L’étude mondiale de KPMG met en lumière à quelle vitesse les employés se désengagent lorsqu’ils ne comprennent pas comment les décisions sont prises ou qui en est responsable. Sans cette clarté, l’adoption stagne.
Alors que les systèmes agentic prennent des rôles plus conversationnels, la dimension émotionnelle devient encore plus significative. Le succès des entreprises dépendra de leur capacité à intégrer l’IA de manière transparente et à établir des relations de confiance avec leurs clients et employés. Les premières évaluations des interactions de chat autonomes montrent que les gens jugent désormais leur expérience non seulement en fonction de l’aide reçue, mais aussi de la façon dont l’interaction était attentive et respectueuse. Un client qui se sent ignoré ne garde que rarement sa frustration pour lui-même. Le ton émotionnel de l’IA devient un véritable facteur opérationnel, et les systèmes qui ne peuvent pas répondre à cette attente risquent de devenir des passifs.
La vérité difficile est que la technologie continuera à évoluer plus rapidement que le confort instinctif des gens à son égard. La confiance sera toujours en retard par rapport à l’innovation. Ce n’est pas un argument contre le progrès. C’est un plaidoyer en faveur de la maturité. Chaque leader en IA devrait se demander s’il ferait confiance au système avec ses propres données, s’il peut expliquer sa dernière décision en langage clair, et qui intervient en cas de problème. Si ces réponses ne sont pas claires, l’organisation ne mène pas de transformation. Elle se prépare à présenter des excuses.
Roos le dit simplement : « L’IA agente n’est pas le problème. L’IA non responsable l’est. »
Quand la confiance disparaît, l’adoption diminue, et le projet qui semblait transformateur devient une autre entrée dans le taux d’échec de 95%. L’autonomie n’est pas l’ennemi. Oublier qui est responsable l’est. Les organisations qui gardent une main humaine sur le volant seront celles qui resteront maîtres de la situation lorsque l’engouement pour la conduite autonome finira par s’estomper.


