A l’intérieur des grandes banques, l’intelligence artificielle s’est imposée dans une catégorie autrefois réservée aux systèmes de paiement, aux centres de données et aux contrôles de risque de base. Chez JPMorgan Chase, l’IA est présentée comme une infrastructure que la banque estime ne pas pouvoir se permettre de négliger.
Cette position a été clairement exprimée récemment par le PDG Jamie Dimon, qui a défendu l’augmentation du budget technologique de la banque et a averti que les institutions qui prennent du retard en matière d’IA risquent de perdre du terrain face à leurs concurrents. L’argument ne portait pas sur le remplacement des personnes mais sur le maintien de la fonctionnalité dans une industrie où la vitesse, l’échelle et la discipline des coûts sont essentielles au quotidien.
JPMorgan investit massivement dans la technologie depuis des années, mais l’IA a changé le ton de ces dépenses. Ce qui était autrefois réservé aux projets d’innovation est désormais intégré aux coûts d’exploitation de base de la banque. Cela inclut des outils internes d’IA qui soutiennent la recherche, la rédaction de documents, les examens internes et d’autres tâches routinières au sein de l’organisation.
Le passage de l’expérimentation à l’infrastructure reflète un changement plus profond dans la façon dont la banque perçoit le risque. L’IA est considérée comme faisant partie des systèmes nécessaires pour rester en phase avec des concurrents qui automatisent le travail interne.
Au lieu d’encourager les travailleurs à se fier aux systèmes d’IA publics, JPMorgan s’est concentré sur la construction et la gouvernance de ses propres plates-formes internes. Cette décision reflète les préoccupations de longue date dans le secteur bancaire concernant l’exposition des données, la confidentialité des clients et la surveillance réglementaire.
Les banques évoluent dans un environnement où les erreurs sont coûteuses. Tout système qui touche à des données sensibles ou influence des choix doit être auditable et explicable. Les outils d’IA publics, formés sur des ensembles de données et mis à jour fréquemment, rendent cela difficile. Les systèmes internes donnent à JPMorgan plus de contrôle, même s’ils prennent plus de temps à déployer.
Cette approche réduit également le risque d’un « shadow AI » non contrôlé, où les employés utilisent des outils non approuvés pour accélérer le travail. Bien que de tels outils puissent améliorer la productivité, ils créent des lacunes dans la surveillance que les régulateurs ont tendance à remarquer rapidement.
JPMorgan adopte une approche prudente des changements dans la main-d’œuvre. La banque évite de prétendre que l’IA réduira radicalement les effectifs. Au contraire, elle présente l’IA comme un moyen de réduire le travail manuel et d’améliorer la cohérence.
Des tâches qui nécessitaient autrefois de multiples cycles de révision peuvent maintenant être terminées plus rapidement, les employés restant responsables du jugement final. Le positionnement de l’IA comme un soutien et non une substitution est important dans un secteur sensible aux réactions politiques et réglementaires.
L’échelle de l’organisation rend cette approche pratique. JPMorgan emploie des centaines de milliers de personnes dans le monde entier. Même de minuscules gains d’efficacité, appliqués de manière large, peuvent se traduire par des économies de coûts significatives avec le temps.
L’investissement initial nécessaire pour construire et maintenir des systèmes d’IA internes est important. Dimon reconnaît que les dépenses technologiques peuvent avoir un impact sur la performance à court terme, surtout lorsque les conditions du marché sont incertaines.
Sa réponse est que réduire les dépenses technologiques maintenant peut améliorer les marges à court terme, mais cela risque d’affaiblir la position de la banque plus tard. En ce sens, les dépenses liées à l’IA sont traitées comme une forme d’assurance contre le retard.
La position de JPMorgan reflète la pression dans le secteur bancaire. Les concurrents investissent dans l’IA pour accélérer la détection de la fraude, rationaliser le travail de conformité et améliorer les rapports internes. À mesure que ces outils deviennent plus courants, les attentes augmentent.
Les régulateurs peuvent supposer que les banques ont accès à des systèmes de surveillance avancés. Les clients peuvent s’attendre à des réponses plus rapides et à moins d’erreurs. Dans cet environnement, prendre du retard sur l’IA peut ressembler moins à de la prudence et plus à de la mauvaise gestion.
JPMorgan n’a pas suggéré que l’IA résoudra les défis structurels ou éliminera les risques. De nombreux projets d’IA ont du mal à dépasser des utilisations restreintes, et les intégrer dans des systèmes complexes reste difficile.
Le travail difficile réside dans la gouvernance. Décider quelles équipes peuvent utiliser l’IA, dans quelles conditions et avec quelles garanties nécessite des règles claires. Les erreurs doivent avoir des voies d’escalade définies. La responsabilité doit être attribuée lorsque les systèmes produisent des résultats erronés.
Dans les grandes entreprises, l’adoption de l’IA n’est pas limitée par l’accès aux modèles ou à la puissance de calcul, mais entravée par les processus, les politiques et la confiance.
Pour d’autres entreprises utilisatrices finales, l’approche de JPMorgan offre un point de référence utile. L’IA est traitée comme faisant partie des mécanismes qui maintiennent l’organisation en marche.
Cela ne garantit pas le succès. Les retours sur investissement peuvent prendre des années à se manifester, et certains investissements ne porteront pas leurs fruits. Mais la position de la banque est que le risque le plus important réside dans le fait de ne pas en faire assez, pas trop.


