Il y a trois ans, ChatGPT a vu le jour. Il a émerveillé le monde et a suscité des investissements et une excitation sans précédent dans le domaine de l’IA. Aujourd’hui, ChatGPT est encore un enfant en bas âge, mais le sentiment du public à l’égard du boom de l’IA s’est fortement détérioré. Le changement a commencé lorsque OpenAI a publié GPT-5 cet été, suscitant des critiques mitigées, principalement de la part des utilisateurs occasionnels qui ont jugé le système sur ses défauts apparents plutôt que sur ses capacités sous-jacentes.
Depuis lors, des experts et des influenceurs ont déclaré que le progrès de l’IA ralentissait, que l’expansion avait « atteint un mur », et que l’ensemble du domaine n’était qu’une bulle technologique gonflée par un battage médiatique exagéré. En fait, de nombreux influenceurs se sont accrochés à l’expression méprisante « slop » pour minimiser les images, documents, vidéos et codes incroyables que les modèles d’IA de pointe génèrent sur commande.
Cette perspective n’est pas seulement erronée, elle est dangereuse.
Cela me fait me demander où étaient tous ces « experts » des bulles technologiques irrationnelles lorsque les start-ups de trottinettes électriques étaient présentées comme une révolution des transports et que des NFT de dessins animés étaient vendus aux enchères pour des millions ? Ils étaient probablement trop occupés à acheter des terrains sans valeur dans le métavers ou à renforcer leurs positions chez GameStop. Mais lorsqu’il s’agit du boom de l’IA, qui est facilement l’agent de transformation technologique et économique le plus important des 25 dernières années, les journalistes et les influenceurs ne peuvent pas écrire le mot « slop » assez de fois.
Tout cela ne correspond pas au récit de la « bulle » et au langage méprisant du « slop ». En tant que scientifique de l’informatique et ingénieur de recherche qui a commencé à travailler avec des réseaux neuronaux dès 1989 et a suivi les progrès à travers des hivers froids et des booms chauds depuis lors, je suis presque chaque jour émerveillé par les capacités croissantes des modèles d’IA de pointe. Lorsque je discute avec d’autres professionnels du domaine, j’entends des sentiments similaires. En fait, le rythme d’avancement de l’IA laisse de nombreux experts dépassés et franchement un peu effrayés.
Les dangers du déni de l’IA
Alors pourquoi le public adhère-t-il au récit selon lequel l’IA faiblit, que la production est du « slop », et que le boom de l’IA manque de cas d’utilisation authentiques ? Personnellement, je crois que c’est parce que nous sommes tombés dans un état collectif de déni de l’IA, nous accrochant aux récits que nous voulons entendre malgré des preuves contraires solides. Le déni est la première étape du deuil et donc une réaction raisonnable à la perspective très inquiétante que nous, les humains, pourrions bientôt perdre la suprématie cognitive ici sur terre. En d’autres termes, le récit surgonflé de la bulle de l’IA est un mécanisme de défense sociétal.
Croyez-moi, je comprends. Je mets en garde depuis plus d’une décennie contre les risques déstabilisants et l’impact démoralisant de la superintelligence, et je pense aussi que l’IA devient trop intelligente trop rapidement. Le fait est que nous nous dirigeons rapidement vers un avenir où des systèmes d’IA largement disponibles seront capables de surpasser la plupart des humains dans la plupart des tâches cognitives, résolvant des problèmes plus rapidement, plus précisément et oui, plus créativement que n’importe quel individu. J’insiste sur la « créativité » car les dénialeurs de l’IA insistent souvent sur le fait que certaines qualités humaines (notamment la créativité et l’intelligence émotionnelle) seront toujours hors de portée des systèmes d’IA. Malheureusement, il y a peu de preuves soutenant cette perspective.
Sur le front de la créativité, les modèles d’IA d’aujourd’hui peuvent générer du contenu plus rapidement et avec plus de variations que n’importe quel être humain. Les critiques soutiennent que la vraie créativité nécessite une motivation interne. Je suis d’accord avec cet argument mais le trouve circulaire – nous définissons la créativité en fonction de notre expérience plutôt que de la qualité, de l’originalité ou de l’utilité de la production. De plus, nous ne savons pas si les systèmes d’IA développeront des motivations internes ou un sens de l’agence. Quoi qu’il en soit, si l’IA peut produire un travail original qui rivalise avec la plupart des professionnels humains, l’impact sur les emplois créatifs sera toujours assez dévastateur.
Le problème de manipulation de l’IA
Notre avantage humain en matière d’intelligence émotionnelle est encore plus précaire. Il est probable que l’IA puisse bientôt lire nos émotions plus rapidement et plus précisément que n’importe quel humain, en suivant des indices subtils dans nos micro-expressions, nos modèles vocaux, notre posture, notre regard et même notre respiration. Et à mesure que nous intégrerons des assistants d’IA dans nos téléphones, nos lunettes et d’autres appareils portables, ces systèmes surveilleront nos réactions émotionnelles tout au long de la journée, en construisant des modèles prédictifs de nos comportements. Sans une réglementation stricte, de plus en plus improbable, ces modèles prédictifs pourraient être utilisés pour nous cibler avec une influence optimisée individuellement qui maximise la persuasion.
C’est ce qu’on appelle le problème de manipulation de l’IA et il suggère que l’intelligence émotionnelle peut ne pas donner un avantage à l’humanité. En fait, cela pourrait être une faiblesse significative, favorisant une dynamique asymétrique où les systèmes d’IA peuvent nous lire avec une précision surhumaine, alors que nous ne pouvons pas lire du tout l’IA. Lorsque vous discuterez avec des agents d’IA photoréalistes (et vous le ferez), vous verrez une façade souriante conçue pour paraître chaleureuse, empathique et digne de confiance. Cela aura l’air et la sensation d’être humain, mais ce n’est qu’une illusion, et cela pourrait facilement influencer vos perspectives. Après tout, nos réactions émotionnelles aux visages sont des réflexes viscéraux façonnés par des millions d’années d’évolution sur une planète où chaque visage humain interactif que nous avons rencontré était en réalité humain. Bientôt, cela ne sera plus vrai.
Nous nous dirigeons rapidement vers un monde où de nombreux visages que nous rencontrons appartiendront à des agents d’IA se cachant derrière des façades numériques. En fait, ces « porte-paroles virtuels » pourraient facilement avoir des apparences conçues pour chacun de nous en fonction de nos réactions antérieures – tout ce qui nous incite le mieux à abaisser notre garde. Et pourtant, beaucoup insistent pour dire que l’IA n’est qu’un autre cycle technologique.
C’est une pensée utopique. Les énormes investissements dans l’IA ne sont pas motivés par le battage médiatique – ils sont motivés par l’attente que l’IA imprègne chaque aspect de la vie quotidienne, incarnée en tant qu’acteurs intelligents avec lesquels nous interagissons tout au long de notre journée. Ces systèmes nous assisteront, nous enseigneront et nous influenceront. Ils remodeleront nos vies et cela se produira plus rapidement que la plupart des gens ne le pensent.
Pour être clair, nous ne sommes pas en train d’assister à une bulle d’IA se remplissant de gaz vide. Nous assistons à la formation d’une nouvelle planète, un monde en fusion qui prend rapidement forme, et qui se solidifiera en une nouvelle société alimentée par l’IA. Le déni ne stoppera pas cela. Cela ne fera que nous rendre moins préparés aux risques.


