jeu 5 février 2026
AccueilIntelligence artificielleLRMs: Penseurs ou Pas?

LRMs: Penseurs ou Pas?

Date:

Ceci pourrait vous plaire




Arcane Visions - Thème astral

Les grands modèles de raisonnement (LLMs) sont au cœur d’un débat récent concernant leur capacité à penser. Apple a publié un article de recherche intitulé « L’illusion de la pensée » dans lequel ils affirment que les LRM ne peuvent pas penser, mais qu’ils se contentent de faire du « pattern-matching ». Cependant, cette argumentation repose sur une base fondamentalement erronée.

Avant de déterminer si les LRM peuvent penser, il est important de définir ce que l’on entend par pensée. La pensée est souvent associée à la résolution de problèmes, impliquant différentes zones du cerveau telles que le cortex préfrontal et pariétal pour la représentation du problème, la simulation mentale avec la mémoire de travail et le discours intérieur, le repérage de motifs et la récupération d’informations avec l’hippocampe et les lobes temporaux, la surveillance et l’évaluation avec le cortex cingulaire antérieur, et l’insight ou le changement de perspective avec le réseau par défaut et l’hémisphère droit.

Il est essentiel de noter que les LRM ne disposent pas de toutes ces capacités, mais cela ne signifie pas pour autant qu’ils sont incapables de penser. Les LRMs s’appuient sur l’apprentissage effectué pendant l’entraînement pour traiter les tâches qui leur sont assignées. Par exemple, un modèle de prédiction de jeton suivant doit stocker en mémoire de travail les informations nécessaires pour prédire le prochain jeton de manière logique.

Il est important de souligner que la capacité des LRMs à penser peut être évaluée par leur performance sur des benchmarks de raisonnement. Même si les LRMs ne surpassent pas toujours les performances humaines, ils peuvent tout de même être considérés comme capables de penser, en fonction de leur capacité de représentation, de leur volume de données d’entraînement et de leur puissance de calcul.

En conclusion, les LRMs ont une capacité certaine à penser, en se basant sur les résultats des benchmarks, la similitude frappante entre le raisonnement CoT et le raisonnement biologique, ainsi que la compréhension théorique selon laquelle tout système avec une capacité de représentation suffisante, une quantité de données d’entraînement adéquate et une puissance de calcul suffisante peut accomplir toute tâche calculable.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici