L’intelligence artificielle révolutionne le codage, mais cela a un coût. Claude Code, l’agent IA basé sur terminal d’Anthropic qui peut écrire, déboguer et déployer du code de manière autonome, a suscité l’engouement des développeurs de logiciels du monde entier. Cependant, son prix, allant de 20 à 200 $ par mois en fonction de l’utilisation, a déclenché une rébellion croissante parmi les programmeurs qu’il vise à servir.
Une alternative gratuite gagne en popularité. Goose, un agent IA open source développé par Block (l’ancienne société de technologie financière Square), offre une fonctionnalité presque identique à Claude Code, mais fonctionne entièrement sur la machine locale de l’utilisateur. Pas de frais d’abonnement. Pas de dépendance au cloud. Pas de limites de taux qui se réinitialisent toutes les cinq heures.
Goose offre aux développeurs un contrôle complet sur leur flux de travail alimenté par l’IA, y compris la possibilité de travailler hors ligne, même dans un avion. Le projet a explosé en popularité, avec plus de 26 100 étoiles sur GitHub, la plateforme de partage de code, avec 362 contributeurs et 102 versions depuis son lancement.
Pour les développeurs frustrés par la structure tarifaire de Claude Code et les limitations d’utilisation, Goose représente une option véritablement gratuite et sans engagement pour un travail sérieux.
La nouvelle limite de taux d’Anthropic déclenche une révolte des développeurs. Pour comprendre pourquoi Goose est important, il faut comprendre la controverse sur la tarification de Claude Code. Anthropic offre Claude Code dans le cadre de ses niveaux d’abonnement. Le plan gratuit ne fournit aucun accès. Le plan Pro, à 17 $ par mois avec facturation annuelle (ou 20 $ par mois), limite les utilisateurs à seulement 10 à 40 invites toutes les cinq heures, une contrainte que les développeurs sérieux épuisent en quelques minutes de travail intensif.
Les plans Max, à 100 et 200 $ par mois, offrent plus de marge de manœuvre : 50 à 200 invites et 200 à 800 invites respectivement, plus l’accès au modèle le plus puissant d’Anthropic, Claude 4.5 Opus. Mais même ces niveaux premium viennent avec des restrictions qui ont enflammé la communauté des développeurs.
À la fin de juillet, Anthropic a annoncé de nouvelles limites de taux hebdomadaires. Selon le système, les utilisateurs Pro reçoivent 40 à 80 heures d’utilisation de Sonnet 4 par semaine. Les utilisateurs Max au niveau de 200 $ obtiennent 240 à 480 heures de Sonnet 4, plus 24 à 40 heures d’Opus 4. Près de cinq mois plus tard, la frustration n’a pas diminué.
Le problème ? Ces « heures » ne sont pas réelles. Elles représentent des limites basées sur des jetons qui varient considérablement en fonction de la taille de la base de code, de la longueur de la conversation et de la complexité du code traité. Une analyse indépendante suggère que les limites réelles par session se traduisent à environ 44 000 jetons pour les utilisateurs Pro et 220 000 jetons pour le plan Max de 200 $.
La réaction sur Reddit et les forums de développeurs a été virulente. Certains utilisateurs signalent avoir atteint leurs limites quotidiennes dans les 30 minutes de codage intensif. D’autres ont annulé leurs abonnements, qualifiant les nouvelles restrictions de « blague » et « inutilisables pour un vrai travail ».
Anthropic a défendu les changements, affirmant que les limites affectent moins de cinq pour cent des utilisateurs et ciblent les personnes utilisant Claude Code « continuellement en arrière-plan, 24 heures sur 24 ». Mais la société n’a pas clarifié si ce chiffre se rapporte à cinq pour cent des abonnés Max ou à cinq pour cent de tous les utilisateurs – une distinction qui compte énormément.
Comment Block a construit un agent de codage IA gratuit qui fonctionne hors ligne. Goose adopte une approche radicalement différente du même problème. Conçu par Block, la société de paiements dirigée par Jack Dorsey, Goose est ce que les ingénieurs appellent un « agent IA sur machine ». Contrairement à Claude Code, qui envoie vos requêtes aux serveurs d’Anthropic pour traitement, Goose peut fonctionner entièrement sur votre ordinateur local en utilisant des modèles de langage open source que vous téléchargez et contrôlez vous-même.
La documentation du projet le décrit comme allant « au-delà des suggestions de code » pour « installer, exécuter, éditer et tester avec n’importe quel LLM ». Cette dernière phrase – « n’importe quel LLM » – est le différenciateur clé. Goose est conçu pour être agnostique par rapport au modèle.
Vous pouvez connecter Goose aux modèles Claude d’Anthropic si vous avez accès à l’API. Vous pouvez utiliser GPT-5 d’OpenAI ou Gemini de Google. Vous pouvez le router à travers des services comme Groq ou OpenRouter. Ou – et c’est là que les choses deviennent intéressantes – vous pouvez l’exécuter entièrement localement en utilisant des outils comme Ollama, qui vous permettent de télécharger et d’exécuter des modèles open source sur votre propre matériel.
Les implications pratiques sont significatives. Avec une configuration locale, il n’y a pas de frais d’abonnement, pas de limites d’utilisation, pas de limites de taux et aucune préoccupation concernant l’envoi de votre code à des serveurs externes. Vos conversations avec l’IA restent sur votre machine.
Ce que Goose peut faire que les assistants de code traditionnels ne peuvent pas. Goose fonctionne comme un outil en ligne de commande ou une application de bureau qui peut effectuer de manière autonome des tâches de développement complexes. Il peut construire des projets entiers à partir de zéro, écrire et exécuter du code, déboguer des échecs, orchestrer des flux de travail sur plusieurs fichiers et interagir avec des API externes – le tout sans surveillance humaine constante.
L’architecture repose sur ce que l’industrie de l’IA appelle « l’appel d’outils » ou « l’appel de fonctions » – la capacité pour un modèle de langage de demander des actions spécifiques à des systèmes externes. Lorsque vous demandez à Goose de créer un nouveau fichier, d’exécuter une suite de tests ou de vérifier le statut d’une demande de tirage GitHub, il ne se contente pas de générer du texte décrivant ce qui devrait se passer. Il exécute réellement ces opérations.
Cette capacité dépend fortement du modèle de langage sous-jacent. Les modèles Claude 4 d’Anthropic sont actuellement les meilleurs en matière d’appel d’outils, selon le Berkeley Function-Calling Leaderboard, qui classe les modèles en fonction de leur capacité à traduire les demandes en langage naturel en code exécutable et en commandes système.
Mais de nouveaux modèles open source rattrapent rapidement leur retard. La documentation de Goose met en avant plusieurs options avec un solide support d’appel d’outils : la série Llama de Meta, les modèles Qwen d’Alibaba, les variantes Gemma de Google et les architectures axées sur le raisonnement de DeepSeek.
L’outil s’intègre également au Model Context Protocol (MCP), une norme émergente pour connecter les agents IA à des services externes. Grâce au MCP, Goose peut accéder à des bases de données, moteurs de recherche, systèmes de fichiers et API tiers – étendant ainsi ses capacités bien au-delà de ce que le modèle de langage de base offre.
Configuration de Goose avec un modèle local. Pour les développeurs intéressés par une configuration totalement gratuite et respectueuse de la vie privée, le processus implique trois composants principaux : Goose lui-même, Ollama (un outil pour exécuter des modèles open source localement) et un modèle de langage compatible.
Étape 1 : Installer Ollama. Ollama est un projet open source qui simplifie considérablement le processus d’exécution de grands modèles de langage sur un matériel personnel. Il gère le travail complexe de téléchargement, d’optimisation et de distribution de modèles via une interface simple.
Téléchargez et installez Ollama depuis ollama.com. Une fois installé, vous pouvez extraire les modèles avec une seule commande. Pour les tâches de codage, Qwen 2.5 offre un fort support pour l’appel d’outils :
ollama run qwen2.5
Le modèle se télécharge automatiquement et commence à fonctionner sur votre machine.
Étape 2 : Installer Goose. Goose est disponible en tant qu’application de bureau et interface en ligne de commande. La version de bureau offre une expérience plus visuelle, tandis que l’interface en ligne de commande s’adresse aux développeurs qui préfèrent travailler entièrement dans le terminal.
Les instructions d’installation varient selon le système d’exploitation, mais impliquent généralement de télécharger depuis la page des versions de Goose sur GitHub ou d’utiliser un gestionnaire de paquets. Block fournit des binaires précompilés pour macOS (Intel et Apple Silicon), Windows et Linux.
Étape 3 : Configurer la connexion. Dans Goose Desktop, accédez à Paramètres, puis Configurez le fournisseur, et sélectionnez Ollama. Confirmez que l’hôte de l’API est défini sur http://localhost:11434 (le port par défaut d’Ollama) et cliquez sur Soumettre.
Pour la version en ligne de commande, exécutez goose configure, sélectionnez « Configurer les fournisseurs », choisissez Ollama et saisissez le nom du modèle lorsqu’on vous le demande.
C’est tout. Goose est maintenant connecté à un modèle de langage fonctionnant entièrement sur votre matériel, prêt à exécuter des tâches de codage complexes sans aucun frais d’abonnement ou dépendance externe.
La RAM, la puissance de traitement et les compromis que vous devez connaître. La question évidente : de quel type d’ordinateur avez-vous besoin ? L’exécution de grands modèles de langage localement nécessite beaucoup plus de ressources computationnelles que les logiciels classiques. La contrainte clé est la mémoire – spécifiquement la RAM sur la plupart des systèmes, ou la VRAM si vous utilisez une carte graphique dédiée pour l’accélération.
La documentation de Block suggère que 32 gigaoctets de RAM fournit « une base solide pour des modèles et des sorties plus grands ». Pour les utilisateurs de Mac, cela signifie que la mémoire unifiée de l’ordinateur est le principal goulot d’étranglement. Pour les utilisateurs de Windows et de Linux avec des cartes graphiques NVIDIA discrètes, la mémoire GPU (VRAM) est plus importante pour l’accélération.
Mais vous n’avez pas nécessairement besoin de matériel coûteux pour commencer. Les modèles plus petits avec moins de paramètres fonctionnent sur des systèmes beaucoup plus modestes. Qwen 2.5, par exemple, existe en plusieurs tailles, et les variantes les plus petites peuvent fonctionner efficacement sur des machines avec 16 gigaoctets de RAM.
« Vous n’avez pas besoin d’exécuter les plus grands modèles pour obtenir d’excellents résultats », a souligné Sareen. La recommandation pratique : commencez avec un modèle plus petit pour tester votre flux de travail, puis montez en puissance selon les besoins.
Pour référence, le MacBook Air d’entrée de gamme d’Apple avec 8 gigaoctets de RAM aurait du mal avec la plupart des modèles de codage capables. Mais un MacBook Pro avec 32 gigaoctets – de plus en plus courant parmi les développeurs professionnels – les gère confortablement.
Pourquoi garder votre code hors du cloud est plus important que jamais. Goose avec un LLM local n’est pas un substitut parfait à Claude Code. La comparaison implique de véritables compromis que les développeurs devraient comprendre.
Qualité du modèle : Claude 4.5 Opus, le modèle phare d’Anthropic, reste probablement le meilleur IA pour les tâches d’ingénierie logicielle. Il excelle dans la compréhension des bases de code complexes, le suivi d’instructions nuancées et la production de code de haute qualité dès la première tentative. Les modèles open source ont considérablement progressé, mais un écart persiste – en particulier pour les tâches les plus difficiles.
Un développeur qui est passé au plan Claude Code de 200 $ a décrit la différence de manière tranchante : « Quand je dis ‘rendez cela moderne’, Opus sait ce que je veux dire. D’autres modèles me donnent du Bootstrap de 2015. »
Contexte de fenêtre : Claude Sonnet 4.5, accessible via l’API, offre une fenêtre de contexte d’un million de jetons – suffisante pour charger des bases de code entières sans problèmes de découpage ou de gestion de contexte. La plupart des modèles locaux sont limités à 4 096 ou 8 192 jetons par défaut, bien que beaucoup puissent être configurés pour des contextes plus longs au prix d’une utilisation mémoire accrue et d’un traitement plus lent.
Vitesse : Les services basés sur le cloud comme Claude Code fonctionnent sur du matériel de serveur dédié optimisé pour l’inférence IA. Les modèles locaux, fonctionnant sur des ordinateurs portables grand public, traitent généralement les demandes plus lentement. La différence est importante pour les flux de travail itératifs où vous apportez des modifications rapides et attendez les commentaires de l’IA.
Maturité des outils : Claude Code bénéficie des ressources d’ingénierie dédiées d’Anthropic. Des fonctionnalités comme la mise en cache des invites (qui peuvent réduire les coûts jusqu’à 90 % pour des contextes répétés) et les sorties structurées sont polies et bien documentées. Goose, bien qu’en cours de développement avec 102 versions à ce jour, repose sur des contributions de la communauté et peut manquer de raffinement équivalent dans des domaines spécifiques.
Comment Goose se compare à Cursor, GitHub Copilot et le marché payant de l’IA pour le codage. Goose entre sur un marché saturé d’outils de codage IA, mais occupe une position distinctive. Cursor, un éditeur de code amélioré par IA populaire, facture 20 $ par mois pour son niveau Pro et 200 $ pour Ultra – des tarifs qui reflètent les plans Max de Claude Code. Cursor fournit environ 4 500 demandes Sonnet 4 par mois au niveau Ultra, un modèle d’allocation sensiblement différent des réinitialisations horaires de Claude Code.
Cline, Roo Code et des projets open source similaires offrent une assistance au codage IA mais avec des niveaux d’autonomie et d’intégration d’outils variables. Beaucoup se concentrent sur la complétion de code plutôt que sur l’exécution de tâches agentic qui définit Goose et Claude Code.
CodeWhisperer d’Amazon, GitHub Copilot et les offres d’entreprise des principaux fournisseurs de cloud ciblent les grandes organisations avec des processus d’approvisionnement complexes et des budgets dédiés. Ils sont moins pertinents pour les développeurs individuels et les petites équipes cherchant des outils légers et flexibles.
La combinaison de Goose d’une véritable autonomie, d’une agnosticisme de modèle, d’une opération locale et d’un coût nul crée une proposition de valeur unique. L’outil ne cherche pas à rivaliser avec les offres commerciales en termes de polissage ou de qualité de modèle. Il rivalise en termes de liberté – à la fois financière et architecturale.
L’ère des outils de codage IA à 200 $ par mois pourrait toucher à sa fin. Le marché des outils de codage IA évolue rapidement. Les modèles open source s’améliorent à un rythme qui réduit continuellement l’écart avec les alternatives propriétaires. Les modèles Kimi K2 de Moonshot AI et GLM 4.5 de z.ai se classent désormais près des niveaux de Claude Sonnet 4 – et ils sont disponibles gratuitement.
Si cette trajectoire se poursuit, l’avantage de qualité du modèle qui justifie le prix premium de Claude Code pourrait s’effriter. Anthropic serait alors sous pression pour rivaliser sur les fonctionnalités, l’expérience utilisateur et l’intégration plutôt que sur les capacités brutes du modèle.
Pour l’instant, les développeurs sont confrontés à un choix clair. Ceux qui ont besoin de la meilleure qualité de modèle absolue, qui peuvent se permettre des tarifs premium et qui acceptent les restrictions d’utilisation préféreront Claude Code. Ceux qui priorisent le coût, la vie privée, l’accès hors ligne et la flexibilité ont une véritable alternative en Goose.
Le fait qu’un produit commercial de 200 $ par mois ait un concurrent open source à zéro dollar avec une fonctionnalité de base comparable est remarquable. Cela reflète à la fois la maturation de l’infrastructure


