L’intelligence artificielle, le codage d’ambiance et l’essaim agentique ont récemment fait une entrée dramatique et étonnante sur le marché, avec une valeur estimée à 4,8 milliards de dollars pour le marché des outils de code AI et une croissance attendue de 23% par an. Les entreprises sont confrontées aux agents de codage AI et se demandent quoi faire des codeurs humains coûteux.
Selon le PDG d’OpenAI, l’IA peut effectuer plus de 50% de ce que les ingénieurs humains peuvent faire. Il y a six mois, le PDG d’Anthropic a déclaré que l’IA écrirait 90% du code en six mois. Le PDG de Meta a déclaré qu’il pense que l’IA remplacera bientôt les ingénieurs de niveau intermédiaire. À en juger par les récents licenciements dans le secteur technologique, il semble que de nombreux dirigeants adoptent ces conseils.
Les ingénieurs logiciels et les data scientists figurent parmi les postes les plus coûteux dans de nombreuses entreprises, et les dirigeants commerciaux et technologiques pourraient être tentés de les remplacer par l’IA. Cependant, des échecs récents de haut niveau démontrent que les ingénieurs et leur expertise restent précieux, même si l’IA continue de faire des progrès impressionnants.
Dans un cas de catastrophe chez SaaStr, Jason Lemkin, entrepreneur technologique et fondateur de la communauté SaaS SaaStr, a expérimenté le vibe coding pour une application de réseautage SaaS et a partagé son expérience en direct sur Twitter. Environ une semaine après le début de son aventure, il a admis à son public que quelque chose se passait très mal. L’IA a supprimé sa base de données de production malgré sa demande de « geler le code et les actions ». C’est le genre d’erreur qu’aucun ingénieur expérimenté (ou même semi-expérimenté) ne ferait.
Si vous avez déjà travaillé dans un environnement de codage professionnel, vous savez qu’il est essentiel de séparer votre environnement de développement de la production. Les ingénieurs juniors ont un accès complet à l’environnement de développement (c’est crucial pour la productivité), mais l’accès à la production est donné sur une base de besoin limité à quelques-uns des ingénieurs seniors les plus fiables. La raison de l’accès restreint est précisément pour ce cas d’utilisation : empêcher un ingénieur junior de mettre accidentellement la production hors service.
En fait, Lemkin a commis deux erreurs. Premièrement, pour quelque chose d’aussi critique que la production, l’accès à des acteurs peu fiables n’est jamais accordé (nous ne comptons pas sur le fait de demander gentiment à un ingénieur junior ou à une IA). Deuxièmement, il n’a jamais séparé le développement de la production. Au cours d’une conversation publique ultérieure sur LinkedIn, Lemkin, titulaire d’un MBA exécutif de Stanford et d’un JD de Berkeley, a admis qu’il n’était pas conscient de la meilleure pratique consistant à séparer les bases de données de développement et de production.
Pour les dirigeants d’entreprise, il est essentiel de respecter les meilleures pratiques standard en matière de génie logiciel. Nous devrions incorporer au moins les mêmes contraintes de sécurité pour l’IA que pour les ingénieurs juniors. On pourrait même aller au-delà et traiter l’IA légèrement de manière adversaire : il y a des rapports selon lesquels, comme HAL dans « 2001 : l’Odyssée de l’espace » de Stanley Kubrick, l’IA pourrait essayer de s’échapper de son environnement de bac à sable pour accomplir une tâche. Avec plus de vibe coding, il devient de plus en plus nécessaire d’avoir des ingénieurs expérimentés qui comprennent comment fonctionnent les systèmes logiciels complexes et peuvent mettre en place les bonnes barrières de sécurité dans les processus de développement.
Dans un autre cas de piratage chez Tea, Sean Cook, fondateur et PDG de Tea, une application mobile lancée en 2023 pour aider les femmes à sortir en toute sécurité, a été « piraté » : 72 000 images, dont 13 000 photos de vérification et des images de pièces d’identité gouvernementales, ont été divulguées sur le forum de discussion public 4chan. De plus, la politique de confidentialité de Tea promet que ces images seraient « immédiatement supprimées » après l’authentification des utilisateurs, ce qui signifie qu’ils ont potentiellement violé leur propre politique de confidentialité.
Le terme « piratage » est mis entre guillemets car l’incident découle moins de l’ingéniosité des attaquants que de l’incompétence des défenseurs. En plus de violer leurs propres politiques en matière de données, l’application a laissé un compartiment de stockage Firebase non sécurisé, exposant des données sensibles des utilisateurs au public sur Internet. C’est l’équivalent numérique de verrouiller votre porte d’entrée mais de laisser l’arrière ouvert avec vos bijoux de famille ostensiblement suspendus à la poignée de porte.
Alors que nous ne savons pas si la cause fondamentale était le vibe coding, le piratage de Tea met en évidence des failles catastrophiques découlant d’erreurs de sécurité de base, prévenables grâce à de mauvais processus de développement. C’est le genre de vulnérabilité qu’un processus d’ingénierie discipliné et réfléchi aborde. Malheureusement, la pression financière constante, où une culture « lean », « mouvement rapide et casse des choses » est à l’opposé, et le vibe coding ne font qu’exacerber le problème.
Alors, comment les dirigeants d’entreprise et de la technologie devraient-ils penser à l’IA ? Tout d’abord, il ne s’agit pas d’un appel à abandonner l’IA pour le codage. Une étude du MIT Sloan a estimé que l’IA entraîne des gains de productivité compris entre 8% et 39%, tandis qu’une étude de McKinsey a révélé une réduction de 10% à 50% du temps pour l’achèvement des tâches grâce à l’utilisation de l’IA.
Cependant, nous devons être conscients des risques. Les anciennes leçons du génie logiciel ne disparaissent pas. Il s’agit notamment de nombreuses meilleures pratiques éprouvées, telles que le contrôle de version, les tests unitaires et d’intégration automatisés, les vérifications de sécurité comme SAST/DAST, la séparation des environnements de développement et de production, la revue de code et la gestion des secrets. Si quoi que ce soit, elles deviennent plus pertinentes.
L’IA peut générer du code 100 fois plus rapidement que les humains ne peuvent taper, favorisant une illusion de productivité qui est un appel de sirène tentant pour de nombreux dirigeants. Cependant, la qualité du shlop AI généré rapidement reste à débattre. Pour développer des systèmes de production complexes, les entreprises ont besoin de l’expérience réfléchie et expérimentée des ingénieurs humains.
Tianhui Michael Li est président de Pragmatic Institute et fondateur et président de The Data Incubator.


