La startup en informatique photonique Lightmatter a levé 400 millions de dollars pour éliminer l’un des principaux goulets d’étranglement des centres de données modernes. La couche d’interconnexion optique de l’entreprise permet à des centaines de GPU de travailler de manière synchronisée, simplifiant le coûteux et complexe processus de formation et d’exécution de modèles d’IA.
L’essor de l’IA et ses exigences de calcul immenses ont propulsé l’industrie des centres de données, mais ce n’est pas aussi simple que de brancher un millier de GPU supplémentaires. Comme le savent depuis des années les experts en informatique haute performance, peu importe à quelle vitesse chaque nœud de votre supercalculateur est si ces nœuds sont inactifs la moitié du temps en attendant que les données arrivent.
La couche d’interconnexion ou les couches sont vraiment ce qui transforme les racks de CPU et de GPU en une seule machine géante – ainsi plus l’interconnexion est rapide, plus le centre de données est rapide. Et il semble que Lightmatter construit la couche d’interconnexion la plus rapide de loin, en utilisant les puces photoniques qu’elle développe depuis 2018.
« Les hyperscalers savent que s’ils veulent un ordinateur avec un million de nœuds, ils ne peuvent pas le faire avec des commutateurs Cisco. Une fois que vous quittez le rack, vous passez d’une interconnexion à haute densité à essentiellement une tasse sur un fort », a déclaré Nick Harris, PDG et fondateur de l’entreprise, à TechCrunch. L’état de l’art, a-t-il déclaré, est NVLink et en particulier la plateforme NVL72, qui met 72 unités Nvidia Blackwell câblées ensemble dans un rack, capable d’un maximum de 1,4 exaFLOPs en précision FP4. Mais aucun rack n’est une île, et tout ce calcul doit être extrait à travers 7 téraoctets de mise en réseau « scale up ». Cela semble beaucoup, et ça l’est, mais l’incapacité à relier ces unités plus rapidement les unes aux autres et à d’autres racks est l’un des principaux obstacles à l’amélioration des performances.
Alors, qu’apporte Lightmatter à la table? De la fibre. Beaucoup, beaucoup de fibre, routée à travers une interface purement optique. Avec jusqu’à 1,6 téraoctets par fibre (en utilisant plusieurs couleurs) et jusqu’à 256 fibres par puce… eh bien, disons simplement que 72 GPU à 7 téraoctets commencent à sonner positivement désuets.
« La photonique arrive beaucoup plus vite que ce que les gens pensaient – les gens se sont battus pour la faire fonctionner pendant des années, mais nous y sommes », a déclaré Harris. « Après sept ans de labeur absolument meurtrier », a-t-il ajouté.
L’interconnexion photonique actuellement disponible auprès de Lightmatter atteint 30 téraoctets, tandis que le câblage optique sur rack est capable de permettre à 1 024 GPU de travailler de manière synchronisée dans leurs propres racks spécialement conçus. Le marché pour cela est énorme, Harris a souligné, avec toutes les grandes entreprises de centres de données, de Microsoft à Amazon en passant par de nouveaux entrants comme xAI et OpenAI, montrant une appétence sans fin pour le calcul. Beaucoup de ces hyperscalers sont déjà clients, même si Harris n’en nommerait aucun. « Pensez à Lightmatter un peu comme une fonderie, comme TSMC », a-t-il déclaré. « Nous ne choisissons pas de favoris ou n’associons pas notre nom aux marques des autres. Nous fournissons une feuille de route et une plateforme pour eux – simplement aider à faire croître le gâteau. »