Les systèmes d’intelligence artificielle doivent être en accord avec les valeurs et les réglementations locales. Afin de répondre à ce besoin croissant, de nombreux pays adoptent des stratégies souveraines en matière d’IA, développant ainsi leur propre infrastructure, leurs données et leur expertise. NVIDIA contribue à cette approche en lançant quatre nouveaux microservices NVIDIA NIM.
Ces microservices sont spécialement conçus pour simplifier la création et le déploiement d’applications d’IA générative adaptées aux besoins locaux. Ils permettent une meilleure compréhension des langues et des nuances culturelles, offrant ainsi des réponses plus précises et pertinentes.
Le marché des logiciels d’IA générative en Asie-Pacifique est en pleine expansion, avec des prévisions indiquant une augmentation des revenus de 5 milliards de dollars à 48 milliards de dollars d’ici 2030. Parmi les nouvelles offres de NVIDIA, on retrouve deux modèles linguistiques régionaux : Llama-3-Swallow-70B, basé sur des données japonaises, et Llama-3-Taiwan-70B, optimisé pour le mandarin. Ces modèles offrent une meilleure compréhension des lois, des réglementations et des subtilités culturelles locales.
La famille de modèles RakutenAI 7B renforce cette offre en langue japonaise. Ces modèles sont disponibles sous forme de microservices distincts pour les fonctions Chat et Instruct. Ils se sont notamment distingués dans le benchmark LM Evaluation Harness, obtenant le score moyen le plus élevé parmi les grands modèles de langage japonais ouverts.
La formation de modèles linguistiques sur des langues régionales est essentielle pour améliorer l’efficacité des résultats. Ces modèles facilitent une communication plus précise et nuancée en tenant compte des spécificités culturelles et linguistiques. Par rapport aux modèles de base, ces variantes régionales démontrent des performances supérieures dans la compréhension des langues, la gestion des tâches juridiques, la réponse aux questions, la traduction et la synthèse de textes.
Cette tendance mondiale en faveur d’une infrastructure d’IA souveraine se reflète dans les investissements importants réalisés par des pays tels que Singapour, les Émirats arabes unis, la Corée du Sud, la Suède, la France, l’Italie et l’Inde.
Les microservices NIM de NVIDIA permettent aux entreprises, aux organismes gouvernementaux et aux universités d’héberger des modèles linguistiques naturels dans leurs propres environnements. Ces microservices offrent la possibilité de créer des copilotes, des chatbots et des assistants IA sophistiqués. Optimisés pour l’inférence avec la bibliothèque open source NVIDIA TensorRT-LLM, ils promettent des performances améliorées et une vitesse de déploiement accrue.
Les microservices Llama 3 70B offrent des gains de performances significatifs, avec un débit jusqu’à 5 fois supérieur. Cela se traduit par une réduction des coûts opérationnels et une expérience utilisateur améliorée grâce à une latence minimisée.
En conclusion, les microservices NVIDIA NIM offrent une solution adaptée aux besoins locaux en matière d’IA, permettant de répondre aux spécificités culturelles et linguistiques de chaque région.