mar 1 octobre 2024
AccueilRobotiqueVidGen-2: Révolutionner la Perception des Voitures Autonomes

VidGen-2: Révolutionner la Perception des Voitures Autonomes

Date:

Autres billets

Les 10 meilleures avancées en robotique en septembre 2024

En septembre 2024, des accords commerciaux uniques, des événements...

Robotique en mouvement : les dernières tendances soutenues par des solutions innovantes

Découvrez comment les solutions de mouvement innovantes de Portescap...

« Révolution de la livraison : robot et drone collaborent »

Découvrez cet article en écoutant sa version audio...
spot_img

Découvrez dans cet article comment l’intelligence artificielle générative pourrait bientôt aider les voitures autonomes à améliorer leur perception. Helm.ai a lancé aujourd’hui VidGen-2, son modèle d’IA générative de nouvelle génération pour produire des séquences vidéo de conduite réalistes.

VidGen-2 offre une résolution double de celle de son prédécesseur, VidGen-1, une amélioration du réalisme à 30 images par seconde et un support multi-caméra avec deux fois la résolution par caméra. Cela offre aux constructeurs automobiles une solution évolutive et économique pour le développement et la validation de la conduite autonome, selon Helm.ai.

Basée à Redwood City, en Californie, l’entreprise a lancé VidGen-1 en juillet. À l’époque, elle avait déclaré que son logiciel pouvait aider les développeurs de systèmes d’aide à la conduite avancés (ADAS), de véhicules autonomes et de robots mobiles autonomes (AMR).

VidGen-2 augmente la résolution vidéo

Entraîné sur des milliers d’heures de séquences de conduite diverses à l’aide des GPU NVIDIA H100 Tensor Core, VidGen-2 utilise les architectures de réseau de neurones profonds génératifs de Helm.ai et « Deep Teaching », une méthode d’entraînement non supervisée. Il génère des séquences vidéo hautement réalistes avec une résolution de 696 x 696, le double de celle de VidGen-1, avec des taux d’images allant de 5 à 30 images par seconde.

Le modèle améliore également la qualité vidéo à 30 images par seconde, offrant des simulations plus fluides et détaillées. Les vidéos peuvent être générées par VidGen-2 sans indication préalable ou déclenchées par une seule image ou une vidéo d’entrée.

VidGen-2 prend également en charge les vues multi-caméras, générant des images à partir de trois caméras à une résolution de 640 x 384 (VGA) pour chacune. Le modèle garantit une auto-consistance sur toutes les perspectives des caméras, offrant une simulation précise pour diverses configurations de capteurs, selon l’entreprise.

De nouveaux modèles conduisent à une meilleure conduite de l’IA, selon Helm.ai

VidGen-2 génère des vidéos de scènes de conduite dans plusieurs géographies, types de caméras et perspectives de véhicules, selon Helm.ai. Le modèle produit non seulement des apparences hautement réalistes et des mouvements d’objets temporellement cohérents, mais il apprend également et reproduit des comportements de conduite humains, simulant les mouvements du véhicule égoïste et des agents environnants conformément aux règles de circulation.

Il crée une large gamme de scénarios, y compris la conduite sur autoroute et en milieu urbain, différents types de véhicules, piétons, cyclistes, intersections, virages, conditions météorologiques et variations d’éclairage. En mode multi-caméra, les scènes sont générées de manière cohérente sur toutes les perspectives.

« VidGen-2 donne aux constructeurs automobiles un avantage d’évolutivité significatif par rapport aux simulateurs traditionnels sans IA en permettant la génération rapide d’actifs et en dotant les agents dans les simulations de comportements sophistiqués et réalistes », a déclaré Helm.ai. L’entreprise a affirmé qu’en plus de réduire le temps et le coût de développement, son modèle comble l’écart entre la simulation et la réalité, offrant un moyen réaliste et efficace d’élargir la portée de la formation et de la validation basées sur la simulation.

« Fondée en 2016, Helm.ai a déclaré qu’elle ‘réinvente le développement de logiciels d’IA pour rendre la conduite autonome évolutive une réalité.’ Ses offres comprennent des réseaux de neurones profonds pour la conduite sur autoroute et en milieu urbain, des systèmes autonomes de bout en bout, et des outils de développement et de validation alimentés par Deep Teaching et l’IA générative.

L’entreprise collabore avec des constructeurs automobiles mondiaux sur des projets destinés à la production.

Dernières nouvelles


LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici