jeu 5 février 2026
AccueilIntelligence artificielleLightricks révolutionne la création vidéo avec son nouveau modèle d'IA

Lightricks révolutionne la création vidéo avec son nouveau modèle d’IA

Date:

Ceci pourrait vous plaire




Arcane Visions - Thème astral

Lightricks repousse les limites de la création et de l’itération vidéo rapide avec son dernier modèle d’intelligence artificielle. La société affirme que son nouveau modèle de base LTX-2 peut générer du contenu plus rapidement que la vitesse de lecture, tout en relevant la barre en termes de résolution et de qualité.

LTX-2, open-source, peut générer une vidéo stylisée haute définition de six secondes en seulement cinq secondes sans compromis sur la qualité, permettant aux créateurs de produire du contenu professionnel beaucoup plus rapidement qu’auparavant.

Ce modèle de diffusion ajoute progressivement du « bruit » au contenu généré, puis réduit ce bruit jusqu’à ce que le résultat ressemble aux actifs vidéo sur lesquels le modèle a été formé. Avec LTX-2, Lightricks a accéléré ce processus de diffusion, permettant aux créateurs d’itérer sur leurs idées en produisant des prévisualisations en direct presque instantanément.

LTX-2 est capable de générer un audio accompagnant en même temps – que ce soit une bande sonore, un dialogue ou des effets sonores ambiants – accélérant ainsi considérablement les flux de travail créatifs. En proposant une large gamme de contrôles créatifs, Lightricks offre aux utilisateurs beaucoup de flexibilité avec LTX-2.

Lightricks met en avant le fait que son modèle LTX-2 est à la pointe de la génération vidéo par intelligence artificielle, offrant des prix flexibles et une qualité supérieure par rapport aux générations précédentes. Le modèle open-source sera disponible en novembre prochain.

Grâce à l’efficacité du traitement du modèle, Lightricks affirme que le prix de LTX-2 est jusqu’à 50% moins cher que les modèles concurrents, rendant les projets étendus plus économiquement viables, avec une itération plus rapide et une qualité supérieure. Les utilisateurs pourront également utiliser le modèle en téléchargeant la version open-source et en l’exécutant sur des GPU grand public après sa sortie sur GitHub le mois prochain.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici