jeu 31 octobre 2024
AccueilTechnologyTranscriptions hallucinées: les inquiétudes des experts

Transcriptions hallucinées: les inquiétudes des experts

Date:

Autres billets

Archon Biosciences révolutionne les traitements avec des cages d’anticorps innovantes

Archon Biosciences, une startup biotechnologique qui met en œuvre...

Olivia Wilde lance un fonds d’investissement : Proximity Ventures

L'actrice et réalisatrice Olivia Wilde, connue pour ses rôles...

Vinod Khosla : l’avenir radieux de l’humanité avec l’IA

Vinod Khosla est convaincu que l'avenir de l'humanité avec...

Grok AI de xAI : Nouvelles capacités de compréhension d’images

Elon Musk's xAI a ajouté des capacités de compréhension...

« NotebookLlama: L’alternative ouverte aux podcasts AI »

Meta a publié une implémentation "ouverte" de la...
spot_img

Les logiciels d’ingénierie, les développeurs et les chercheurs universitaires expriment de sérieuses préoccupations concernant les transcriptions du service Whisper d’OpenAI, comme le rapporte un article de l’Associated Press.

Bien que la tendance des intelligences artificielles génératives à halluciner ait été largement discutée, il est surprenant de constater que ce problème se retrouve également dans les transcriptions, où l’on s’attendrait à ce que le texte suive de près l’audio transcrit.

Les chercheurs ont rapporté à l’Associated Press que Whisper introduit dans les transcriptions des commentaires raciaux et des traitements médicaux imaginaires, ce qui pourrait être particulièrement problématique dans les hôpitaux et autres contextes médicaux.

Une étude menée par un chercheur de l’Université du Michigan sur des réunions publiques a révélé des hallucinations dans huit transcriptions audio sur dix. Un ingénieur en apprentissage automatique a étudié plus de 100 heures de transcriptions de Whisper et a trouvé des hallucinations dans plus de la moitié d’entre elles. Un développeur a signalé avoir trouvé des hallucinations dans presque toutes les 26 000 transcriptions qu’il a créées avec Whisper.

Un porte-parole d’OpenAI a déclaré que l’entreprise travaille constamment à améliorer la précision de ses modèles, y compris en réduisant les hallucinations, et a souligné que ses politiques d’utilisation interdisent l’utilisation de Whisper dans certains contextes de prise de décision à haut risque.

« Ils ont remercié les chercheurs de partager leurs découvertes », ont-ils déclaré.

Dernières nouvelles


LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici