{"id":29149,"date":"2024-11-15T06:37:50","date_gmt":"2024-11-15T06:37:50","guid":{"rendered":"https:\/\/www.techopedia.com\/fr\/?p=29149"},"modified":"2024-11-15T06:37:50","modified_gmt":"2024-11-15T06:37:50","slug":"openai-whisper-faux-texte-transcriptions-audio","status":"publish","type":"post","link":"https:\/\/www.techopedia.com\/fr\/openai-whisper-faux-texte-transcriptions","title":{"rendered":"L’outil OpenAI Whisper ajoute du faux texte dans les transcriptions audio"},"content":{"rendered":"
Des experts s’alarment du taux \u00e9lev\u00e9 d’hallucinations dans l’outil Whisper d’OpenAI et appellent \u00e0 une r\u00e9glementation. En effet, les erreurs peuvent provoquer des risques dans les domaines de la transcription et de la sant\u00e9.<\/strong><\/p>\n Un rapport de l’Associated Press met en \u00e9vidence les graves pr\u00e9occupations des ing\u00e9nieurs logiciels, des d\u00e9veloppeurs et des chercheurs universitaires concernant les erreurs de transcription produites par l’outil Whisper d’OpenAI.<\/p>\n Alors que les hallucinations dans l’IA g\u00e9n\u00e9rative<\/a> sont un d\u00e9fi bien connu pour les chatbots pilot\u00e9s par LLM comme ChatGPT<\/a>, il est surprenant que ce probl\u00e8me affecte \u00e9galement la transcription.<\/p>\n<\/p>\n