Logo LeBonLLM
Carnet de code et de réflexions autour de l’IA générative à la française
codecorpuscontributionsconversationscurationlexiquefaqrecherche
Communauté

Pour échanger, demandez l’accès au :

Infolettre

Nous avons le projet d’une infolettre, seriez-vous intéressé ?

Misc
XLinkedInBlueskyMentions légales
Contact

“I don’t Think These Devices are Very Culturally Sensitive.”—Impact of Automated Speech Recognition Errors on African Americans

26/03/2025

Joël Gombin

Tags : ASR, racial bias, African American Vernacular English, machine learning, technology equity, user experience

Cet article explore les biais raciaux dans les systèmes de reconnaissance vocale automatisée (ASR), en se concentrant sur les expériences des utilisateurs afro-américains. Il met en évidence les conséquences psychologiques négatives des erreurs de reconnaissance sur ces utilisateurs, qui se sentent souvent marginalisés par la technologie. En utilisant une étude de journal (diary study), les auteurs suggèrent que des approches linguistiques plus inclusives devraient être adoptées pour améliorer l'ASR et s'assurer que les systèmes tiennent compte des divers dialectes, comme l'anglais vernaculaire afro-américain. Cette recherche souligne l'importance de l'équité dans l'IA et invite à un dialogue entre la technologie et les expériences vécues des utilisateurs.