“I don’t Think These Devices are Very Culturally Sensitive.”—Impact of Automated Speech Recognition Errors on African Americans
26/03/2025
•Joël Gombin
•Tags : ASR, racial bias, African American Vernacular English, machine learning, technology equity, user experience
Cet article explore les biais raciaux dans les systèmes de reconnaissance vocale automatisée (ASR), en se concentrant sur les expériences des utilisateurs afro-américains. Il met en évidence les conséquences psychologiques négatives des erreurs de reconnaissance sur ces utilisateurs, qui se sentent souvent marginalisés par la technologie. En utilisant une étude de journal (diary study), les auteurs suggèrent que des approches linguistiques plus inclusives devraient être adoptées pour améliorer l'ASR et s'assurer que les systèmes tiennent compte des divers dialectes, comme l'anglais vernaculaire afro-américain. Cette recherche souligne l'importance de l'équité dans l'IA et invite à un dialogue entre la technologie et les expériences vécues des utilisateurs.