Czy Siri jest rasistką? Naukowcy próbowali to udowodnić Strona główna Aktualności25.03.2020 11:31 Udostępnij: O autorze Arkadiusz Stando @coldrain W czasopiśmie naukowym Proceedings of National Academy of Sciences opublikowano badanie, którego tytuł sugeruje, że systemy rozpoznawania mowy mają skłonności rasistowskie. Mechanizm wykorzystywany przez Siri dokonał błędnej identyfikacji w 23 proc. wypowiedzi białych ludzi i w 45 proc. pochodzenia afrykańskiego. Coś jest na rzeczy, ale problem nie pojawia się na tle rasowym. Badanie przeprowadzono na mechanizmach stosowanych przez Amazon, Apple, Google, IBM oraz Microsoft. W łącznych statystykach, 35 proc. słów wypowiadanych przez osoby czarnoskóre, zostało błędnie zidentyfikowanych. W przypadku osób o białym kolorze skóry liczba była znacznie mniejsza - 19 proc. Badania przeprowadzono na przełomie maja i czerwca 2019 roku. Jednak nie testowano bezpośrednio Siri, Alexy czy Asystenta Google. Naukowcy wykorzystali narzędzia do rozpoznawania mowy, które udostępniają firmy zewnętrzne, czyli podwykonawcy tych korporacji. Firmy takie jak Google czy Apple wykorzystują je do tworzenia własnych technologii. Tym samym ich produkty prawdopodobnie posiadają podobne wady. Jak zauważył New York Times, mowa Afroamerykanów biorących udział w badaniu, zawierała sporo słów afrykańsko-amerykańskich. Część z nich to po prostu slang w języku angielskim. I głównie to wpłynęło na skalę błędu. Gdy te same zdania wypowiedziały osoby białoskóre, nieodpowiednia interpretacja słów wypadła na tym samym poziomie. Badacze udowodnili jedynie uprzedzenia co do stosowanej terminologii, a nie akcentów czy głosów na podstawie pochodzenia. Jak widać, systemy rozpoznawania mowy nie radzą sobie ze slangiem, który coraz częściej staje się elementem mowy powszechnej. W badaniu najlepiej wypadł system rozpoznawania mowy wykorzystywany przez Microsoft. Zaledwie 15 proc. błędów dla białoskórych i około 27 proc. dla czarnoskórych. Najgorzej poradził sobie system Apple'a. Stosowana w Siri technologia błędnie zinterpretowała 23 proc. słów białoskórych oraz 45 proc. czarnoskórych. Oprogramowanie Sprzęt Internet Udostępnij: © dobreprogramy Zgłoś błąd w publikacji Zobacz także Google połączy Chromecast z Android TV? Są plany nowego Chromecast Ultra 12 mar 2020 Jakub Krawczyński Oprogramowanie Sprzęt SmartDom 19 Ministerstwo Zdrowia i asystent, który odpowie na pytania ws. koronawirusa. W teorii 25 mar 2020 Piotr Urbaniak Internet Koronawirus 7 IBM porzuca technologię rozpoznawania twarzy: jest niemoralna i narusza prawa człowieka 9 cze 2020 Jakub Krawczyński Bezpieczeństwo 29 Google uderza w forki Androida: modyfikujesz, tracisz dostęp do Sklepu Play 12 mar 2020 Piotr Urbaniak Oprogramowanie Biznes 56
Udostępnij: O autorze Arkadiusz Stando @coldrain W czasopiśmie naukowym Proceedings of National Academy of Sciences opublikowano badanie, którego tytuł sugeruje, że systemy rozpoznawania mowy mają skłonności rasistowskie. Mechanizm wykorzystywany przez Siri dokonał błędnej identyfikacji w 23 proc. wypowiedzi białych ludzi i w 45 proc. pochodzenia afrykańskiego. Coś jest na rzeczy, ale problem nie pojawia się na tle rasowym. Badanie przeprowadzono na mechanizmach stosowanych przez Amazon, Apple, Google, IBM oraz Microsoft. W łącznych statystykach, 35 proc. słów wypowiadanych przez osoby czarnoskóre, zostało błędnie zidentyfikowanych. W przypadku osób o białym kolorze skóry liczba była znacznie mniejsza - 19 proc. Badania przeprowadzono na przełomie maja i czerwca 2019 roku. Jednak nie testowano bezpośrednio Siri, Alexy czy Asystenta Google. Naukowcy wykorzystali narzędzia do rozpoznawania mowy, które udostępniają firmy zewnętrzne, czyli podwykonawcy tych korporacji. Firmy takie jak Google czy Apple wykorzystują je do tworzenia własnych technologii. Tym samym ich produkty prawdopodobnie posiadają podobne wady. Jak zauważył New York Times, mowa Afroamerykanów biorących udział w badaniu, zawierała sporo słów afrykańsko-amerykańskich. Część z nich to po prostu slang w języku angielskim. I głównie to wpłynęło na skalę błędu. Gdy te same zdania wypowiedziały osoby białoskóre, nieodpowiednia interpretacja słów wypadła na tym samym poziomie. Badacze udowodnili jedynie uprzedzenia co do stosowanej terminologii, a nie akcentów czy głosów na podstawie pochodzenia. Jak widać, systemy rozpoznawania mowy nie radzą sobie ze slangiem, który coraz częściej staje się elementem mowy powszechnej. W badaniu najlepiej wypadł system rozpoznawania mowy wykorzystywany przez Microsoft. Zaledwie 15 proc. błędów dla białoskórych i około 27 proc. dla czarnoskórych. Najgorzej poradził sobie system Apple'a. Stosowana w Siri technologia błędnie zinterpretowała 23 proc. słów białoskórych oraz 45 proc. czarnoskórych. Oprogramowanie Sprzęt Internet Udostępnij: © dobreprogramy Zgłoś błąd w publikacji