Google wyłącza niektóre automatyczne odpowiedzi w Gmailu, boi się sugerować płeć

Sztuczna inteligencja jest tak dobra, jak dane, na których będzie uczona. Już wiele razy zdarzyło się, że z powodu braków w danych, SI nierówno traktowała płeć, rasę albo klasę społeczną. Google obawia się takiej wpadki i przesadza w drugą stronę. Z tego powodu SI szykująca gotowe odpowiedzi na e-maile w Gmailu nie będzie proponować żadnych zdań, w których występują zaimki osobowe, jednoznacznie określające płeć.

Google boi się sugerować płeć osób podczas pisania e-mailiGoogle boi się sugerować płeć osób podczas pisania e-maili

Automatyczne odpowiedzi na e-maile zostały do Gmaila wprowadzone w maju. Na podstawie wcześniejszej korespondencji, literatury i treści stron internetowych model NLG (Natural Language Generation) podpowiada kilka wariantów treści e-maila, które mogłyby być odpowiedzią. Poza tym, że przez pewien czas automat proponował „kocham cię” jako odpowiedź na wiele różnych wiadomości, użytkownicy przyjęli go dość ciepło.

Już w styczniu odkryty został jednak pewien problem, który bardzo zmartwił kochające poprawność polityczną środowisko w Mountain View. Jeden z analityków zauważył, że w odpowiedzi na informację o spotkaniu z inwestorem, automat podpowiedział: „Czy chcesz się z nim spotkać?” Nie było żadnej propozycji sugerującej, że inwestor może być innej płci. SI założyła, że jest wysokie prawdopodobieństwo, że inwestor to mężczyzna. Zrobiła to zresztą słusznie – tak wynika z danych, na których się uczyła, czyli korespondencji 1,5 miliarda użytkowników Gmaila. Nie od dziś wiadomo, że takie obszary, jak finanse, technika i nauki ścisłe to raczej męski świat. A co, jeśli chodzi o osobę transpłciową?

W języku angielskim można dość swobodnie zatuszować płeć nie używając zaimków, ale jeśli automatyczne odpowiedzi zostaną wprowadzone do innych języków, Google będzie mieć twardy orzech do zgryzienia. Jak nie sugerować, że inwestor jest mężczyzna, jeśli w języku polskim rzeczownik jest rodzaju męskiego?

Z gorylem też się nie udało

Przeczulenie Google'a to zapewne konsekwencja potężnej wpadki z 2015 roku. Aplikacja Google photos dostała wtedy możliwość automatycznego rozpoznawania zawartości zdjęć i dodawania do nich tagów, które możemy przeszukiwać. Zdjęcie dwóch ciemnoskórych osób opisał jako „goryle”. Najwyraźniej model decyzyjny nie miał na czym nauczyć się rozpoznawać ludzi o ciemnej skórze.

[twitter=https://twitter.com/jackyalcine/status/615329515909156865]Warto dodać, że sprawy zaszły za daleko i tego problemu nie udało się rozwiązać. Po prawie 3 latach walki Google się poddał i zablokował rozpoznawanie goryli.

Źródło artykułu: www.dobreprogramy.pl
Wybrane dla Ciebie
Zastrzegasz PESEL? Są dwa wyjątki
Zastrzegasz PESEL? Są dwa wyjątki
Możesz stracić fanpage. Wyjątkowo autentyczny atak
Możesz stracić fanpage. Wyjątkowo autentyczny atak
Fałszywy SMS. Oszuści podszywają się pod ZUS
Fałszywy SMS. Oszuści podszywają się pod ZUS
Żabka stworzy kartę płatniczą. Wybrała dużego partnera
Żabka stworzy kartę płatniczą. Wybrała dużego partnera
PKO Bank Polski wydał komunikat. Uważaj, kto dzwoni
PKO Bank Polski wydał komunikat. Uważaj, kto dzwoni
Nowości w mObywatelu. Dodano trzy funkcje
Nowości w mObywatelu. Dodano trzy funkcje
Ważny komunikat Alior Banku. Dotyczy wszystkich klientów
Ważny komunikat Alior Banku. Dotyczy wszystkich klientów
Uznański-Wiśniewski: To AI wybiera, co warto przesłać z orbity
Uznański-Wiśniewski: To AI wybiera, co warto przesłać z orbity
Czarna lista w telefonie. Jak zablokować niechciane połączenia?
Czarna lista w telefonie. Jak zablokować niechciane połączenia?
Nowość w Zdjęciach Google. Wygodniejsza edycja fotografii
Nowość w Zdjęciach Google. Wygodniejsza edycja fotografii
Atak hakerski na Booking. Zdobyli dane klientów
Atak hakerski na Booking. Zdobyli dane klientów
Luka 0-day w Adobe Reader. Wystarczy spreparowany PDF
Luka 0-day w Adobe Reader. Wystarczy spreparowany PDF
NIE WYCHODŹ JESZCZE! MAMY COŚ SPECJALNIE DLA CIEBIE 🎯