Google wyłącza niektóre automatyczne odpowiedzi w Gmailu, boi się sugerować płeć

Strona główna Aktualności
Google boi się sugerować płeć osób podczas pisania e-maili
Google boi się sugerować płeć osób podczas pisania e-maili

O autorze

Sztuczna inteligencja jest tak dobra, jak dane, na których będzie uczona. Już wiele razy zdarzyło się, że z powodu braków w danych, SI nierówno traktowała płeć, rasę albo klasę społeczną. Google obawia się takiej wpadki i przesadza w drugą stronę. Z tego powodu SI szykująca gotowe odpowiedzi na e-maile w Gmailu nie będzie proponować żadnych zdań, w których występują zaimki osobowe, jednoznacznie określające płeć.

Automatyczne odpowiedzi na e-maile zostały do Gmaila wprowadzone w maju. Na podstawie wcześniejszej korespondencji, literatury i treści stron internetowych model NLG (Natural Language Generation) podpowiada kilka wariantów treści e-maila, które mogłyby być odpowiedzią. Poza tym, że przez pewien czas automat proponował „kocham cię” jako odpowiedź na wiele różnych wiadomości, użytkownicy przyjęli go dość ciepło.

Już w styczniu odkryty został jednak pewien problem, który bardzo zmartwił kochające poprawność polityczną środowisko w Mountain View. Jeden z analityków zauważył, że w odpowiedzi na informację o spotkaniu z inwestorem, automat podpowiedział: „Czy chcesz się z nim spotkać?” Nie było żadnej propozycji sugerującej, że inwestor może być innej płci. SI założyła, że jest wysokie prawdopodobieństwo, że inwestor to mężczyzna. Zrobiła to zresztą słusznie – tak wynika z danych, na których się uczyła, czyli korespondencji 1,5 miliarda użytkowników Gmaila. Nie od dziś wiadomo, że takie obszary, jak finanse, technika i nauki ścisłe to raczej męski świat. A co, jeśli chodzi o osobę transpłciową?

W języku angielskim można dość swobodnie zatuszować płeć nie używając zaimków, ale jeśli automatyczne odpowiedzi zostaną wprowadzone do innych języków, Google będzie mieć twardy orzech do zgryzienia. Jak nie sugerować, że inwestor jest mężczyzna, jeśli w języku polskim rzeczownik jest rodzaju męskiego?

Z gorylem też się nie udało

Przeczulenie Google'a to zapewne konsekwencja potężnej wpadki z 2015 roku. Aplikacja Google photos dostała wtedy możliwość automatycznego rozpoznawania zawartości zdjęć i dodawania do nich tagów, które możemy przeszukiwać. Zdjęcie dwóch ciemnoskórych osób opisał jako „goryle”. Najwyraźniej model decyzyjny nie miał na czym nauczyć się rozpoznawać ludzi o ciemnej skórze.

Warto dodać, że sprawy zaszły za daleko i tego problemu nie udało się rozwiązać. Po prawie 3 latach walki Google się poddał i zablokował rozpoznawanie goryli.

© dobreprogramy