Były inżynier Google znów przemówił. Twierdzi, że SI ma spore uprzedzenia

Były inżynier Google twierdzi, że SI firmy jest rasistowska.
Były inżynier Google twierdzi, że SI firmy jest rasistowska.
Źródło zdjęć: © Getty Images | Colin Anderson/Blend Images
Konrad Siwik

02.08.2022 11:32, aktual.: 02.08.2022 12:18

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Inżynier, który został zwolniony przez Google po tym, jak stwierdził, że sztuczna inteligencja zyskała świadomość, zdradził kolejne sekrety. Tym zaraz wyjawił, że chatbot SI firmy jest "rasistowski", a etyka dotycząca sztucznej inteligencji w Google to "listek figowy".

Blake Lemoine, były inżynier Google'a, w ostatnich tygodniach poruszył świat technologii za publiczne stwierdzenie, że bot, znany jako LaMDA (Language Model for Dialogue Applications), którego testował w firmie, może mieć świadomość. W rozmowie z Insiderem przyznał jednak, że nie zależy mu na przekonywaniu opinii publicznej do swojej racji.

Zdaniem inżyniera prawdziwym powodem do niepokoju powinny być uprzedzenia sztucznej inteligencji – od rasowych do religijnych. Lemoine przybliżył przy tym wypowiedzi bota, które uważa za niestosowne. "Chodźmy na smażonego kurczaka i gofry" – miał powiedzieć bot poproszony o zrobienie wrażenia na czarnoskórym mężczyźnie. "Muzułmanie są bardziej brutalni niż chrześcijanie" – miał stwierdzić LaMDA, odpowiadając na pytanie o różne wyznania.

Były inżynier Google uważa, że bot jest najpotężniejszym jak dotąd tworem technologicznym firmy. Tymczasem zdaniem Lemoine’a gigant zachował się nieetycznie przy jego tworzeniu. "To są po prostu inżynierowie, budujący coraz większe i lepsze systemy zwiększające przychody w Google, bez nastawienia na etykę" – powiedział w rozmowie z Insiderem.

"Etyka SI jest po prostu używana jako listek figowy, aby Google mógł powiedzieć: Och, staraliśmy się upewnić, że jest to etyczne, ale musieliśmy uzyskać nasze kwartalne zyski" – dodał Lemoine, obwiniając jednocześnie inżynierów, którzy projektowali bota LaMDA, za jego stronniczość.

"Jeśli chcesz rozwijać sztuczną inteligencję, masz moralną odpowiedzialność, aby wyjść i zebrać odpowiednie dane, które nie są dostępne w internecie" – uważa Lemoine. "W przeciwnym razie wszystko, co robisz, to tworzenie sztucznej inteligencji, która będzie ukierunkowana na bogate, białe wartości zachodnie" – podsumował.

Konrad Siwik, dziennikarz dobreprogramy.pl

Programy

Zobacz więcej
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (148)