Google wycofuje niektóre podsumowania AI. Mogą być mylące
Po doniesieniach o niebezpiecznie mylących odpowiedziach AI serwowanych w Google obok klasycznych wyników wyszukiwania, firma zablokowała niektóre podsumowania AI. Wyłączono te, które dotyczyły zapytań medycznych.
Na początku stycznia, dziennik The Guardian ujawnił liczne przypadki, w których podsumowania AI w Google udzielały nieprawidłowych i potencjalnie szkodliwych odpowiedzi na zapytania medyczne. Wyniki te, jak zauważają eksperci, mogły prowadzić do nieodpowiednich decyzji zdrowotnych użytkowników.
Jednym z najbardziej niebezpiecznych przykładów był przypadek, gdy system zalecał osobom z rakiem trzustki unikanie produktów o dużej zawartości tłuszczu. Specjaliści podkreślili, że taka rada jest niezgodna ze stanem nauki i może narazić pacjentów na poważne konsekwencje zdrowotne. Wskazali, że powinno być wręcz odwrotnie – wysokotłuszczowa dieta często jest wskazana w tej chorobie.
Inny niepokojący przypadek dotyczył fałszywych informacji na temat zakresów norm badań wątrobowych. Tego typu odpowiedzi AI mogły uśpić czujność osób z poważnymi schorzeniami wątroby, dając mylne poczucie zdrowia, podczas gdy sytuacja zdrowotna wymagałaby pilnej interwencji lekarskiej.
W reakcji na ustalenia medialne, Google wyłączył funkcję podsumowań AI dla wyszukiwań dotyczących norm badań krwi wątroby. Po wpisaniu pytań takich jak "jaki jest prawidłowy zakres badań wątroby?" użytkownik nie otrzymuje obecnie generowanej odpowiedzi AI, a jedynie klasyczne wyniki wyszukiwania w Google.
Chociaż rzecznik Google nie odniósł się do szczegółowych przypadków powielonych w śledztwie, przekazał The Verge: "Inwestujemy znaczne środki w jakość podsumowań AI, szczególnie w tematach zdrowotnych, i w większości przypadków informacje te są precyzyjne. Nasi pracownicy medyczni przeanalizowali przekazane nam przykłady i często uznali je za poprawne lub poparte rzetelnymi źródłami. Gdy trafiamy na luki kontekstowe, wprowadzamy poprawki szerzej, a w razie konieczności podejmujemy działania zgodnie z polityką firmy".
To nie pierwszy raz, gdy funkcja podsumowań AI pojawia się w mediach jako przedmiot kontrowersji. W przeszłości narzędzie Google radziło w innych kontekstach m.in. smarowanie pizzy klejem lub jedzenie kamieni.
Oskar Ziomek, redaktor prowadzący dobreprogramy.pl