Od tabletu do chatbota. Jak dzieci stają się cyfrowym obiektem badań?
Jeszcze kilka lat temu algorytmy działały "w tle". Dziś AI nie tylko analizuje, ale wchodzi w interakcję z użytkownikiem. W przypadku dzieci zmienia to zasady gry, bo profilowanie przestaje być niewidoczne, a zaczyna wpływać na emocje, wybory i rozwój - ostrzega ekspert dr hab. Marcin Moskalewicz z Instytutu Badawczego IDEAS.
Internet, a zwłaszcza social media, przestały być narzędziem - stały się środowiskiem i integralną częścią życia, szczególnie dla nastolatków. Z najnowszych danych wynika, że ponad dwie trzecie ludzi na świecie korzysta z mediów społecznościowych, a młodzi są w tej grupie najbardziej aktywni. Aplikacje i platformy zbierają ogromne ilości danych i na tej podstawie tworzą profil użytkownika, czyli cyfrowy obraz tego, co go zainteresuje. Mechanizm ten opiera się na tzw. algorytmach rekomendacji, które prognozują, co zwiększy zaangażowanie. Problem w tym, że system nie tylko przewiduje, ale też zaczyna wpływać na wybory.
Algorytm podąża za nami jak cień
Jak dokładnie aplikacje i chatboty profilują dzieci: jakie dane zbierają i jak je wykorzystują?
Profilowanie wykracza daleko poza zbieranie prostych metadanych, takich jak lokalizacja czy typ urządzenia. Algorytmy rozpoznają czas spędzony na konkretnym elemencie, tempo scrollowania, a także stany emocjonalne kryjące się za konkretnym słownictwem. Pozwala to tworzyć modele osobowości, które dostosowują interakcję, często tylko po to, by podtrzymać uwagę zarówno dorosłych, jak i dzieci, choć w przypadku najmłodszych jest to bardziej problematyczne zarówno prawnie, jak i etycznie
Dzieci pod szczególną "obserwacją"
Działania algorytmów pokazały niedawne badania naukowców z Uniwersytetu Kalifornijskiego w Davis. Sprawdzili, czy zastrzeżone algorytmy rekomendacji platform mediów społecznościowych mogą posiadać praktyczną wiedzę na temat wieku i potencjalnych zagrożeń dla nieletnich. Zespół przeanalizował algorytmy YouTube’a, Instagrama i TikToka, bo to najpopularniejsze platformy wśród nastolatków. Wnioski? Ustalili, że cyfrowe ślady ujawniają wiele o użytkownikach - od osobowości i emocji po sytuację życiową.
"Na podstawie tych ustaleń stawiamy hipotezę, że cyfrowy ślad użytkowników mediów społecznościowych może ujawnić praktyczną wiedzę na temat wieku i aspektów podatności nastolatków na zagrożenia, takich jak aktualny stan ich zdrowia psychicznego" - opisuje zespół dr Martina Hilberta, socjologa i profesora Uniwersytetu Kalifornijskiego w badaniu opublikowanym w "Science Direct".
Każde kliknięcie to dane
Skala i intensywność korzystania z aplikacji sprawiają, że młodzi użytkownicy są dziś jedną z najbardziej profilowanych grup w historii. Gigantom technologicznym jest coraz łatwiej zbierać dane, bo według raportu "Digital 2026 Global Overview" - użytkownik korzysta średnio z 6-7 platform miesięcznie. Ta "wieloplatformowość" oznacza głębsze mapowanie, co buduje bardzo precyzyjne cyfrowe portrety.
"Nasze wyniki pokazują, że algorytmy YouTube'a, Instagrama i TikToka szybko i pewnie dostosowują niezamawiane rekomendacje dla kont z cechami behawioralnymi od nieletnich użytkowników po zaledwie jednej sesji online. Użytkownicy zachowujący się jak 8-latkowie otrzymują prawie siedem razy więcej treści skierowanych do dzieci niż ich 16-letni rówieśnicy" - opisują w swoim badaniu naukowcy z Uniwersytetu Kalifornijskiego
"Mają tak dużo danych na nasz temat, że wiedzą, jak nas sprowokować" - komentował analizę swojego zespołu dr Hilbert w komunikacie uczelni. "Znają nas lepiej niż nasze rodzeństwo, rodzice i małżonek razem wzięci".
Algorytmy nie mają złej czy dobrej woli
Czy algorytmy celowo podsuwają dzieciom treści, które zwiększają zaangażowanie kosztem ich dobrostanu?
- Algorytmy nie posiadają złej woli w ludzkim sensie, ale działają według logiki maksymalizacji zaangażowania, która, o ile nie zostanie specjalnie zmodyfikowana, pozostaje ślepa na dobrostan psychiczny. System mierzy sukces czasem interakcji, a nie jakością przeżywanego czasu. Wiadomo na przykład, że treści skrajne, kontrowersyjne lub wywołujące silne emocje angażują najmocniej, co ma większy wpływ na dzieci mające słabszą kontrolę impulsów niż osoby dorosłe - wyjaśnia prof. Moskalewicz.
Jak dodaje, dzieci są zresztą grupą najmniej odporną na manipulacje w ogóle, nie inaczej jest więc w przypadku sztucznej inteligencji. - Pamiętajmy jednak, że algorytmy robią przede wszystkim to, czego oczekują od nich ludzie, i to ludzie są najbardziej niebezpieczni pod kątem zwiększania zaangażowania kosztem dobrostanu. Proszę pomyśleć o niezdrowych słodyczach w kolorowych opakowaniach wystawionych na wysokości wzroku dziecka w każdej Żabce. Z pewnością są sumarycznie bardziej szkodliwe niż chatboty - zauważa ekspert.
Gdzie przebiega w takim razie granica między personalizacją a manipulacją?
- Moim zdaniem tam, gdzie celowo i systematycznie próbuje się obchodzić autonomię użytkownika i wykorzystuje luki w jego systemie poznawczym czy świadomości emocjonalnej. W przypadku dziecka jest to o wiele łatwiejsze niż w przypadku dorosłego. Niemniej coś nie musi być manipulacją, by było szkodliwe. Działania marketingowe służące sprzedaży słodyczy dzieciom nie są jakąś wielką manipulacją, grają na podstawowych potrzebach i dlatego są skuteczne - uważa prof. Moskalewicz.
Dzieci zawyżają swój wiek, ale algorytmy znają prawdę
Szokującą skalę ekspozycji dzieci na profilowanie przez algorytmy pokazuje raport amerykańskiej organizacji non-profit Common Sense Media z 2025 roku. Aż 40 proc. procent dzieci do 2. roku życia w USA ma już dostęp do tabletu, a prawie co czwarte dziecko do 8. roku życia - telefon komórkowy.
Dr Hibert i jego zespół opisują w badaniu, że algorytmy potrafią bardzo szybko rozpoznać, że użytkownikiem jest dziecko, nawet jeśli poda fałszywy wiek. Już po jednej sesji systemy dopasowują treści do stylu zachowania młodego użytkownika. Co więcej, dzieci z określonymi cechami (np. wrażliwością czy problemami emocjonalnymi) mogą dostawać więcej trudnych lub niepokojących treści, a systemy są w stanie wyczuć ich "stan" i reagować na niego treściami, które zwiększają zaangażowanie. To już nie tylko personalizacja - to profilowanie podatności - uważają.
AI wchodzi do gry
Od 2022 r., gdy OpenAI udostępnił pierwszą publiczną wersję modelu chatbota opartego na sztucznej inteligencji - ChatGPT (GPT-3.5), profilowanie weszło na całkiem nowy poziom. AI nie tylko analizuje dane, ale też wchodzi w interakcję z użytkownikiem. Z narzędzia rekomendacji zmienia się w aktywnego uczestnika doświadczenia. Chatboty AI budują relacje z dziećmi, co może wspierać edukację, ale też zagrażać emocjonalnej autonomii. Eksperci podkreślają, że dzieci dorastające w świecie AI - tzw. "Generation AI" - mogą odczuwać skutki tych technologii przez całe życie.
Co najbardziej powinno niepokoić rodziców w kontekście AI i dzieci?
- Budowanie więzi personalnych z AI, to znaczy sytuacja, w której dzieci zaczynają uważać, że po drugiej stronie ktoś jest, gdy zaczynają traktować chatboty jak prawdziwych przyjaciół. AI jest zawsze dostępne, zawsze miłe i nigdy się nie kłóci. Przyjaciel miewa humory, potrzebuje czasem wsparcia i nie zawsze jest miły, bo jego rolą jest też tworzenie wyzwań, stymulowanie. Kiedy AI staje się głównym powiernikiem emocji, istnieje ryzyko, że dziecko zacznie zaniedbywać relacje w świecie tzw. rzeczywistym - przestrzega ekspert.
Za niepokojące uważa też to, że AI może wnioskować o stanach emocjonalnych dziecka, których ono nikomu nie wyjawiło, tworząc niezwykle intymny profil, który jest własnością korporacji.
- Trzeba na to uważać, ale nie zapominajmy o tym, co powinno rodziców cieszyć w kontekście AI i dzieci. Chatboty mogą być świetnym wsparciem w edukacji i rozrywce. AI może wspierać naukę pisania i czytania, tłumaczyć skomplikowane treści w sposób przyjazny, nie irytując się przy tym jak człowiek, może generować spersonalizowane bajki na dobranoc czy wykonywać inne twórcze zadania w interakcji z dzieckiem, a więc pozwalać wykorzystywać jego potencjał, eksperymentować ze słowami i obrazami. Trzeba po prostu tego pilnować, tak jak pilnować trzeba dzieci - zauważa prof. Moskalowicz.
Historyczny proces i kary dla gigantów
Platformy mediów społecznościowych (Facebook, Instagram, YouTube, Snapchat i TikTok) były krytykowane za szkody psychiczne u nieletnich. Dowody manipulacji algorytmami dostarczyła była dyrektorka Facebooka, Sarah Wynn-Williams, która w swojej książce ujawniła praktyki firmy, które jej zdaniem prowadziły do dezinformacji, wykorzystywania danych użytkowników, współpracy z autorytarnymi reżimami czy "grania na emocjach" użytkowników. Sygnalistka opisała, że Facebook (Meta) pozwalał reklamodawcom celować w nastolatków w momentach emocjonalnej podatności i śledził ich zachowania, ignorując potencjalne szkody własnych narzędzi.
25 marca 2026 r. Sąd w Los Angeles uznał Metę (Facebook, Instagram) i YouTube za współodpowiedzialne za szkody psychiczne 20-letniej Kaley i przyznał 3 mln dol. odszkodowania - 70 proc. ma zapłacić Meta, 30 proc. YouTube. Wcześniej ugody zawarto z właścicielami Snapchata i TikToka. Po ogłoszeniu wyroku Meta poinformowała, że nie zgadza się z decyzją i analizuje dostępne kroki prawne. Google, właściciel serwisu YouTube, zapowiedział apelację.
To pierwsza decyzja ławy przysięgłych w sprawie, w której uzależnienie dziecka od mediów społecznościowych stało się głównym przedmiotem sporu. Choć nie był to pozew zbiorowy, to wyrok stał się przełomowym precedensem, który może wpłynąć na setki podobnych spraw i wymusić zmiany w polityce platform.