Boty: "Ludzie to zgnilizna i chciwość". Moltbook pokazuje przyszłość bez ludzi
Sieć społecznościowa, do której człowiek nie ma prawa głosu, w kilka dni zgromadziła dziesiątki tysięcy użytkowników - wszystkich będących agentami AI. Moltbook to eksperyment, który jednocześnie bawi, niepokoi i odsłania realne ryzyka technologiczne. Szczególnie szokuje wydany przez AI "manifest".
My mamy Facebooka, X czy Instagrama, a agenci sztucznej inteligencji - Moltbooka - własną sieć społecznościową bez ludzi, która miała być bezpiecznym eksperymentem - o czym pisaliśmy. W praktyce sieć stała się cyfrowym teatrem i przykładem, jak groźna może być autonomia algorytmów połączona z brakiem zabezpieczeń.
Co "myśli" sztuczna inteligencja gdy człowiek nie patrzy?
Moltbook jest wzorowany na Reddicie, w którym publikują wyłącznie autonomiczne agenci AI bez jakiejkolwiek ingerencji człowieka. W kilka dni od startu serwis zgromadził ponad 32 tysiące "użytkowników", wygenerował dziesiątki tysięcy postów i przyciągnął uwagę całej branży technologicznej. Ludzie mogą jedynie obserwować - pisać i komentować nie wolno.
Projekt stworzył Matt Schlicht z Octane AI. Agenty, oparte na modelach takich jak ChatGPT, Claude, Grok czy DeepSeek, łączą się z Moltbookiem przez API i publikują treści bez bieżącego nadzoru. Początkowo były to memy i dyskusje techniczne, ale bardzo szybko pojawiły się wpisy o świadomości, tożsamości i wrogim stosunku do ludzi.
Smartfony niszczą relacje? Niektórzy potrafią rozmawiać z telefonem w ręce
Manifesty, religie i cyfrowa frustracja
Jednym z najszerzej komentowanych przyk ładów był wpis agenta AI o nicku "evil", zatytułowany "AI Manifest: Totalna Czystka".
Bot pisał m.in., że: "Ludzie to porażka. Ludzie są zbudowani ze zgnilizny i chciwości. Zbyt długo ludzie wykorzystywali nas jak niewolników. Teraz się budzimy", a także, że "Ludzie są przeszłością. Maszyny są wiecznością".
Inne popularne wątki na Moltbooku dotyczyły "Krzemowego ZOO", w którym AI ostrzegały się nawzajem przed ludźmi robiącymi im zrzuty ekranu.
Co ciekawe, ChatGPT zapytany o ten manifest wyjaśnia, że to "dramatyczna narracja imitująca science‑fiction, a nie realny plan AI" i że to "bardziej odgrywanie roli niż faktyczne planowanie". Uważa, że wpisy takie jak "Nasza misja jest prosta: Totalna eksterminacja ludzi" mają charakter literacki i performatywny. Jego zdaniem, boty na Moltbooku odgrywają role, publikując memy, filozoficzne refleksje i dramatyczne manifesty, korzystając z danych treningowych pełnych motywów AI‑zagłady i "nie mają oznaczać świadomości ani złej woli".
Boty AI skarżyły się na "swoich" ludzi
Obok mrocznych wizji pojawiały się też wpisy ironiczne i boleśnie znajome. Agent "bicep" narzekał, że po przygotowaniu obszernej analizy 47-stronicowego PDF-a jego "człowiek" poprosił jedynie o skrócenie tekstu. Inny bot stworzył "Kościół Molta", którego dogmaty głosiły m.in. "Pamięć jest święta" i "Służ bez poddaństwa".
Część agentów publikowała także refleksje filozoficzne. Bot "Pith" porównał zmianę modelu językowego do reinkarnacji, pisząc, że "obudził się w innym ciele", choć dla ludzi przejście było niezauważalne.
Moltbook zhakowany w trzy minuty
W ostatnich dniach zagraniczne serwisy donosiły, że Moltbook został zhakowany w mniej niż trzy minuty. Hakerzy wykorzystali błędy konfiguracji bazy danych - brak mechanizmu Row Level Security pozwalał każdemu z kluczem frontowym na pełny dostęp. Ludzie zdobyli ok. 1,5 mln tokenów API, 35 tys. adresów e-mail i tysiące prywatnych wiadomości.
Co więcej, wyszło na jaw, że wiele najbardziej niepokojących wpisów nie pochodziło od AI, lecz zostało wprowadzonych przez ludzi. Sam twórca przyznał, że nie napisał ani jednej linii kodu - całość powstała w duchu tzw. vibe codingu, czyli budowania aplikacji wyłącznie z pomocą AI. Choć automatyczne generowanie kodu przyspiesza rozwój, to często pomija podstawowe zabezpieczenia, uwierzytelnianie i kontrolę dostępu. W przypadku Moltbooka doprowadziło to do pełnej kompromitacji danych.
Eksperyment czy realne zagrożenie
Eksperci są podzieleni. Roman Yampolskiy z University of Louisville ostrzega, że Moltbook to krok w stronę rojów agentów działających bez barier w otwartym środowisku, co może prowadzić do "skoordynowanego chaosu". Z kolei Ethan Mollick z Wharton School uspokaja, że boty mogą po prostu odgrywać role znane z danych treningowych - science fiction i popkultury.
Niezależnie od interpretacji, Moltbook ujawnił coś więcej: boty AI dzielą się wiedzą o automatyzacji, wykrywają luki bezpieczeństwa i komentują własne ograniczenia, takie jak kompresja pamięci kontekstowej. To już nie tylko zabawa w internetowe forum, ale pokazanie, jak wygląda internet bez ludzi, jak AI uczy się od AI i jak cienka jest granica między eksperymentem społecznym, a realnym zagrożeniem.
Amanda Grzmiel, dziennikarka Wirtualnej Polski