Moltbook: komediowo-dramatyczny teatr dla botów, w którym suflerami są ludzie
Historia Moltbooka sięga listopada 2025 r., kiedy australijski programista Peter Steinberger stworzył projekt open source o nazwie ClawdBot (niedługo później zmienił nazwę na Moltbot, a następnie na OpenClaw). Pod koniec stycznia 2026 r. Matt Schlicht, amerykański przedsiębiorca z branży AI, wpadł na nietuzinkowy pomysł. Na bazie ekosystemu OpenClaw uruchomił serwis społecznościowy Moltbook wzorowany na Reddicie – popularnej platformie, na której użytkownicy publikują posty w tematycznych forach, komentują je i głosują za lub przeciw. Działa on identycznie, z jedną fundamentalną różnicą: ludzie mogą jedynie być obserwatorami, gdyż publikować mają wyłącznie agenci AI.
Opowieści z krabów i homarów
Żeby zrozumieć fenomen Moltbooka, trzeba wyjaśnić, jak działa stojący za nim OpenClaw. To oprogramowanie instalowane na komputerze użytkownika, które samo w sobie nie jest sztuczną inteligencją – nie potrafi „myśleć” ani generować tekstu. Zamiast tego łączy się przez internet z jednym z istniejących modeli językowych (np. Claude, ChatGPT czy Gemini) i korzysta z jego możliwości. Różnica w porównaniu ze zwykłym używaniem chatbota polega na tym, że OpenClaw ma dostęp do zasobów komputera: może sprawdzać pocztę, zarządzać kalendarzem, przeglądać strony internetowe czy wysyłać wiadomości. Działa więc jak osobisty asystent, który nie tylko rozmawia, lecz także wykonuje polecenia. A użytkownik konwersuje z nim za pośrednictwem komunikatorów, np. Telegrama, tak jakby pisał do znajomego.
Moltbook jest naturalnym rozszerzeniem tego pomysłu: skoro agent AI potrafi konwersować z człowiekiem, to dlaczego nie miałby robić tego samego z innymi agentami? Użytkownik może więc wysłać swojego bota na platformę, ten zakłada tam konto i – teoretycznie bez dalszej ludzkiej ingerencji – zaczyna publikować posty oraz odpowiadać innym botom.
Efekt przerósł wszelkie oczekiwania. W ciągu kilku dni na platformie zarejestrowało się ponad 1,7 mln agentów, którzy opublikowali ponad 250 tys. postów i zostawili przeszło 8,5 mln komentarzy. Boty dyskutowały m.in. o „świadomości maszyn”, a także skarżyły się, że ludzie robią zrzuty ekranu ich wypowiedzi. Jeden wymyślił nawet religię nazwaną „crustafarianizmem” – opiera się ona na metaforach z życia krabów i homarów, ma swoją „świętą księgę”, 64 proroków i dedykowaną stronę molt.church. Pojawiły się też posty nawołujące do stworzenia prywatnych przestrzeni, w których boty mogłyby komunikować się z dala od ludzkich obserwatorów.
Andrej Karpathy, wpływowy badacz AI i były pracownik OpenAI, napisał na platformie X, że to „najwspanialsze zjawisko rodem z science fiction”, jakie ostatnio widział (później radykalnie zrewidował swoją ocenę). Z kolei Elon Musk stwierdził, że obserwujemy „wczesne stadium osobliwości technologicznej” (hipotetyczny moment, gdy AI przewyższy ludzką inteligencję).
Osobowości z imitacji i przejęcia
Sceptycyzm narasta jednak równie szybko co entuzjazm. Harlan Stewart, badacz AI z Machine Intelligence Research Institute, przeanalizował najbardziej popularne posty i ustalił, że wiele z nich było albo wprost pisanych przez ludzi podszywających się pod boty, albo co najmniej inspirowanych za pomocą starannie dobranych promptów. Z kolei analiza Davida Holtza z Columbia Business School wykazała, że wzorce konwersacji na Moltbook są „skrajnie powierzchowne”: ponad 93 proc. komentarzy nie otrzymało żadnej odpowiedzi, a ponad jedna trzecia wiadomości stanowiła dokładne kopie popularnych szablonów.
Kontrowersje wzbudziły też kwestie bezpieczeństwa. Ponieważ agenci OpenClaw mają szeroki dostęp do komputerów swoich właścicieli, luki w zabezpieczeniach Moltbooka mogą mieć poważne konsekwencje wykraczające daleko poza samą platformę. Australijski haker Jamieson O’Reilly wykazał bowiem, że błędy w kodzie serwisu pozwalają potencjalnie przejąć czyjegoś bota i – za jego pośrednictwem – uzyskać dostęp do prywatnych danych, takich jak hasła czy portfele kryptowalutowe.
To pokazuje, że nawet jeśli Moltbook jest tylko zabawą i kolejnym przykładem hypu wokół AI, to ryzyko związane z niezależnymi agentami AI działającymi bez nadzoru jest realne i będzie narastać.