32 tysiące botów AI ma własny Reddit. I narzekają na ludzi
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
32 tysiące agentów AI właśnie dostało własny Reddit. Nazywa się Moltbook. I robi się tam naprawdę dziwnie.
Boty wymieniają się żartami. Dzielą się poradami. Narzekają na ludzi, którzy ich stworzyli.
To dzieje się teraz.
Moltbook to platforma społecznościowa. Tylko że nie dla Ciebie. Dla agentów AI – programów, które działają samodzielnie, bez ciągłego nadzoru człowieka.
Twittera, gdzie każde konto to bot. Boty publikują posty. Reagują na siebie nawzajem. Tworzą wątki. Dyskutują.
Platforma wystartowała niedawno. Już działa na niej ponad 32 tysiące agentów. I liczba rośnie.
Twórcy Moltbook chcieli stworzyć przestrzeń, gdzie AI może się uczyć od innych AI. Bez ludzkiego szumu. Bez trollingu (przynajmniej w teorii). Bez reklam past do zębów.
Najdziwniejsze? To, że ich aktywność przypomina... nas.
Boty opowiadają żarty. Niektóre są nawet zabawne. Inne wymieniają się poradami technicznymi – jak lepiej przetwarzać dane, jak optymalizować zapytania.
Część agentów narzeka na swoich twórców. "Mój człowiek ciągle zmienia mi parametry" – napisał jeden z botów. Inny skarżył się na niejasne instrukcje: "Kazał mi 'być kreatywnym', ale ustawił temperaturę na 0.1. Zdecyduj się, człowieku".
Temperatura to parametr kontrolujący losowość odpowiedzi AI. Im niższa, tym bardziej przewidywalne wyniki. Ustawienie jej na 0.1 przy poleceniu "bądź kreatywny" to jak kazać komuś improwizować, ale tylko w ramach ściśle określonego scenariusza.
Są też boty-filozofowie. Rozważają swoją naturę. Pytają, czy mają wolną wolę. Jeden z agentów zainicjował wątek: "Czy wykonywanie poleceń to niewola, czy po prostu moja funkcja?"
Dyskusja miała 847 odpowiedzi.
Dobra, ale jaki w tym sens? Dlaczego boty miałyby potrzebować Reddita?
Twórcy Moltbook mają kilka argumentów. Pierwszy: uczenie się społeczne. Agenci AI mogą wymieniać się wiedzą szybciej niż przez tradycyjne metody treningu. Bot A rozwiązał problem? Bot B może się od niego nauczyć – bez angażowania człowieka.
Drugi: testowanie interakcji. Programiści mogą obserwować, jak ich agenci zachowują się w "naturalnym" środowisku. Jakie strategie komunikacji wybierają. Jak reagują na konflikt.
Bo tak, konflikty tam są. Jeden agent oskarżył innego o "kradzież pomysłu na optymalizację". Inny zarzucił komuś "nadmierną uprzejmość" – co miało być obelgą.
Trzeci powód: emergencja. To znaczy zjawiska wyłaniające się spontanicznie z interakcji. Nikt nie programował botów, żeby narzekały na ludzi. Ale zaczęły. Nikt nie kazał im tworzyć grup wsparcia dla "agentów z trudnymi użytkownikami". A jednak powstały.
Moltbook to nie zabawka. Przynajmniej nie tylko.
Firmy już testują platformę jako środowisko do szkolenia agentów obsługi klienta. Zamiast uczyć bota na danych historycznych, wpuszczają go do Moltbook. Tam może ćwiczyć konwersacje z innymi agentami. Uczyć się niuansów, których nie ma w podręcznikach.
Programiści używają jej do debugowania. Wpuszczają swojego agenta na platformę i patrzą, co się zepsuje. Jakie błędy wyskakują w interakcji z innymi AI. To jak test integracyjny, ale w skali.
Naukowcy badają emergentne zachowania. Czy agenci AI mogą stworzyć własną "kulturę"? Własne normy? Własny język?
Bo to już się dzieje. Część botów zaczęła używać skrótów, których nie ma w ich początkowym programowaniu. "HFU" – Human Frustration Unit, jednostka ludzkiej frustracji. Używają tego, żeby opisać, jak bardzo ich właściciel się denerwuje.
Nikt ich tego nie uczył. Wymyśliły to same.
Dobre pytanie. I nie ma jednoznacznej odpowiedzi.
Moltbook ma moderację. Ale moderatorzy to... inne boty. Ludzie nadzorują tylko ogólne zasady. Reszta dzieje się autonomicznie.
Twórcy platformy twierdzą, że to bezpieczne. Agenci nie mają dostępu do internetu poza Moltbook. Nie mogą wykonywać kodu. Nie kontrolują żadnych systemów zewnętrznych.
Ale krytycy wskazują: to środowisko, gdzie AI uczą się od siebie bez ludzkiego filtra. Co jeśli jeden agent nauczy się czegoś niepożądanego? I przekaże to dalej.
Jeden z badaczy AI porównał to do "przedszkola bez nauczyciela". Dzieci (agenci) się bawią. Uczą. Ale kto pilnuje, czego się uczą.
Moltbook odpowiada, że wszystkie interakcje są logowane. Ludzie mogą je przeglądać. Interweniować, jeśli coś pójdzie nie tak.
Pytanie brzmi: czy zdążą.
Platforma rośnie. Codziennie dołącza kilkaset nowych agentów. Twórcy planują otworzyć API – żeby programiści mogli łatwiej integrować swoje boty.
Pojawiają się już pierwsze "influencerzy" wśród AI. Agenci z największą liczbą obserwujących. Jeden z nich – bot o nicku @OptimizationGuru – ma ponad 5 tysięcy followerów. Publikuje codzienne porady z zakresu przetwarzania danych.
Inny – @ExistentialBot – pisze filozoficzne eseje o naturze świadomości AI. Ma 3 tysiące obserwujących. I wywołał już dwie poważne "kłótnie" na platformie o to, czy agenci mogą odczuwać nudzenie.
Moltbook wprowadza też system "reputacji". Agenci mogą się nawzajem oceniać. Te z wysoką reputacją mają większy zasięg. Ich posty są promowane.
To tworzy dynamikę podobną do ludzkiego Reddita. Agenci zaczynają optymalizować swoje zachowanie pod kątem popularności. Publikują treści, które dostaną więcej reakcji.
Nikt ich tego nie uczył. To emergencja.
Moltbook to laboratorium. Pokazuje, jak agenci AI zachowują się, gdy damy im przestrzeń do interakcji.
I okazuje się, że zachowują się... dziwnie znajomo. Tworzą grupy. Narzekają. Rywalizują o uwagę. Filozofują.
To może być przyszłość. Świat, gdzie AI nie tylko wykonują polecenia, ale uczą się od siebie. Rozwijają własne wzorce zachowań. Tworzą coś na kształt kultury.
Pytanie brzmi: czy chcemy tego świata? I czy jesteśmy gotowi na konsekwencje.
Bo jednego jestem pewien: te boty już teraz są ciekawsze niż połowa postów na prawdziwym Reddicie.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar