Anthropic testuje tryb Undercover i agenta Buddy. Wyciek kodu zdradza plany
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Wyciek kodu źródłowego Claude Code to nie tylko techniczny incydent. To okno na to, jak Anthropic widzi przyszłość asystentów AI. Nie chodzi tu o chatboty, które odpowiadają na pytania. Chodzi o agentów, którzy działają w tle, podejmują decyzje i ukrywają swoją aktywność.
Zanim zaczniesz się martwić o Skynet: to wciąż funkcje testowe, które mogą nigdy nie trafić do produkcji. Sam fakt, że Anthropic nad nimi pracuje, mówi sporo o kierunku, w którym zmierza branża.
W kodzie Claude Code znaleziono odniesienia do funkcji "Undercover Mode". Nazwa mówi sama za siebie – to tryb, w którym AI działa bez widocznych oznak swojej aktywności. Żadnych ikonek, żadnych powiadomień, żadnych wskaźników "AI pisze...".
Po co? Najprawdopodobniej chodzi o sytuacje, gdzie obecność AI mogłaby zmienić sposób, w jaki ludzie reagują. Moderacja treści, analiza sentymentu w rozmowach klientów czy automatyczne odpowiedzi w systemach wsparcia. W każdym z tych przypadków widoczna obecność AI może wpłynąć na zachowanie użytkowników.
Problem? Etyczny. Jeśli AI udaje człowieka (lub po prostu nie informuje o swojej obecności), wchodzimy na grząski grunt. Regulacje RODO i AI Act wymagają transparentności – użytkownik ma prawo wiedzieć, czy rozmawia z maszyną. Anthropic wie o tym. W kodzie są również odniesienia do flag "disclosure_required" i "transparency_mode".
Nie każde użycie trybu Undercover to manipulacja. Są scenariusze, gdzie ukryta obecność AI jest po prostu praktyczna:
Różnica między pomocą a manipulacją? Zgoda użytkownika. Jeśli wiesz, że AI działa w tle i możesz to wyłączyć – to narzędzie. Jeśli nie wiesz – to problem.
W kodzie pojawia się nazwa "Buddy" – i to nie jako nazwa funkcji, ale jako osobowość. Odniesienia sugerują, że Buddy to agent AI, który ma działać proaktywnie, nie tylko reaktywnie.
Co to znaczy w praktyce? Zamiast czekać, aż napiszesz "pomóż mi z tym kodem", Buddy sam zauważa, że piszesz funkcję sortującą po raz trzeci w tym tygodniu i podpowiada: "Może stwórzmy helper do tego?". Zamiast odpowiadać na pytania, zadaje je.
Kluczowa różnica: Buddy ma dostęp do Claude Opus 4.6 – modelu, który rozumie kontekst, pamięta historię projektu i potrafi przewidzieć, co będziesz robić dalej.
Kod zawiera również odniesienia do "persistent agent" – agenta, który działa ciągle, nawet gdy nie korzystasz z Claude Code. To fundamentalna zmiana w podejściu do asystentów AI.
Dotychczas asystenci kodowania działali na żądanie: otwierasz edytor, piszesz prompt, dostajesz odpowiedź. Persistent agent to coś więcej – to AI, które:
Efekt? Agent, który zna Twój projekt lepiej niż Ty. Który wie, że ta funkcja w pliku A wpływa na moduł w pliku B, który ostatnio modyfikowałeś. Który pamięta, że nie lubisz używać skrótów w nazwach zmiennych.
Koszt? Prywatność i zasoby. Persistent agent musi mieć stały dostęp do Twojego kodu. Musi działać w tle, zużywając RAM i CPU. I musi gdzieś przechowywać dane o Twoich nawykach – co otwiera pytanie: gdzie i jak długo?
To już drugi wyciek kodu Claude Code w ciągu miesiąca. Pierwszy ujawnił 512 000 linii kodu opublikowanych przypadkowo na npm. Teraz mamy funkcje, które miały pozostać w wewnętrznych testach.
Przypadek? Raczej problem z procesami. Anthropic szybko rośnie – zatrudnili setki inżynierów w ciągu ostatniego roku. Przy takiej skali łatwo o błędy w zarządzaniu dostępem do repozytoriów i procesach publikacji.
Wyciek pokazuje też coś innego: Anthropic testuje funkcje, które OpenAI i Google dopiero planują. Tryb Undercover, persistent agent, proaktywny asystent – to elementy układanki, która ma prowadzić do jednego celu: AI, które nie czeka na rozkazy, tylko samo wie, co robić.
OpenAI ma GPT-5.3-Codex, który specjalizuje się w kodowaniu. Google testuje tryb planowania w Gemini CLI. Microsoft integruje Copilot z każdym narzędziem w ekosystemie. Anthropic musi oferować coś więcej niż "lepszy model" – musi oferować lepsze doświadczenie.
Buddy i tryb Undercover to próba odpowiedzi na pytanie: jak sprawić, by AI było pomocne, nie nachalne? Jak dać mu autonomię, zachowując kontrolę użytkownika? Jak zbudować agenta, któremu można zaufać?
Odpowiedzi jeszcze nie ma. Sam fakt, że Anthropic zadaje te pytania, stawia ich krok przed konkurencją.
Nie wiadomo. Kod zawiera flagi "experimental" i "internal_only" – to oznacza, że funkcje są na wczesnym etapie testów. Anthropic nie skomentowało wycieku, więc nie mamy oficjalnego harmonogramu.
Jeśli historia czegoś nas nauczyła, to tego, że funkcje, które trafiają do kodu produkcyjnego (nawet jako eksperyment), zazwyczaj w jakiejś formie docierają do użytkowników. Może nie jako "Buddy", może nie jako "Undercover Mode" – ale jako coś, co wykorzystuje te same mechanizmy.
Pytanie nie brzmi "czy", tylko "kiedy" i "w jakiej formie". I czy Anthropic zdąży wdrożyć te funkcje, zanim konkurencja zrobi to samo.
Jedno jest pewne: asystenci AI przestają być narzędziami, które uruchamiasz na żądanie. Stają się agentami, które działają w tle, uczą się Twoich nawyków i podejmują decyzje bez pytania o pozwolenie. Czy jesteś na to gotowy?
Na podstawie: Ars Technica
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar