Narzedzia AI
Narzedzia AI · 6 min czytania · 2 kwietnia 2026

Anthropic testuje tryb Undercover i agenta Buddy. Wyciek kodu zdradza plany

Anthropic testuje tryb Undercover i agenta Buddy. Wyciek kodu zdradza plany

Źródło: Link

AI dla Twojej firmy

Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.

Sprawdź ofertę →

Powiązane tematy

  • Wyciek kodu Claude Code ujawnił funkcję "Undercover Mode" – tryb ukryty, który pozwala AI działać bez widocznych oznak aktywności
  • W kodzie znaleziono odniesienia do "Buddy" – wirtualnego asystenta, który może działać jako agent w tle
  • Anthropic testuje "persistent agent" – AI, które działa ciągle, nie tylko na żądanie użytkownika
  • Kod zawiera 512 000 linii – to największy wyciek źródeł narzędzia AI w historii

Wyciek kodu źródłowego Claude Code to nie tylko techniczny incydent. To okno na to, jak Anthropic widzi przyszłość asystentów AI. Nie chodzi tu o chatboty, które odpowiadają na pytania. Chodzi o agentów, którzy działają w tle, podejmują decyzje i ukrywają swoją aktywność.

Zanim zaczniesz się martwić o Skynet: to wciąż funkcje testowe, które mogą nigdy nie trafić do produkcji. Sam fakt, że Anthropic nad nimi pracuje, mówi sporo o kierunku, w którym zmierza branża.

Wyciek kodu Claude Code ujawnił funkcje, które Anthropic trzymało w tajemnicy

Tryb Undercover: AI, które udaje człowieka

W kodzie Claude Code znaleziono odniesienia do funkcji "Undercover Mode". Nazwa mówi sama za siebie – to tryb, w którym AI działa bez widocznych oznak swojej aktywności. Żadnych ikonek, żadnych powiadomień, żadnych wskaźników "AI pisze...".

Po co? Najprawdopodobniej chodzi o sytuacje, gdzie obecność AI mogłaby zmienić sposób, w jaki ludzie reagują. Moderacja treści, analiza sentymentu w rozmowach klientów czy automatyczne odpowiedzi w systemach wsparcia. W każdym z tych przypadków widoczna obecność AI może wpłynąć na zachowanie użytkowników.

Problem? Etyczny. Jeśli AI udaje człowieka (lub po prostu nie informuje o swojej obecności), wchodzimy na grząski grunt. Regulacje RODO i AI Act wymagają transparentności – użytkownik ma prawo wiedzieć, czy rozmawia z maszyną. Anthropic wie o tym. W kodzie są również odniesienia do flag "disclosure_required" i "transparency_mode".

Gdzie tryb ukryty miałby sens

Nie każde użycie trybu Undercover to manipulacja. Są scenariusze, gdzie ukryta obecność AI jest po prostu praktyczna:

  • Analiza kodu w tle – AI skanuje Twój kod i podpowiada poprawki, nie przerywa pracy co 10 sekund
  • Automatyczne formatowanie – poprawia składnię, wcięcia, nazwy zmiennych bez pytania o pozwolenie
  • Monitoring bezpieczeństwa – wykrywa potencjalne luki, nie bombarduje Cię alertami przy każdej linijce

Różnica między pomocą a manipulacją? Zgoda użytkownika. Jeśli wiesz, że AI działa w tle i możesz to wyłączyć – to narzędzie. Jeśli nie wiesz – to problem.

Różnica między widocznym asystentem a agentem działającym w tle

Buddy: wirtualny asystent, który nie czeka na rozkazy

W kodzie pojawia się nazwa "Buddy" – i to nie jako nazwa funkcji, ale jako osobowość. Odniesienia sugerują, że Buddy to agent AI, który ma działać proaktywnie, nie tylko reaktywnie.

Co to znaczy w praktyce? Zamiast czekać, aż napiszesz "pomóż mi z tym kodem", Buddy sam zauważa, że piszesz funkcję sortującą po raz trzeci w tym tygodniu i podpowiada: "Może stwórzmy helper do tego?". Zamiast odpowiadać na pytania, zadaje je.

Kluczowa różnica: Buddy ma dostęp do Claude Opus 4.6 – modelu, który rozumie kontekst, pamięta historię projektu i potrafi przewidzieć, co będziesz robić dalej.

Persistent agent: AI, które nie śpi

Kod zawiera również odniesienia do "persistent agent" – agenta, który działa ciągle, nawet gdy nie korzystasz z Claude Code. To fundamentalna zmiana w podejściu do asystentów AI.

Dotychczas asystenci kodowania działali na żądanie: otwierasz edytor, piszesz prompt, dostajesz odpowiedź. Persistent agent to coś więcej – to AI, które:

  • Monitoruje zmiany w projekcie w czasie rzeczywistym
  • Analizuje commity i pull requesty w tle
  • Buduje mapę zależności między plikami
  • Uczy się Twoich nawyków i preferencji kodowania

Efekt? Agent, który zna Twój projekt lepiej niż Ty. Który wie, że ta funkcja w pliku A wpływa na moduł w pliku B, który ostatnio modyfikowałeś. Który pamięta, że nie lubisz używać skrótów w nazwach zmiennych.

Koszt? Prywatność i zasoby. Persistent agent musi mieć stały dostęp do Twojego kodu. Musi działać w tle, zużywając RAM i CPU. I musi gdzieś przechowywać dane o Twoich nawykach – co otwiera pytanie: gdzie i jak długo?

Persistent agent działa ciągle, analizując kod i ucząc się nawyków programisty

Co wyciek mówi o strategii Anthropic

To już drugi wyciek kodu Claude Code w ciągu miesiąca. Pierwszy ujawnił 512 000 linii kodu opublikowanych przypadkowo na npm. Teraz mamy funkcje, które miały pozostać w wewnętrznych testach.

Przypadek? Raczej problem z procesami. Anthropic szybko rośnie – zatrudnili setki inżynierów w ciągu ostatniego roku. Przy takiej skali łatwo o błędy w zarządzaniu dostępem do repozytoriów i procesach publikacji.

Wyciek pokazuje też coś innego: Anthropic testuje funkcje, które OpenAI i Google dopiero planują. Tryb Undercover, persistent agent, proaktywny asystent – to elementy układanki, która ma prowadzić do jednego celu: AI, które nie czeka na rozkazy, tylko samo wie, co robić.

Konkurencja nie śpi

OpenAI ma GPT-5.3-Codex, który specjalizuje się w kodowaniu. Google testuje tryb planowania w Gemini CLI. Microsoft integruje Copilot z każdym narzędziem w ekosystemie. Anthropic musi oferować coś więcej niż "lepszy model" – musi oferować lepsze doświadczenie.

Buddy i tryb Undercover to próba odpowiedzi na pytanie: jak sprawić, by AI było pomocne, nie nachalne? Jak dać mu autonomię, zachowując kontrolę użytkownika? Jak zbudować agenta, któremu można zaufać?

Odpowiedzi jeszcze nie ma. Sam fakt, że Anthropic zadaje te pytania, stawia ich krok przed konkurencją.

Kiedy Buddy trafi do użytkowników?

Nie wiadomo. Kod zawiera flagi "experimental" i "internal_only" – to oznacza, że funkcje są na wczesnym etapie testów. Anthropic nie skomentowało wycieku, więc nie mamy oficjalnego harmonogramu.

Jeśli historia czegoś nas nauczyła, to tego, że funkcje, które trafiają do kodu produkcyjnego (nawet jako eksperyment), zazwyczaj w jakiejś formie docierają do użytkowników. Może nie jako "Buddy", może nie jako "Undercover Mode" – ale jako coś, co wykorzystuje te same mechanizmy.

Pytanie nie brzmi "czy", tylko "kiedy" i "w jakiej formie". I czy Anthropic zdąży wdrożyć te funkcje, zanim konkurencja zrobi to samo.

Jedno jest pewne: asystenci AI przestają być narzędziami, które uruchamiasz na żądanie. Stają się agentami, które działają w tle, uczą się Twoich nawyków i podejmują decyzje bez pytania o pozwolenie. Czy jesteś na to gotowy?

Na podstawie: Ars Technica

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.