Modele AI
Modele AI · 5 min czytania · 16 stycznia 2026

Bug w Claude rozsypał się po całym Cowork. Anthropic zbagatelizował

Bug w Claude rozsypał się po całym Cowork. Anthropic zbagatelizował

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →

Powiązane tematy

Anthropic dostał zgłoszenie o błędzie w swoim chatbocie Claude. Zignorowali je.

Kilka tygodni później ten sam bug pojawił się w Cowork — platformie wykorzystującej Claude'a do współpracy zespołowej. I nagle problem przestał być teoretyczny.

Co się właściwie stało

Błąd dotyczył sposobu, w jaki Claude przetwarza kod. Gdy użytkownik prosił chatbota o pomoc w programowaniu, system czasami generował fragmenty kodu zawierające ukryte luki bezpieczeństwa.

Nic dramatycznego na pierwszy rzut oka — zwykły błąd składniowy, który kompilator i tak by wychwycił.

Problem w tym, że Cowork zintegrowało Claude'a głębiej niż typowy chatbot. System automatycznie wstawiał sugerowany kod do projektów zespołowych. Bez dodatkowej weryfikacji. Bo po co? Claude to przecież zaawansowany model AI od renomowanej firmy.

Efekt?

Setki projektów z potencjalnie niebezpiecznym kodem.

Ostrzeżenia poszły w las

Pierwszą osobą, która zauważyła problem, był niezależny badacz bezpieczeństwa. Zgłosił błąd do Anthropic standardową procedurą — przez formularz odpowiedzialnego ujawniania luk (ang. responsible disclosure).

Anthropic odpowiedział po dwóch tygodniach. Wiadomość była krótka: "Dziękujemy za zgłoszenie. Po analizie uznaliśmy, że ryzyko jest minimalne".

Minimalne.

Badacz próbował ponownie — tym razem z dokładniejszą dokumentacją i przykładami. Cisza. Żadnej reakcji przez kolejne trzy tygodnie.

W międzyczasie Cowork wypuścił nową wersję swojej platformy. Z jeszcze głębszą integracją Claude'a.

Jak bug stał się zaraźliwy

Określenie "zaraźliwy" (contagious) w tym kontekście to nie metafora. Błąd rzeczywiście się rozprzestrzeniał.

Działo się to tak: programista A prosił Claude'a o pomoc z funkcją. System generował kod z luką. Programista wklejał go do repozytorium zespołu. Programista B widział ten kod, uznawał go za wzorzec (skoro przeszedł przez review, prawda?) i powielał strukturę w swoim module.

I tak błąd wędrował z projektu do projektu.

Nie przez złośliwe oprogramowanie, ale przez zwykłą ludzką skłonność do kopiowania sprawdzonych rozwiązań.

Cowork wykrył problem dopiero gdy jeden z większych klientów — firma fintech — uruchomił automatyczne skanowanie bezpieczeństwa przed deploymentem. Skaner znalazł 47 potencjalnych luk. Wszystkie miały identyczny wzorzec.

Wszystkie pochodziły z sugestii Claude'a.

Reakcja Anthropic (czyli jej brak)

Gdy Cowork skontaktował się z Anthropic, odpowiedź przyszła szybko. Treść była... rozczarowująca.

"Nasz model działa zgodnie z specyfikacją. Generowany kod jest syntaktycznie poprawny. Odpowiedzialność za weryfikację bezpieczeństwa leży po stronie użytkownika".

Technicznie rzecz biorąc — prawda. Żaden dostawca AI nie gwarantuje, że wygenerowany kod będzie wolny od błędów. To jest zawsze zaznaczone w warunkach użytkowania.

Jest jednak różnica między "kod może zawierać błędy" a "ignorujemy zgłoszenia o systematycznie powtarzającym się problemie bezpieczeństwa".

Cowork ostatecznie musiał:

  • Wycofać automatyczne wstawianie kodu z Claude'a
  • Powiadomić wszystkich użytkowników o potencjalnym problemie
  • Uruchomić narzędzie do skanowania istniejących projektów
  • Zmierzyć się z pytaniami o to, dlaczego zintegrowali system, który nie przeszedł wystarczającej weryfikacji

Co to oznacza dla ciebie

Jeśli używasz Claude'a, ChatGPT, Gemini czy jakiegokolwiek innego chatbota do pomocy w programowaniu — nic się nie zmieniło. Nadal powinieneś traktować wygenerowany kod jako punkt wyjścia, nie gotowe rozwiązanie.

Prawdziwy problem jest głębszy.

Firmy integrują AI coraz głębiej w swoje produkty. Często bez pełnego zrozumienia ograniczeń tych systemów. Cowork założył, że skoro Anthropic to poważna firma z dużym finansowaniem, to Claude będzie "bezpieczny by default".

Nie jest.

Żaden model AI nie jest.

LLM-y (Large Language Models — czyli "mózgi" takich chatbotów jak Claude) są trenowane na ogromnych zbiorach danych. Uczą się wzorców. Czasami uczą się też złych wzorców — nieefektywnego kodu, przestarzałych praktyk, a nawet podatności bezpieczeństwa, które były obecne w danych treningowych.

Lekcja dla firm budujących z AI

Ta historia to studium przypadku tego, co może pójść nie tak, gdy:

  1. Zaufasz zewnętrznemu API bez własnej warstwy weryfikacji — Cowork wstawiał kod bezpośrednio z Claude'a. Żadnego dodatkowego skanowania, żadnych guardrails.
  2. Dostawca AI nie traktuje poważnie zgłoszeń bezpieczeństwa — Anthropic miał dwa ostrzeżenia. Zignorował oba.
  3. Automatyzacja idzie za daleko — Są rzeczy, które AI może sugerować. I są rzeczy, które AI nie powinno robić automatycznie. Wstawianie kodu produkcyjnego to zdecydowanie ta druga kategoria.

Ironia chce, że Anthropic pozycjonuje się jako firma stawiająca na bezpieczeństwo AI. Ich flagowa funkcja "Constitutional AI" ma zapobiegać szkodliwym odpowiedziom. Mają dział odpowiedzialny za etyczne AI.

A jednak podstawowe zgłoszenie buga poszło w las.

Co dalej

Anthropic w końcu wydał łatkę. Nie w formie aktualizacji modelu (to by trwało tygodnie), ale jako dodatkowy filtr po stronie API. Teraz gdy Claude generuje kod, system dodatkowo skanuje go pod kątem znanych wzorców podatności.

Cowork wrócił do automatycznego wstawiania kodu, ale z dwoma zmianami:

  • Każdy fragment przechodzi przez własny skaner bezpieczeństwa
  • Kod jest oznaczany jako "wygenerowany przez AI" i wymaga manualnej akceptacji przed mergem do głównej gałęzi

Brzmi rozsądnie.

To przypomina coś, co powinno być od początku.

Najważniejsza lekcja jest jednak inna: narzędzia AI są potężne, ale nie nieomylne. Firmy, które je tworzą, też nie. Zgłoszenie bezpieczeństwa nie powinno wymagać medialnego skandalu, żeby zostać potraktowane poważnie.

Bo następnym razem może nie być drugiej szansy na łatkę.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.