Bug w Claude rozsypał się po całym Cowork. Anthropic zbagatelizował
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Anthropic dostał zgłoszenie o błędzie w swoim chatbocie Claude. Zignorowali je.
Kilka tygodni później ten sam bug pojawił się w Cowork — platformie wykorzystującej Claude'a do współpracy zespołowej. I nagle problem przestał być teoretyczny.
Błąd dotyczył sposobu, w jaki Claude przetwarza kod. Gdy użytkownik prosił chatbota o pomoc w programowaniu, system czasami generował fragmenty kodu zawierające ukryte luki bezpieczeństwa.
Nic dramatycznego na pierwszy rzut oka — zwykły błąd składniowy, który kompilator i tak by wychwycił.
Problem w tym, że Cowork zintegrowało Claude'a głębiej niż typowy chatbot. System automatycznie wstawiał sugerowany kod do projektów zespołowych. Bez dodatkowej weryfikacji. Bo po co? Claude to przecież zaawansowany model AI od renomowanej firmy.
Efekt?
Setki projektów z potencjalnie niebezpiecznym kodem.
Pierwszą osobą, która zauważyła problem, był niezależny badacz bezpieczeństwa. Zgłosił błąd do Anthropic standardową procedurą — przez formularz odpowiedzialnego ujawniania luk (ang. responsible disclosure).
Anthropic odpowiedział po dwóch tygodniach. Wiadomość była krótka: "Dziękujemy za zgłoszenie. Po analizie uznaliśmy, że ryzyko jest minimalne".
Minimalne.
Badacz próbował ponownie — tym razem z dokładniejszą dokumentacją i przykładami. Cisza. Żadnej reakcji przez kolejne trzy tygodnie.
W międzyczasie Cowork wypuścił nową wersję swojej platformy. Z jeszcze głębszą integracją Claude'a.
Określenie "zaraźliwy" (contagious) w tym kontekście to nie metafora. Błąd rzeczywiście się rozprzestrzeniał.
Działo się to tak: programista A prosił Claude'a o pomoc z funkcją. System generował kod z luką. Programista wklejał go do repozytorium zespołu. Programista B widział ten kod, uznawał go za wzorzec (skoro przeszedł przez review, prawda?) i powielał strukturę w swoim module.
I tak błąd wędrował z projektu do projektu.
Nie przez złośliwe oprogramowanie, ale przez zwykłą ludzką skłonność do kopiowania sprawdzonych rozwiązań.
Cowork wykrył problem dopiero gdy jeden z większych klientów — firma fintech — uruchomił automatyczne skanowanie bezpieczeństwa przed deploymentem. Skaner znalazł 47 potencjalnych luk. Wszystkie miały identyczny wzorzec.
Wszystkie pochodziły z sugestii Claude'a.
Gdy Cowork skontaktował się z Anthropic, odpowiedź przyszła szybko. Treść była... rozczarowująca.
"Nasz model działa zgodnie z specyfikacją. Generowany kod jest syntaktycznie poprawny. Odpowiedzialność za weryfikację bezpieczeństwa leży po stronie użytkownika".
Technicznie rzecz biorąc — prawda. Żaden dostawca AI nie gwarantuje, że wygenerowany kod będzie wolny od błędów. To jest zawsze zaznaczone w warunkach użytkowania.
Jest jednak różnica między "kod może zawierać błędy" a "ignorujemy zgłoszenia o systematycznie powtarzającym się problemie bezpieczeństwa".
Cowork ostatecznie musiał:
Jeśli używasz Claude'a, ChatGPT, Gemini czy jakiegokolwiek innego chatbota do pomocy w programowaniu — nic się nie zmieniło. Nadal powinieneś traktować wygenerowany kod jako punkt wyjścia, nie gotowe rozwiązanie.
Prawdziwy problem jest głębszy.
Firmy integrują AI coraz głębiej w swoje produkty. Często bez pełnego zrozumienia ograniczeń tych systemów. Cowork założył, że skoro Anthropic to poważna firma z dużym finansowaniem, to Claude będzie "bezpieczny by default".
Nie jest.
Żaden model AI nie jest.
LLM-y (Large Language Models — czyli "mózgi" takich chatbotów jak Claude) są trenowane na ogromnych zbiorach danych. Uczą się wzorców. Czasami uczą się też złych wzorców — nieefektywnego kodu, przestarzałych praktyk, a nawet podatności bezpieczeństwa, które były obecne w danych treningowych.
Ta historia to studium przypadku tego, co może pójść nie tak, gdy:
Ironia chce, że Anthropic pozycjonuje się jako firma stawiająca na bezpieczeństwo AI. Ich flagowa funkcja "Constitutional AI" ma zapobiegać szkodliwym odpowiedziom. Mają dział odpowiedzialny za etyczne AI.
A jednak podstawowe zgłoszenie buga poszło w las.
Anthropic w końcu wydał łatkę. Nie w formie aktualizacji modelu (to by trwało tygodnie), ale jako dodatkowy filtr po stronie API. Teraz gdy Claude generuje kod, system dodatkowo skanuje go pod kątem znanych wzorców podatności.
Cowork wrócił do automatycznego wstawiania kodu, ale z dwoma zmianami:
Brzmi rozsądnie.
To przypomina coś, co powinno być od początku.
Najważniejsza lekcja jest jednak inna: narzędzia AI są potężne, ale nie nieomylne. Firmy, które je tworzą, też nie. Zgłoszenie bezpieczeństwa nie powinno wymagać medialnego skandalu, żeby zostać potraktowane poważnie.
Bo następnym razem może nie być drugiej szansy na łatkę.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar