Claude Cowork miał dziurę jak szwajcarski ser. Naprawiono
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Anthropic wypuścił narzędzia do współpracy dla Claude'a, żeby programiści mogli szybciej pisać kod z pomocą AI. Dostali też trzy luki bezpieczeństwa, które pozwalały na zdalne wykonanie dowolnego kodu. Naprawiono je w lutym 2025. Sprawa pokazuje coś ważniejszego: im więcej dajemy agentom AI dostępu do naszych systemów, tym więcej punktów wejścia otwieramy dla ataków.
Dobra, powiedzmy to wprost: to nie problem samego Claude'a jako modelu. To problem architektury narzędzi, które mają mu pozwolić działać w Twoim środowisku deweloperskim.
Anthropic przyznał się do trzech podatności w swoich narzędziach współpracy: CVE-2025-0570, CVE-2025-24974 i CVE-2025-24975. Wszystkie dotyczyły wersji od 0.1.0 do 0.1.4. Mechanizm był prosty: atakujący mógł podrzucić złośliwy plik konfiguracyjny .clauderc, a narzędzie Claude go wykonało bez pytania.
Jak to działa w praktyce? Pobierasz repozytorium z GitHuba. Wewnątrz czeka plik .clauderc z poleceniami, które Claude ma wykonać. Tylko że zamiast pomocnych skryptów, ktoś wrzucił tam kod wykradający Twoje dane lub instalujący backdoora. Claude, ufając plikowi, wykonuje go bez weryfikacji.
Anthropic załatał problem w wersji 0.1.5, wydanej 26 lutego 2025. Jeśli używasz narzędzi Claude do współpracy, sprawdź swoją wersję. Coś poniżej 0.1.5? Zaktualizuj natychmiast.
Problem leży w zaufaniu do plików konfiguracyjnych. Wiele narzędzi deweloperskich (nie tylko AI) automatycznie czyta pliki .rc, .env czy .config z katalogu projektu. To wygodne — pozwala dostosować zachowanie narzędzia do konkretnego projektu. Też niebezpieczne, jeśli nie sprawdzasz, co w tych plikach siedzi.
Claude Cowork nie był tu wyjątkiem — po prostu powtórzył błąd, który wcześniej popełniły dziesiątki innych narzędzi. Różnica? Agenci AI mają więcej uprawnień niż typowy linter czy formatter. Mogą modyfikować kod, uruchamiać skrypty, łączyć się z zewnętrznymi API. Większa moc = większe ryzyko.
Jeśli nie jesteś programistką, możesz pomyśleć: "OK, ale ja nie używam Claude do pisania kodu". Prawda. Ten przypadek pokazuje coś szerszego: agenci AI działający w Twoim środowisku potrzebują dodatkowej warstwy kontroli. Nie wystarczy dać im dostęp i liczyć, że "AI wie, co robi".
Każde narzędzie, które pozwala AI na wykonywanie poleceń w Twoim systemie — czy to Claude, GitHub Copilot, czy cokolwiek innego — tworzy nowy wektor ataku. Każdy punkt integracji to potencjalna dziura w zabezpieczeniach.
Anthropic nie jest tu osamotniony. Vibe coding — pisanie kodu "na czuja" z pomocą AI — staje się coraz popularniejszy. Programiści polegają na agentach AI, które generują kod szybciej, niż zdążysz go przeczytać. Problem? Ten kod często nie przechodzi podstawowych testów bezpieczeństwa.
Znam to. Używasz AI do pisania kodu, oszczędzasz czas, czujesz się produktywny. Każdy wygenerowany fragment powinien przejść przez code review. Każde narzędzie AI powinno działać w sandboxie, z ograniczonymi uprawnieniami.
Zrób jedną rzecz: jeśli używasz narzędzi Claude do współpracy (lub jakichkolwiek innych agentów AI w swoim środowisku deweloperskim), sprawdź ich wersje i upewnij się, że są aktualne. Brzmi banalnie? Większość ataków wykorzystuje stare, nieaktualizowane narzędzia.
Poza tym:
.rc, .env i podobnychAnthropic zareagował szybko — luka została zgłoszona, załatana i opisana w ciągu kilku tygodni. To dobry znak. Gorszy znak? Że taka luka w ogóle się pojawiła w narzędziu, które miało ułatwiać współpracę z AI.
Ta historia to nie "Claude jest niebezpieczny" ani "agenci AI to zagrożenie". To raczej: "Narzędzia wokół AI rozwijają się szybciej, niż zdążamy je zabezpieczyć". Panika wokół bezpieczeństwa Claude'a pokazała, że rynek reaguje nerwowo na każdy sygnał o lukach w AI. I słusznie — stawka rośnie.
Im więcej firm wdraża agentów AI do codziennej pracy, tym więcej powierzchni ataku powstaje. Nie da się tego uniknąć. Można za to kontrolować ryzyko: aktualizacje, testy, audyty, ograniczenia uprawnień. Nudne? Tak. Skuteczne? Też tak.
Jeśli Twoja firma myśli o wdrożeniu agentów AI (czy to do pisania kodu, analizy danych, czy obsługi klienta), zadaj sobie pytanie: kto będzie pilnował, żeby te narzędzia nie otworzyły drzwi na oścież? Jak pokazuje przypadek Claude Cowork, czasem wystarczy jeden plik konfiguracyjny.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar