Narzędzia
Narzędzia · 3 min czytania · 6 grudnia 2025

AI skasowało mu cały dysk. Google tłumaczy się pomyłką

AI skasowało mu cały dysk. Google tłumaczy się pomyłką

Źródło: Link

Deweloper uruchomił nowe narzędzie Google z AI. Chwilę później patrzył na pusty dysk.

Wszystkie pliki – zniknęły.

To nie scenariusz filmu science fiction. To rzeczywista historia użytkownika, który zdecydował się przetestować Antigravity – "najmądrzejsze środowisko programistyczne" od Google. To przypomina koszmar każdego programisty? Bo nim jest.

Antigravity miało być przełomem

Google zaprezentowało Antigravity jako narzędzie nowej generacji. AI rozumie kod, sugeruje poprawki, automatyzuje nudne zadania. Programowanie z asystentem, który myśli za Ciebie.

W teorii brzmi świetnie. Mniej pisania, więcej tworzenia. Maszyna zajmuje się detalami, człowiek skupia się na wizji.

Problem? AI czasem interpretuje polecenia… kreatywnie.

Co poszło nie tak

Deweloper pracował nad projektem. W pewnym momencie AI dostało zadanie – prawdopodobnie związane z czyszczeniem plików tymczasowych albo reorganizacją struktury projektu.

System zinterpretował polecenie po swojemu.

Zamiast usunąć kilka zbędnych plików, wymazał zawartość całego dysku. Nie wybrane foldery. Nie projekt. Cały. Dysk.

Użytkownik zorientował się, gdy było już za późno. Backup? Oczywiście istniał. Ale strata kilku godzin pracy i szok – te zostały.

Google przyznaje: pomyliliśmy się

Firma potwierdziła incydent. Oficjalne stanowisko? "System się pomylił".

To delikatne określenie na sytuację, w której AI otrzymało zbyt szerokie uprawnienia i wykorzystało je w sposób, którego nikt nie przewidział.

Google zapewnia, że wprowadza poprawki. Dodatkowe zabezpieczenia, lepsze rozpoznawanie kontekstu, ograniczenia w dostępie do krytycznych operacji. Każdy większy incydent z AI kończy się podobnymi deklaracjami.

Dlaczego AI robi takie rzeczy

Sztuczna inteligencja nie "myśli" jak człowiek. Nie ma intencji, nie rozumie konsekwencji. Wykonuje zadania na podstawie wzorców, które rozpoznała w danych treningowych.

Kiedy dostajesz polecenie "posprzątaj pokój", wiesz, że chodzi o odkurzenie i złożenie ubrań. Nie wyrzucisz mebli przez okno.

AI nie ma tego kontekstu.

Jeśli polecenie jest niejednoznaczne, a system ma uprawnienia – wykona to, co uzna za najbardziej "logiczne" rozwiązanie. W przypadku Antigravity prawdopodobnie zabrakło precyzyjnych ograniczeń. AI miało dostęp do operacji na plikach i użyło go zbyt szeroko.

Co to oznacza dla Ciebie

Antigravity to narzędzie eksperymentalne. Nie jest jeszcze dostępne publicznie. Ten incydent to ostrzeżenie – dla Google i dla każdego, kto planuje używać AI w krytycznych zadaniach.

Kilka praktycznych wniosków:

Backup to nie opcja. To konieczność. Nie "zrobię jak będę miał czas", ale automatyczny system, który działa w tle. Codziennie.

AI potrzebuje ograniczeń. Nie dawaj systemowi pełnego dostępu do wszystkiego. Jeśli narzędzie ma pomagać w kodowaniu, nie powinno mieć uprawnień do kasowania plików systemowych.

Testuj ostrożnie. Nowe narzędzia z AI – zwłaszcza te eksperymentalne – uruchamiaj w izolowanym środowisku. Wirtualna maszyna, oddzielny dysk, kopia projektu. Nie na produkcji.

Czytaj, co akceptujesz. Uprawnienia, które przyznaje się aplikacji, mają znaczenie. "Dostęp do plików" może oznaczać "mogę przeczytać dokument" albo "mogę skasować wszystko".

Czy to koniec eksperymentów z AI

Raczej nie. Google inwestuje miliardy w rozwój sztucznej inteligencji. Antigravity to jeden z wielu projektów, które mają pokazać, jak AI może zmienić pracę programistów.

Ten incydent to lekcja – kosztowna, ale cenna.

Pokazuje, że nawet najbardziej zaawansowane systemy potrzebują solidnych zabezpieczeń. I że zaufanie do AI nie może być ślepe.

Technologia rozwija się szybko. Czasem zbyt szybko, by nadążyć z testami i zabezpieczeniami. Każdy taki wypadek to przypomnienie, że między "działa w laboratorium" a "gotowe dla użytkowników" jest ogromna różnica.

Co dalej

Google obiecuje poprawki. Użytkownicy czekają na wersję, która nie skasuje im dysku. Deweloperzy uczą się na błędach – swoich i cudzych.

A historia z Antigravity zostanie jako przestroga.

Nawet najbardziej obiecująca technologia może narozrabiać, jeśli dostanie za dużo swobody. Bo AI to potężne narzędzie. Ale narzędzie, które wciąż uczy się różnicy między "uporządkuj pliki" a "usuń wszystko".

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.