ChatGPT traci użytkowników. Odinstalowań wzrosło o 295%
Źródło: Link
Źródło: Link
118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.
„Usunąłem ChatGPT dzisiaj rano. Nie chcę, żeby moje dane trafiały do wojska” – taki komentarz pojawił się tysiące razy w mediach społecznościowych po tym, jak OpenAI ogłosiło współpracę z Departamentem Obrony USA. Liczby potwierdzają, że to nie była tylko internetowa burza.
Dane z platform analitycznych pokazują wzrost odinstalowań aplikacji ChatGPT o 295% w ciągu pierwszych 48 godzin po ogłoszeniu kontraktu. Jednocześnie Claude – konkurencyjny asystent AI od Anthropic – odnotował znaczący wzrost pobrań. Użytkownicy głosują portfelami. A właściwie pamięcią telefonu.

295% to nie błąd zaokrąglenia. To prawie trzykrotny wzrost liczby osób, które w ciągu dwóch dni zdecydowały się usunąć ChatGPT ze swoich urządzeń.
Dla porównania: typowy dzienny poziom odinstalowań aplikacji AI oscyluje wokół stabilnego poziomu. Użytkownicy zmieniają narzędzia stopniowo, testują alternatywy, wracają. Tym razem reakcja była gwałtowna i skoordynowana.
Media społecznościowe zapełniły się screenshotami z procesu odinstalowywania, hashtagami #DeleteChatGPT i rekomendacjami alternatyw. Claude, Perplexity, nawet starsze rozwiązania jak Gemini – wszystkie zyskały w tym samym czasie.
Anthropic nie musiało robić nic. Ich aplikacja wskoczyła na drugie miejsce w App Store praktycznie z dnia na dzień. Użytkownicy szukali alternatywy bez powiązań z kontraktami wojskowymi – i znaleźli ją w Claude.
Ironia? Anthropic też pracuje z rządem USA, tyle że w innych obszarach. Różnica polega na komunikacji i percepcji. OpenAI przyznało, że umowa z Pentagonem była „pośpieszna” – i to właśnie ten brak przygotowania do reakcji użytkowników kosztował firmę zaufanie.

Przez ostatnie dwa lata OpenAI budowało wizerunek firmy, która „demokratyzuje AI” i „pracuje dla dobra ludzkości”. Użytkownicy płacili 20 dolarów miesięcznie za ChatGPT Plus, dzielili się prywatnymi danymi, integrowali narzędzie z codzienną pracą.
Kontrakt z Departamentem Obrony – bez względu na jego rzeczywistą treść – wysłał sygnał: priorytety się zmieniły. Dla części użytkowników to był moment, w którym poczuli się zdradzeni. Nie dostali wcześniejszej informacji. Nie było konsultacji. Nie było nawet próby wyjaśnienia decyzji przed jej ogłoszeniem.
OpenAI mogło przygotować grunt. Wyjaśnić, jakie konkretnie zastosowania obejmuje umowa (podobno chodzi o narzędzia analityczne, nie systemy uzbrojenia). Pokazać, jak zabezpieczono dane użytkowników. Dać czas na oswojenie się z decyzją.
Zamiast tego dostaliśmy lakoniczny komunikat prasowy i falę spekulacji. W próżni informacyjnej ludzie wypełniają luki najgorszymi scenariuszami. Stąd komentarze o „danych trafiających do wojska” – choć techniczne zabezpieczenia prawdopodobnie tego nie pozwalają.

Pierwszy raz widzimy tak masową migrację użytkowników między asystentami AI. Do tej pory zmiany były stopniowe – ktoś testował Perplexity do researchu, ktoś próbował Claude do pisania. Teraz mamy exodus napędzany emocjami, nie funkcjonalnością.
Dla firm AI to lekcja: użytkownicy nie są przywiązani do konkretnego narzędzia tak mocno, jak mogłoby się wydawać. Bariery przejścia są niskie – kilka kliknięć i masz nowego asystenta. Lojalność buduje się latami, traci w dni.
Claude zyskało tysiące nowych użytkowników bez wydawania złotówki na marketing. Pytanie, czy Anthropic zdoła ich zatrzymać.
Nowi użytkownicy przyszli z frustracji, nie z przekonania o wyższości produktu. Jeśli Claude nie spełni oczekiwań – albo jeśli Anthropic popełni podobny błąd komunikacyjny – odejdą równie szybko.
Rynek AI staje się coraz bardziej konkurencyjny. DeepSeek V4 z bilionem parametrów czeka za rogiem. Gemini rozwija możliwości wizualne. Użytkownicy mają wybór – i nie boją się z niego korzystać.
Europejscy użytkownicy reagują jeszcze ostrzej niż amerykańscy. Tutaj wrażliwość na kwestie prywatności i militaryzacji technologii jest wyższa – efekt RODO i ogólnej nieufności do Big Tech. Polskie firmy, które zintegrowały ChatGPT z procesami biznesowymi, teraz zastanawiają się, czy nie czas na plan B.
Dodatkowo: umowy z Pentagonem mogą komplikować zgodność z unijnymi regulacjami dotyczącymi transferu danych. Jeśli Twoja firma przetwarza dane osobowe klientów przez ChatGPT, a OpenAI ma kontrakt z rządem USA – prawnik compliance już pewnie puka do drzwi.
OpenAI stoi przed wyborem: podwójnie inwestować w komunikację i odbudowę zaufania, albo zaakceptować, że część użytkowników indywidualnych odejdzie – i skupić się na kontraktach korporacyjnych i rządowych, gdzie marże są wyższe.
Prawdopodobnie pójdą tą drugą drogą. Walka o korporacje nabiera tempa, a wprowadzenie reklam sugeruje, że model biznesowy się zmienia. Użytkownik płacący 20 dolarów miesięcznie to już nie główny klient – to kontrakt z Fortune 500 albo agencją rządową.
Pytanie tylko, czy OpenAI zdaje sobie sprawę, że traci coś więcej niż użytkowników. Traci narrację. Przez lata byli „dobrymi facetami AI” – firmą, która chce dać moc sztucznej inteligencji każdemu. Teraz ta historia się sypie. Odbudowanie jej będzie kosztować więcej niż 295% odinstalowań.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar