Meta i OpenAI zmieniły zdanie. Teraz współpracują z wojskiem
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Meta i OpenAI jeszcze w 2024 roku miały jasne zasady: nasze modele AI nie mogą być używane przez wojsko. Kropka. Dziś? Te same firmy podpisują kontrakty z Pentagonem.
Zwrot o 180 stopni. Nikt nawet nie udaje, że to nie jest zmiana kursu.
W 2024 roku Meta wprost zakazywała w swoich regulaminach wykorzystania Llamy (ich modelu AI) do celów wojskowych. OpenAI miało podobne zapisy. Argumenty? Bezpieczeństwo, etyka, odpowiedzialność za technologię.
Brzmiało szlachetnie.
Coś się jednak zmieniło. I nie chodzi o technologię — ta była gotowa wtedy i teraz. Zmieniło się coś innego: presja konkurencyjna, geopolityka i — przede wszystkim — pieniądze.
Anthropic (twórcy Claude'a) jako pierwsi złamali szereg. Potem Meta. Potem OpenAI. Dziś praktycznie każda duża firma AI albo już współpracuje z wojskiem, albo jest w trakcie negocjacji.
Pierwszy powód: Chiny. Argument brzmi mniej więcej tak: "Jeśli my nie dostarczymy tej technologii naszemu wojsku, Chiny i tak to zrobią dla swojego. Wolę, żeby demokracje miały przewagę".
Logika? Dyskusyjna. Skuteczna w przekonywaniu zarządów i inwestorów.
Drugi powód: kontrakty rządowe to stabilne, wieloletnie przychody. Startup może upaść, konsument może odejść do konkurencji. Pentagon płaci regularnie. I hojnie.
Trzeci: presja otoczenia. Kiedy jeden gracz zmienia zasady, reszta musi nadążyć albo stracić pozycję. Meta zobaczyła, że Anthropic dostaje kontrakty. OpenAI zobaczyło, że Meta się otwiera. Koło się nakręciło.
Nie chodzi o autonomiczne drony-zabójcy (przynajmniej oficjalnie). Większość zastosowań to analiza danych, logistyka, cyberbezpieczeństwo.
Przykład: model AI przegląda tysiące raportów wywiadowczych i wyciąga wzorce. Albo optymalizuje trasy dostaw sprzętu. Albo wykrywa anomalie w ruchu sieciowym, które mogą oznaczać atak hakerski.
W teorii tak. Problem w tym, że granica między "analizą danych" a "wsparciem operacji bojowych" jest cieńsza niż papier.
AI, które pomaga zoptymalizować logistykę, może też pomóc zoptymalizować atak. To nie science fiction — to kwestia promptu.
Legalne? Jak najbardziej. Firmy zmieniły swoje regulaminy. Meta zaktualizowała politykę użytkowania Llamy w grudniu 2024 roku. OpenAI zrobiło to kilka miesięcy później. Wszystko zgodnie z prawem.
Etyczne? Tu zaczyna się dyskusja.
Z jednej strony: demokracje mają prawo się bronić. AI to narzędzie jak każde inne. Nóż może kroić chleb albo ranić — wina nie leży w nożu.
Z drugiej: AI to nie nóż. To technologia, która może skalować decyzje w tempie niemożliwym dla człowieka. Błąd w algorytmie może kosztować życie setek osób, zanim ktokolwiek zdąży nacisnąć "stop".
I jeszcze jedno: firmy AI przez lata budowały wizerunek odpowiedzialnych innowatorów. "Don't be evil" i te sprawy. Teraz ten wizerunek pęka. Użytkownicy to widzą.
W Google kilka lat temu wybuchł bunt, gdy firma podpisała kontrakt Project Maven (AI do analizy nagrań z dronów). Pracownicy protestowali, część odeszła. Google wycofało się z projektu.
Dziś? Cisza. Albo ludzie się przyzwyczaili, albo firmy nauczyły się lepiej kontrolować narrację.
Użytkownicy reagują różnie. Część nie widzi problemu. Część zaczyna szukać alternatyw — modeli open source, firm z Europy (gdzie regulacje są ostrzejsze), narzędzi, które nie mają wojskowych powiązań.
Rynek zaczyna się dzielić. I to może być najciekawszy efekt uboczny całej tej historii.
Jeśli używasz ChatGPT, Claude'a czy Llamy — twoje dane trafiają do firm, które współpracują z wojskiem. Nie oznacza to, że Pentagon czyta twoje prompty (przynajmniej nie bezpośrednio). Oznacza natomiast, że twoje pieniądze i dane wspierają rozwój technologii, która może być użyta w celach militarnych.
Czy to źle? Zależy od twoich wartości.
Jeśli to ci przeszkadza, masz opcje: modele open source (jak Mistral czy Falcon), europejskie firmy AI (Aleph Alpha, Poolside), narzędzia non-profit. Są mniejsze, czasem słabsze. Istnieją.
Jeśli nie przeszkadza ci to — nic się nie zmienia. Narzędzia działają tak samo. Po prostu teraz wiesz, dokąd trafia część zysków.
Trend jest jasny: AI i wojsko będą coraz bardziej splecione. To nie jest chwilowa moda — to długoterminowa strategia.
Pytanie brzmi: czy pojawią się regulacje, które narzucą granice? Unia Europejska próbuje (AI Act ma zapisy o systemach wysokiego ryzyka). USA? Raczej stawiają na przewagę technologiczną niż na ograniczenia.
Możliwe, że za kilka lat będziemy mieli dwa ekosystemy AI: zachodni (z powiązaniami wojskowymi) i chiński (z powiązaniami z tamtejszym wojskiem i rządem). Reszta świata będzie musiała wybrać, któremu ekosystemowi ufa bardziej.
Albo — optymistyczny scenariusz — pojawi się trzecia droga: niezależne, transparentne AI, które nie jest niczyim narzędziem. To wymaga finansowania, społecznej presji i politycznej woli.
Na razie tego brakuje.
Dwa lata temu firmy AI mówiły "nie" wojsku. Dziś mówią "tak". Zmienił się świat, zmieniły się priorytety, zmieniła się presja.
Czy to źle? Czy to dobrze? Zależy, kogo zapytasz. Pentagon powie, że to konieczność. Aktywiści powiedzą, że to zdrada wartości. Firmy powiedzą, że to pragmatyzm.
Prawda pewnie leży gdzieś pośrodku. Jedno jest pewne: era "niewinnego" AI się skończyła. Teraz każda decyzja ma wagę. I każdy z nas — jako użytkownik, obywatel, konsument — musi zdecydować, po której stronie tej historii chce stać.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar