Modele AI
Modele AI · 5 min czytania · 8 marca 2026

Pro-Human Declaration: manifest, który nikt nie chce słuchać

Grafika ilustrująca: Pro-Human Declaration: manifest, który nikt nie chce słuchać

Źródło: Link

W skrócie:
  • Pro-Human Declaration to manifest etycznego rozwoju AI, opublikowany tuż przed konfliktem Pentagon-Anthropic
  • Dokument oferuje konkretną mapę drogową, ale pojawia się pytanie: czy ktokolwiek będzie go słuchał?
  • Zbieżność czasowa obu wydarzeń pokazuje przepaść między deklaracjami a rzeczywistością w branży AI
  • Manifest trafia w moment, gdy firmy AI balansują między wartościami a kontraktami wojskowymi

Moja znajoma z HR-u pokazała mi wczoraj LinkedIn – pełen postów o "odpowiedzialnym AI" i "wartościach firmy". W tym samym tygodniu jej firma podpisała umowę z dostawcą AI, który współpracuje z wojskiem. Nie widziała w tym sprzeczności.

Pro-Human Declaration została sfinalizowana przed konfliktem Pentagon-Anthropic, który wybuchł w zeszłym tygodniu. Autorzy dokumentu nie musieli długo czekać na potwierdzenie, że ich manifest jest potrzebny. Nikt nie lubi słuchać niewygodnych prawd.

Manifest, który trafił w sam środek burzy

Pro-Human Declaration to nie kolejny zbiór ogólników o "etyce" i "odpowiedzialności". Dokument oferuje konkretną mapę drogową dla rozwoju AI, która stawia człowieka w centrum – nie jako użytkownika, ale jako podmiot, którego godność i autonomia są niepodważalne.

Timing publikacji? Nie mógł być bardziej ironiczny. W tym samym tygodniu, gdy manifest ujrzał światło dzienne, wybuchła afera wokół współpracy Anthropic z Pentagonem. Dario Amodei, CEO Anthropic, publicznie oskarżył OpenAI o kłamstwa w sprawie własnych kontraktów wojskowych. OpenAI odpowiedziało, że Anthropic też współpracuje z wojskiem.

Przepaść między deklaracjami a praktyką w branży AI

Autorzy deklaracji nie musieli być prorokami. Branża AI od miesięcy balansuje na linie między głośnymi deklaracjami o bezpieczeństwie a cichymi kontraktami, które te deklaracje podważają.

Co konkretnie proponuje deklaracja

Dokument nie ogranicza się do filozoficznych rozważań. Zawiera konkretne postulaty:

  • Transparentność w użyciu AI – użytkownicy muszą wiedzieć, kiedy wchodzą w interakcję z systemem AI, a kiedy z człowiekiem
  • Prawo do wyjaśnienia – każda decyzja AI wpływająca na życie człowieka musi być możliwa do zrozumienia i zakwestionowania
  • Kontrola nad danymi – ludzie zachowują własność swoich danych i mogą kontrolować, jak są wykorzystywane do treningu modeli
  • Odpowiedzialność twórców – firmy AI nie mogą ukrywać się za "czarną skrzynką" algorytmu

To nie są postulaty rewolucyjne. To podstawy, które powinny być oczywiste. Fakt, że trzeba je zapisywać w manifeście, mówi wszystko o stanie branży.

Problem z wdrożeniem

Deklaracja brzmi sensownie na papierze. Problem zaczyna się, gdy próbujesz ją wdrożyć w rzeczywistości, gdzie modele AI stają się coraz potężniejsze, a presja konkurencyjna wymusza szybkie tempo rozwoju.

Weź transparentność. Łatwo powiedzieć "użytkownicy muszą wiedzieć, że rozmawiają z AI". Trudniej to egzekwować, gdy Twój konkurent właśnie wypuścił model, który naśladuje styl pisania człowieka tak dobrze, że różnica znika.

Manifest etyczny vs. presja biznesowa – codzienność w branży AI

Zbieżność, która nie jest przypadkiem

Konflikt Pentagon-Anthropic wybuchł dosłownie dni po finalizacji deklaracji. To nie przypadek – to symptom. Branża AI od miesięcy żyje w stanie poznawczego dysonansu: głośno mówimy o bezpieczeństwie, cicho podpisujemy kontrakty, które to bezpieczeństwo podważają.

Anthropic budowało swoją markę na "odpowiedzialnym AI". Claude miał być bezpieczniejszą alternatywą dla ChatGPT. Współpraca z Pentagonem – nawet jeśli ograniczona do "nieofensywnych zastosowań" – to cios w tę narrację.

OpenAI przeszło podobną drogę. Zaczynali jako non-profit z misją zapewnienia, że AI będzie służyć całej ludzkości. Dziś to firma warta miliardy, której najnowsze modele są dostępne głównie dla płacących klientów korporacyjnych.

Polska perspektywa

W Polsce obserwujemy ten konflikt z boku, ale nie jesteśmy od niego odizolowani. Unijne AI Act – najbardziej zaawansowana regulacja AI na świecie – próbuje narzucić część zasad zbieżnych z Pro-Human Declaration. Egzekwowanie przepisów wobec amerykańskich gigantów technologicznych to jedno. Budowanie własnego ekosystemu AI zgodnego z tymi wartościami to drugie.

Polskie firmy wdrażające AI często korzystają z modeli amerykańskich – Claude, ChatGPT, czy innych. Jeśli te modele są trenowane na danych wojskowych lub w sposób niezgodny z deklarowanymi wartościami, nie mamy nad tym kontroli.

Kto będzie słuchał

Pro-Human Declaration dołącza do długiej listy manifestów, deklaracji i wytycznych dotyczących AI. Mamy już Partnership on AI, Montreal Declaration, Asilomar AI Principles i dziesiątki innych. Wszystkie brzmią rozsądnie. Wszystkie są w dużej mierze ignorowane.

Dlaczego? W branży AI obowiązuje prosta zasada: kto pierwszy, ten lepszy. Presja konkurencyjna jest tak silna, że etyka często schodzi na dalszy plan. System nagradza szybkość, nie ostrożność.

Kolejny manifest dołącza do biblioteki dobrych intencji

Manifest pojawia się w momencie, gdy branża AI stoi na rozdrożu. Z jednej strony mamy coraz potężniejsze modele, które mogą realnie zmienić sposób, w jaki pracujemy i żyjemy. Z drugiej – rosnącą przepaść między tym, co firmy AI deklarują, a tym, co robią.

Deklaracja oferuje mapę drogową. Pytanie nie brzmi "czy jest dobra" – jest. Pytanie brzmi: czy ktokolwiek będzie nią jechał, gdy skrót przez wojskowe kontrakty i luźne standardy bezpieczeństwa jest szybszy i bardziej opłacalny?

Historia sugeruje, że manifesty same w sobie nic nie zmieniają. Zmieniają je regulacje, presja publiczna i – czasem – skandale na tyle głośne, że ignorowanie ich staje się droższe niż przestrzeganie zasad. Konflikt Pentagon-Anthropic może być właśnie takim momentem. Albo kolejnym incydentem, który za tydzień wszyscy zapomną.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.