Reżyserka testowała Sora. Zobaczyła w AI coś niepokojącego
Źródło: Link
Źródło: Link
Znajoma graficzka pokazała mi wczoraj "idealny" portret wygenerowany przez AI. Perfekcyjna skóra, symetryczna twarz, niebieskie oczy. "Piękne, prawda?" – zapytała. Spojrzałem na serię podobnych obrazów. Wszyscy wyglądali jak z tego samego katalogu.
Valerie Veatch zobaczyła to samo. I postanowiła sprawdzić, skąd się to bierze.
Gdy OpenAI udostępniło Sora publicznie w 2024 roku, Veatch zareagowała jak większość twórców – z ciekawością. Nie rozumiała do końca technologii, ale chciała sprawdzić możliwości. Dołączyła do społeczności artystów eksperymentujących z generatywnym wideo.
To, co tam zobaczyła, skłoniło ją do stworzenia dokumentu "Ghost in the Machine". Film nie jest technologiczną krytyką. To analiza wartości, które AI wchłonęło z danych treningowych i teraz bezkrytycznie reprodukuje.
Veatch zauważyła wzorzec. Społeczności twórców AI promowały specyficzną estetykę: idealnie symetryczne twarze, określone proporcje ciała, wąski zakres kolorów skóry. Przypominało to coś niepokojąco znajomego – standardy piękna z eugeniki początku XX wieku.
Modele generatywne uczą się na ogromnych zbiorach danych z internetu. Veo 3.1 od Google czy Luma AI analizują miliony obrazów i filmów, wyciągając z nich wzorce. Problem? Te wzorce odzwierciedlają historyczne uprzedzenia.
Veatch pokazuje w filmie konkretne przykłady. Prosisz AI o "profesjonalistę" – dostajesz białego mężczyznę w garniturze. "Pielęgniarka"? Kobieta. "Przestępca"? Osoba o ciemniejszej karnacji. AI nie wymyśla tych skojarzeń – kopiuje je z danych, które odzwierciedlają stereotypy społeczne.
To nie jest błąd techniczny. To cecha systemu.
Reżyserka zwraca uwagę na kolejny aspekt – promowanie wąskiego ideału piękna. Algorytmy generują twarze, które użytkownicy oceniają jako "atrakcyjne". Te oceny wracają do systemu jako sygnał wzmacniający. Efekt? AI uczy się, że pewne cechy są "lepsze" od innych.
Symetria, młodość, jasna skóra, określone proporcje – te parametry dominują w wynikach. Dane treningowe zawierają nadreprezentację takich obrazów. Hollywood, reklamy, media społecznościowe – wszystko to trafia do modelu jako "prawda" o tym, jak powinien wyglądać człowiek.
Veatch nie oskarża poszczególnych artystów. Pokazuje mechanizm systemowy. Społeczności twórców AI działają jak wzmacniacz – nagradzają określone style, promują konkretne estetyki. Użytkownicy generują obrazy, które dobrze wyglądają w feedzie. Algorytmy uczą się z tych obrazów. Cykl się zamyka.
Film dokumentuje, jak w grupach na Discordzie i Reddicie powstają niepisane standardy "dobrego" Wideo AI. Określone palety kolorów, kompozycje, typy postaci. Odchylenie od normy oznacza mniej uwagi, mniej polubień, mniejszą widoczność.
To przypomina historyczne ruchy eugeniczne, które również operowały na estetyce i "poprawianiu" ludzkości przez promowanie określonych cech. Różnica? Tamte ruchy działały przez politykę i przymus. AI działa przez kulturę i algorytmy.
Veatch zadaje kluczowe pytanie: kto ustala, co jest "normalne"? Jeśli chodzi o modele generujące wideo, odpowiedź brzmi: dane treningowe plus społeczności użytkowników. Oba źródła mają wbudowane uprzedzenia.
Dane z internetu nadreprezentują określone grupy – głównie białych mieszkańców krajów rozwiniętych, którzy tworzyli większość treści online w ostatnich dekadach. Społeczności użytkowników? Również nie są reprezentatywne dla globalnej populacji.
Efekt: AI uczy się wąskiej definicji "normalności" i reprodukuje ją jako uniwersalny standard.
Veatch nie postuluje zakazu AI. Jej film to ostrzeżenie: jeśli nie interweniujemy świadomie, technologia utrwali najgorsze wzorce z przeszłości. Modele generatywne nie mają moralnego kompasu – mają dane i optymalizację pod kątem popularności.
Reżyserka wskazuje na możliwe rozwiązania. Różnorodne zespoły tworzące dane treningowe. Świadome kuratorowanie zbiorów uczących. Transparentność w dokumentowaniu uprzedzeń. Edukacja użytkowników o mechanizmach działania AI.
Także – krytyczne spojrzenie na własne wybory. Gdy generujesz obraz "idealnej osoby", zastanów się: czyj ideał reprodukujesz? Skąd pochodzi ta definicja piękna? Kogo wyklucza?
W Polsce używamy głównie modeli trenowanych na danych anglojęzycznych. Oznacza to import nie tylko technologii, ale też kulturowych założeń wbudowanych w algorytmy. Gdy AI generuje nostalgię, odnosi się do amerykańskich lat 80., nie polskich. Gdy tworzy "typową rodzinę", bazuje na wzorcach z Hollywood, nie z Mazowsza.
To nie jest neutralny transfer technologii. To import cudzej wizji normalności.
"Ghost in the Machine" nie daje prostych odpowiedzi. Veatch pokazuje mechanizm i zostawia widza z pytaniem: co z tym zrobimy? Czy pozwolimy, by AI utrwalało historyczne uprzedzenia? Czy zbudujemy systemy świadome własnych ograniczeń?
Film przypomina, że technologia nie jest neutralna. Każdy model AI to skompresowana wizja świata wynikająca z danych treningowych, decyzji projektowych i kulturowych założeń twórców. Gdy chińskie firmy tworzą własne modele, wbudowują w nie inne wartości niż amerykańskie korporacje.
Pytanie brzmi: czy jesteś świadomy, czyje wartości reprodukujesz, gdy klikasz "generuj"?
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar