The New Yorker użył AI do ilustracji o AI. I wyszło dokładnie to
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Znajomy grafik wysłał mi wczoraj screena z Instagrama. "Patrz, co The New Yorker zrobił". Kliknąłem. Portret Sama Altmana – CEO OpenAI – otoczony rojem bezcielesnych twarzy. Część wykrzywiona w gniewie, część z otwartymi ustami w niemym krzyku. Niektóre ledwo przypominają ludzkie oblicze.
Ilustracja do profilu człowieka, który buduje AI. Stworzona przez AI. Widzisz ironię?
The New Yorker opublikował obszerny profil Sama Altmana – materiał o człowieku, który kieruje jedną z najbardziej wpływowych firm AI na świecie. Do zilustrowania tekstu redakcja wybrała pracę Davida Szaudera. Problem? Ilustracja nosi wszystkie charakterystyczne cechy obrazów generowanych przez AI: dziwnie rozmieszczone detale, niejednolita tekstura, twarze balansujące na granicy doliny niesamowitości.
Szauder w komentarzach pod postem na Instagramie przyznał, że użył AI jako "narzędzia pomocniczego". Nie sprecyzował jak dokładnie – czy do szkiców, kolorystyki, czy może całej kompozycji. Redakcja The New Yorker nie dodała żadnej adnotacji przy publikacji. Zero informacji dla czytelnika.

Reakcje? Artyści i czytelnicy pytają wprost: po co? Jeśli piszesz o zagrożeniach i obietnicach AI, czy naprawdę najlepszym pomysłem jest zlecenie ilustracji narzędziu, które właśnie omawiacie w tekście? Szczególnie gdy debata o etyce AI w twórczości trwa w najlepsze.
Tytuł artykułu The Verge mówi wszystko: "Your article about AI doesn't need AI art". Oczywistość. A jednak.
Tekst o kryzysie klimatycznym zilustrowany zdjęciami z elektrowni węglowej. Materiał o bezpieczeństwie danych z grafiką pokazującą wycieki haseł. Kontekst ma znaczenie. Gdy piszesz krytyczny materiał o technologii, która budzi kontrowersje w środowisku artystycznym, używanie tej samej technologii do ilustracji to nie neutralny wybór.
To sygnał.
Techniczne znamiona są wyraźne. Twarze wokół Altmana mają tę charakterystyczną "miękkość" detali, którą widzisz w obrazach z Midjourney czy DALL-E. Niektóre rysy są niemal realistyczne, inne – jakby algorytm zgadywał, gdzie powinien być nos. Oczy patrzą w różnych kierunkach. Proporcje się nie zgadzają.
Dla kogoś, kto codziennie pracuje z narzędziami AI, te sygnały są oczywiste. Dla przeciętnego czytelnika The New Yorker? Pewnie tylko dziwne uczucie, że coś jest nie tak.

AI w ilustracji nie jest z definicji zła. Problem pojawia się, gdy The New Yorker publikuje materiał o człowieku, którego firma zmienia zasady gry dla całych branż – w tym dla artystów grafików. I robi to bez transparentności.
Zero adnotacji. Zero informacji o procesie. Ilustrator przyznaje się dopiero w komentarzach pod postem na Instagramie, gdy czytelnicy zaczynają pytać. Redakcja milczy.
Inne media zaczynają wprowadzać jasne zasady. Associated Press wymaga oznaczania materiałów tworzonych z pomocą AI. Reuters ma podobne wytyczne. The New Yorker? Cisza.
Technologia to jedno. Zaufanie to drugie. Gdy czytam profil Altmana w prestiżowym magazynie, zakładam pewien standard redakcyjny. Zakładam, że jeśli używacie narzędzi, o których piszecie, powiecie mi o tym wprost.

Incydent z The New Yorker to symptom szerszego problemu. Media piszą o AI, ale często nie rozumieją, kiedy jej używać. Albo – co gorsze – używają, bo "wszyscy używają", bez zastanowienia nad kontekstem.
Artykuł o Altmanie to nie recenzja nowego modelu językowego. To profil człowieka i jego firmy, która budzi ogromne kontrowersje. Używanie AI do ilustracji takiego tekstu to jak pisanie o automatyzacji fabryk na klawiaturze wyprodukowanej przez roboty, które właśnie zastąpiły pracowników. Technicznie możliwe? Tak. Odpowiednie? Wątpliwe.
Są konteksty, gdzie generatywne modele działają świetnie. Szybkie mockupy do testów A/B. Koncepty wizualne na wczesnym etapie projektu. Ilustracje do materiałów edukacyjnych o samym AI (z odpowiednim oznaczeniem). Prestiżowy portret do profilu w The New Yorker? To nie ten przypadek.
Szczególnie gdy masz dostęp do setek utalentowanych ilustratorów, którzy mogliby stworzyć coś oryginalnego. Coś, co nie będzie miało tej charakterystycznej "AI-owatości". Coś, co przetrwa dłużej niż cykl newsowy.
Pod postem Szaudera na Instagramie pojawiły się dziesiątki komentarzy. Część artystów wprost: "To zdrada". Inni, bardziej wyważeni: "Rozumiem, że to narzędzie, ale kontekst ma znaczenie".
Nie o luddyzm tu chodzi. Generatywne modele trenowane są na pracach tysięcy artystów – często bez ich zgody i wynagrodzenia. Gdy prestiżowy magazyn używa takiego narzędzia do płatnego zlecenia, wysyła sygnał: wasze prace są materiałem treningowym, a wy – zastępowalni.
Czy Szauder miał złe intencje? Pewnie nie. Czy The New Yorker chciał urazić artystów? Wątpię. Intencje to jedno, skutki – drugie.
Na podstawie: The Verge
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar