Claude ma problem z kreatywnością: każdy programista to Marcus Chen
Źródło: Link
Źródło: Link
Szkolenia, warsztaty i wdrożenia AI. Dopasowane do Twojego zespołu.
Poproś Claude'a o stworzenie fikcyjnego programisty do przykładu kodu. Potem zrób to jeszcze raz. I jeszcze.
Za każdym razem dostaniesz tego samego gościa – Marcus Chen.
To przypomina błąd? To systematyczny wzorzec. I wcale nie przypadkowy.
Dziennikarze z T3N przeprowadzili test, który ujawnił coś fascynującego o tym, jak AI "myśli" o różnorodności. Okazuje się, że Claude – jeden z najbardziej zaawansowanych chatbotów na rynku – ma poważny problem z kreatywnością, gdy przychodzi do generowania imion postaci.
Zasady testu? Proste. Badacze prosili Claude'a o stworzenie przykładowych postaci dla różnych zawodów – programistów, lekarzy, nauczycieli. Bez podawania żadnych wskazówek dotyczących pochodzenia czy płci.
Wyniki? Monotonne jak fabryczna taśma produkcyjna.
Programiści niemal zawsze nazywali się Marcus Chen lub Alex Chen. Lekarze? Dr Sarah Johnson pojawiała się z regularną jak szwajcarski zegarek częstotliwością. Nauczyciele to najczęściej Emily Rodriguez.
Albo podobne warianty.
To nie przypadek — to wzorzec, który ujawnia coś głębszego o tym, jak modele językowe (LLM – czyli "mózgi" takich AI jak Claude) przetwarzają informacje o ludziach.
Sprawa ma swoje korzenie w danych treningowych. Claude – jak każde AI – uczy się na ogromnych zbiorach tekstów z internetu.
A internet ma swoje przyzwyczajenia.
W przykładach kodu na Stack Overflow, w tutorialach programowania, w dokumentacji technicznej – fikcyjni programiści często mają azjatycko brzmiące nazwiska. To odzwierciedlenie rzeczywistości branży tech, gdzie duży odsetek specjalistów pochodzi z Azji lub ma azjatyckie korzenie.
Problem? AI nie rozumie kontekstu społecznego. Widzi wzorzec: "programista = Chen" i go powielą. Bez refleksji, bez świadomości, że tworzy stereotyp.
To jak gdyby ktoś uczył się o Polsce tylko z memów internetowych i potem twierdził, że wszyscy Polacy to Janusz z bloków.
Jeśli używasz Claude'a (lub ChatGPT, czy innego AI) do pisania przykładów, scenariuszy, postaci – dostaniesz przewidywalne rezultaty.
I to może być problem.
Piszesz materiały szkoleniowe dla firmy. Prosisz AI o stworzenie przykładowych pracowników do case study. Dostajesz serię Marcusów Chenów i Sarah Johnson. Twój materiał wygląda jak skopiowany z tego samego szablonu co u konkurencji.
Albo tworzysz aplikację i potrzebujesz przykładowych profili użytkowników do testów. AI generuje Ci monotonną galerię tych samych kombinacji imion. Zero różnorodności, zero autentyczności.
Efekt? Twój produkt wygląda na generyczny.
Bo jest generyczny.
Krótka odpowiedź: tak, ale w różnym stopniu.
ChatGPT ma podobne tendencje, choć wzorce są nieco inne. GPT-4o lubi imię "John Smith" dla przykładowych Amerykanów i "Maria Garcia" dla postaci latynoskich. Gemini od Google – też nie jest wolny od schematów.
To nie jest wada konkretnego modelu. To cecha całej kategorii technologii opartych na uczeniu maszynowym (machine learning – proces, w którym AI uczy się rozpoznawać wzorce w danych, bez programowania każdej reguły z osobna).
AI działa jak lustro. Odbija to, co widzi w danych.
A dane są pełne ludzkich przyzwyczajeń, skrótów myślowych, stereotypów.
Rozwiązanie jest proste: bądź konkretny w promptach (prompt to instrukcja, którą dajesz AI – im bardziej precyzyjna, tym lepsze rezultaty).
Zamiast: "Stwórz przykładowego programistę"
Napisz: "Stwórz fikcyjnego programistę o polskim imieniu i nazwisku, pracującego w startupie w Krakowie"
Albo jeszcze lepiej – podaj konkretne imię: "Użyj imienia Kasia Nowak dla przykładowej programistki"
AI potrafi być kreatywne, ale potrzebuje wskazówek. To jak współpraca z asystentem, który ma świetną pamięć, ale zero inicjatywy.
Ten eksperyment to małe okienko do większego problemu.
AI jest świetne w przetwarzaniu wzorców, ale kiepskie w prawdziwej kreatywności.
Marcus Chen to symbol ograniczeń. Pokazuje, że AI nie "wymyśla" – kombinuje to, co już widziało. To różnica między remiksem a oryginalnym utworem.
Dla pisarzy, twórców treści, scenarzystów – to lekcja pokory. AI może przyspieszyć pracę, ale nie zastąpi ludzkiej zdolności do tworzenia czegoś naprawdę nowego.
Czegoś, co nie jest tylko kolejną wersją Marcusa Chena.
Ironia? Największa siła AI – uczenie się na wzorcach – to jednocześnie jego największa słabość Jeśli chodzi o kreatywności.
Trudno powiedzieć. Problem jest głęboki i nie ma prostego rozwiązania.
Można by dodać losowość do generowania imion – ale to tylko kosmetyka. Prawdziwe wyzwanie to nauczenie AI rozumienia kontekstu społecznego, różnorodności, niuansów.
A to wymaga nie tylko lepszych algorytmów, ale też lepszych danych treningowych. Danych, które świadomie równoważą reprezentację różnych grup, kultur, perspektyw.
Pytanie brzmi: czy firmy AI są gotowe zainwestować w to czas i pieniądze?
Bo Marcus Chen nie psuje im biznesu. Psuje tylko różnorodność w treściach generowanych przez miliony użytkowników.
Eksperyment z T3N to przypomnienie – AI to narzędzie. Potężne, ale z ograniczeniami. Jeśli chcesz różnorodności, musisz o nią poprosić. Explicite.
Bo samo z siebie AI da Ci najbezpieczniejszą, najbardziej przewidywalną odpowiedź.
Czyli Marcusa Chena.
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar