Modele AI
Modele AI · 4 min czytania · 8 grudnia 2025

Filozofka z Anthropic: jak pisać skuteczne prompty

Filozofka z Anthropic radzi: jak pisać prompty, które działają

Źródło: Link

Kurs AI Evolution — od zera do eksperta

118 lekcji bez kodowania. ChatGPT, Claude, Gemini, automatyzacje. Notatnik AI i AI Coach w cenie.

Zacznij od zera →

Amanda Askell pracuje w Anthropic – firmie, która stworzyła Claude'a. Jej zadanie? Uczyć ludzi, jak rozmawiać z AI.

I robi to inaczej niż wszyscy. Bo Askell nie jest inżynierem.

Jest filozofką.

W wywiadzie dla T3N wyjaśnia, dlaczego to akurat filozofia – nie programowanie – nauczyła ją pisać prompty, które naprawdę działają. I dlaczego większość z nas robi to źle.

Co filozofia ma wspólnego z AI?

Na pierwszy rzut oka: nic. Filozofia to abstrakcja, AI to kod i matematyka.

Askell widzi to inaczej. Filozofia uczy precyzji w myśleniu. Uczy zadawać właściwe pytania. I – co najważniejsze – uczy formułować myśli tak, by były jednoznaczne.

To dokładnie to, czego potrzebuje AI.

LLM (Large Language Model – czyli "mózg" Claude'a czy ChatGPT">ChatGPT) nie rozumie intencji. Nie domyśla się, co masz na myśli. Analizuje słowa, które mu dajesz. Jeśli są niejednoznaczne – dostaniesz niejednoznaczną odpowiedź.

Askell porównuje to do rozmowy z kimś, kto bierze Cię dosłownie. Jeśli powiesz "napisz mi tekst o AI", dostaniesz tekst o AI. Ale jaki? Dla kogo? W jakim tonie? O jakim aspekcie?

Filozofia nauczyła ją rozbijać takie pytania na części. I to właśnie robi różnicę.

Najczęstszy błąd? Traktowanie promptów jak zgadywanki

Askell mówi wprost: ludzie traktują promptowanie jak zgadywankę.

Próbują różnych wersji. Dodają słowa-klucze. Eksperymentują z formatowaniem. I liczą, że coś zadziała.

Problem? To nie jest metoda. To strzały na oślep.

Askell pokazuje inny sposób: zamiast zgadywać, trzeba zrozumieć, jak AI "myśli". A dokładniej – jak przetwarza tekst.

LLM nie ma opinii. Nie ma preferencji. Ma wzorce. Jeśli Twój prompt jest zbyt ogólny, model wypełni luki tym, co statystycznie najczęściej pasuje. I często to nie jest to, czego chcesz.

Przykład? Poproś AI o "dobry tekst marketingowy". Dostaniesz ogólniki, pełne frazesów i pustych superlatywów. Bo to właśnie AI widziało najczęściej w danych treningowych.

Ale jeśli napiszesz: "Napisz 3 zdania o produkcie X dla właścicieli małych firm, którzy nie mają czasu. Ton: bezpośredni, bez przesady" – dostaniesz coś użytecznego.

Metoda Askell: trzy kroki do lepszych promptów

Askell dzieli dobre promptowanie na trzy kroki.

Krok pierwszy: precyzja. Nie "napisz tekst", ale "napisz 200 słów". Nie "wyjaśnij", ale "wyjaśnij tak, jakbyś mówił do 12-latka". Im bardziej konkretnie, tym lepiej.

Krok drugi: kontekst. AI nie wie, w jakiej sytuacji jesteś. Nie wie, dla kogo piszesz. Nie wie, co jest ważne. Musisz to powiedzieć.

Przykład: zamiast "Napisz post na LinkedIn", spróbuj "Napisz post na LinkedIn dla rekruterów IT. Chcę pokazać, że znam się na AI, ale nie chcę brzmieć jak sprzedawca".

Krok trzeci: iteracja. Pierwszy prompt rzadko jest idealny. Askell radzi: patrz na odpowiedź AI jak na draft. Jeśli coś nie pasuje – doprecyzuj. "Za dużo żargonu", "Za długie zdania", "Brakuje przykładów".

To nie porażka. To część procesu.

Konkretny przykład z praktyki

Askell pokazuje konkretny przypadek. Ktoś poprosił Claude'a: "Wyjaśnij, czym jest kwantowa supremacja".

Odpowiedź? Poprawna, ale pełna terminów technicznych. Niezrozumiała dla laika.

Askell przepisała prompt: "Wyjaśnij kwantową supremację osobie, która słyszała o komputerach kwantowych, ale nie zna fizyki. Użyj analogii do codziennego życia. Max 100 słów".

Efekt? Claude napisał o komputerze kwantowym jak o "super-kalkulatorze, który zamiast sprawdzać odpowiedzi po kolei, sprawdza je wszystkie naraz".

Zrozumiałe. Konkretne. Użyteczne.

Różnica? Kontekst i precyzja.

Co możesz zrobić inaczej już dziś

Jeśli używasz ChatGPT, Claude'a czy innego LLM – przestań strzelać na oślep.

Zacznij od pytania: czego dokładnie chcę? Dla kogo to jest? W jakim tonie?

Potem: napisz to w prompcie. Nie zakładaj, że AI się domyśli.

I na koniec: poprawiaj. Pierwszy wynik to punkt wyjścia, nie cel.

Askell mówi, że dobre promptowanie to umiejętność. Nie talent. Można się tego nauczyć. I – co ważne – nie trzeba do tego być programistą.

Wystarczy myśleć jasno. I pisać jasno.

Filozofia w praktyce.

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.