Powtarzaj prompty. To działa lepiej niż myślisz
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Przepisujesz prompt trzeci raz. Dodajesz kontekst, zmieniasz słowa, wstawiasz "myśl krok po kroku". I dalej nie to.
Znam to – sam tak robiłem przez miesiące, zanim ktoś powiedział mi coś absurdalnego: "A próbowałeś po prostu zapytać jeszcze raz? Tym samym tekstem?"
To przypomina lenistwo. Ale działa.
LLM-y nie są deterministyczne. Nawet jeśli zadasz dokładnie to samo pytanie dwa razy, dostaniesz dwie różne odpowiedzi. To nie błąd – to cecha architektury. Model generuje tekst probabilistycznie, wybierając kolejne słowa na podstawie rozkładu prawdopodobieństwa. Temperatura (parametr kontrolujący losowość) sprawia, że każde wywołanie to osobna ścieżka przez przestrzeń możliwych odpowiedzi.
Kiedy przepisujesz prompt, myślisz że dodajesz precyzję. Często dodajesz szum. Model musi przetworzyć więcej tokenów, zinterpretować nowe frazy. A Ty nie masz pewności, czy zmiana pomogła, czy zaszkodziła.
Powtórzenie tego samego promptu to eksperyment z jedną zmienną: losowością modelu.
Nie każde zadanie wymaga powtórzeń. Jeśli pytasz o datę premiery iPhone'a 12, pierwsza odpowiedź będzie taka sama jak piąta. Powtarzanie ma sens przy:
W tych przypadkach model ma wiele "poprawnych" ścieżek. Powtórzenie promptu to sposób na eksplorację różnych wariantów bez zmieniania parametrów wejściowych.
Pracujesz nad mailem do klienta. Pierwsza wersja z ChatGPT">ChatGPT brzmi OK, ale nie trafia w ton. Zamiast pisać "bądź bardziej formalny" albo "dodaj więcej empatii", po prostu kliknij "Regenerate".
Albo wyślij ten sam prompt ponownie.
Druga wersja może być bliżej tego, czego szukasz – bez dodatkowych instrukcji.
Testujesz Skills w Claude">Claude do analizy danych sprzedażowych. Pierwsza odpowiedź skupia się na trendach miesięcznych, ale Ty szukasz czegoś innego. Zamiast dodawać "skoncentruj się na sezonowości", wyślij prompt jeszcze raz. Model może sam wyłowić inne aspekty danych.
To nie magia – to statystyka. Każde wywołanie to losowanie z tego samego rozkładu. Im więcej losowań, tym większa szansa na trafienie w wariant, który Ci pasuje.
Powtarzanie nie zastąpi precyzji. Jeśli po trzech próbach model konsekwentnie pomija kluczowy element, problem leży w prompcie, nie w losowości.
Wtedy dodaj konkret:
Dobra, powiedzmy to wprost: jeśli model nie rozumie, czego chcesz, powtarzanie nie pomoże. Jeśli rozumie, ale daje wariant, który Ci nie pasuje – powtórz, zanim zaczniesz przepisywać.
Następnym razem, gdy odpowiedź z ChatGPT, Claude czy Gemini będzie "prawie OK", nie ruszaj promptu.
Kliknij "Regenerate" albo wyślij to samo pytanie jeszcze raz.
Porównaj wersje. Zobaczysz, jak bardzo model potrafi się różnić sam od siebie – bez Twojej ingerencji.
To nie lenistwo. To zrozumienie, jak działają LLM-y. Probabilistycznie, nie deterministycznie. Czasem najlepszy sposób na lepszą odpowiedź to po prostu dać modelowi drugą szansę – z tym samym pytaniem.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar