Poradniki
Poradniki · 10 min czytania · 17 kwietnia 2026

Jak zrobić fine-tuning modelu AI i nie przepalić budżetu

Grafika ilustrująca: Jak zrobić fine-tuning modelu AI i nie przepalić budżetu

Źródło: Link

Darmowy webinar AI

90 minut praktyki. Co tydzień na żywo.

Zapisz się →

Powiązane tematy

Fine-tuning modelu AI to nie technologiczna fanaberia dla programistów z przerostem ambicji. To konkretna technika, która może rozwiązać realny problem: model AI nie rozumie Twojej branżowej nomenklatury, miesza fakty albo odpowiada w stylu, który nie pasuje do Twojej firmy.

Zanim rzucisz się na fine-tuning, sprawdźmy jedną rzecz: czy na pewno go potrzebujesz? W 70% przypadków wystarczy prostsze (i tańsze) rozwiązanie.

Kiedy fine-tuning nie jest Ci potrzebny

Zacznijmy od demaskacji mitu: fine-tuning nie jest domyślnym krokiem w pracy z AI. Jeśli Twój problem sprowadza się do tego, że model nie zna Twoich dokumentów, cenników czy procedur — nie potrzebujesz fine-tuningu. Potrzebujesz RAG (Retrieval-Augmented Generation).

RAG działa prosto: model dostaje Twoje dokumenty jako kontekst w promptcie. Pytasz o coś konkretnego, system wyszukuje odpowiedni fragment z Twojej bazy i wrzuca go do kontekstu. Model odpowiada na podstawie tego, co dostał. Zero treningu, zero kosztów dopasowania.

RAG vs fine-tuning: dwa różne podejścia do tego samego problemu
RAG vs fine-tuning: dwa różne podejścia do tego samego problemu

Kiedy RAG wystarczy:

  • Musisz odpowiadać na pytania o firmowe dane — cenniki, FAQ, dokumentacja techniczna
  • Dane zmieniają się regularnie — nowe produkty, aktualizacje procedur
  • Chcesz mieć kontrolę nad źródłami — model cytuje konkretne dokumenty, możesz je weryfikować
  • Nie masz budżetu na eksperymenty — RAG kosztuje tyle, ile API modelu bazowego

Jeśli którykolwiek punkt pasuje — zacznij od RAG. Nie działa? Dopiero wtedy rozważ fine-tuning. Przygotowanie danych do RAG to osobny temat, ale kluczowy — źle podzielone dokumenty to najczęstsza przyczyna słabych odpowiedzi.

Kiedy fine-tuning ma sens

Fine-tuning to trening modelu na Twoich danych. Model uczy się nie tylko faktów, ale też stylu, struktury odpowiedzi i specyficznego sposobu rozumowania. To nie jest wyszukiwanie dokumentów — to zmiana zachowania modelu.

Kiedy warto zapłacić za fine-tuning:

  1. Styl odpowiedzi ma znaczenie — piszesz raporty medyczne, prawnicze analizy, techniczne specyfikacje. Model musi używać konkretnych fraz, struktury, terminologii.
  2. Masz specyficzną nomenklaturę branżową — skróty, kody produktowe, wewnętrzne nazwy procesów. RAG nie nauczy modelu, że "XR-440" to nie kod błędu, tylko seria produktu.
  3. Potrzebujesz przewidywalności — model ma zawsze odpowiadać w tym samym formacie (JSON, tabelka, konkretna struktura).
  4. Masz dużo powtarzalnych zadań — klasyfikacja zgłoszeń, generowanie opisów produktów, moderacja treści. Fine-tuning obniża koszt pojedynczego wywołania.
  5. Dane są wrażliwe i nie możesz ich wrzucać do promptu — fine-tuning pozwala "wbudować" wiedzę w model bez ujawniania jej w każdym zapytaniu.

Przykład: firma prawnicza chce, żeby model generował pisma procesowe. RAG da mu dostęp do szablonów, ale nie nauczy go, jak pisać w stylu kancelarii. Fine-tuning może — jeśli masz 500+ przykładów pism z adnotacjami.

Realny koszt fine-tuningu

OpenAI pobiera opłaty za:

  • Trening — $0.0080 za 1K tokenów (GPT-4o mini) lub $0.025 za 1K tokenów (GPT-4o)
  • Użycie modelu — 2-3x więcej niż bazowy model (input/output)

Jeśli masz 10 000 przykładów treningowych (średnio 500 tokenów każdy = 5M tokenów), zapłacisz:

  • GPT-4o mini: $40 za trening + ~$0.60 za 1M tokenów inputu (vs $0.15 dla bazowego)
  • GPT-4o: $125 za trening + ~$7.50 za 1M tokenów inputu (vs $2.50 dla bazowego)

To nie jest drogo, jeśli fine-tuning obniży liczbę wywołań — krótsze prompty, lepsze wyniki za pierwszym razem. Jeśli masz 50 przykładów i liczysz, że model "się nauczy" — przepalisz pieniądze.

Punkt zwrotu: kiedy fine-tuning zaczyna się opłacać
Punkt zwrotu: kiedy fine-tuning zaczyna się opłacać

Jakie dane potrzebujesz do fine-tuningu

Fine-tuning to nie magia. Model uczy się na przykładach. Jeśli przykłady są kiepskie, model będzie kiepski. Prosta zasada.

Minimalna ilość danych

OpenAI mówi: minimum 10 przykładów. W praktyce:

  • 10-50 przykładów — eksperyment, nie produkcja. Model "zapamięta" wzorce, ale nie uogólni.
  • 50-500 przykładów — sensowny punkt startu dla wąskich zadań (klasyfikacja, formatowanie).
  • 500-5000 przykładów — tutaj zaczyna się prawdziwy fine-tuning. Model uczy się niuansów, wyjątków, kontekstu.
  • 5000+ przykładów — dla złożonych zadań (generowanie długich tekstów, wieloetapowe rozumowanie).

Jeśli masz mniej niż 100 przykładów — zacznij od few-shot promptingu (wrzuć przykłady do systemu promptu). Działa? Świetnie. Nie działa? Zbierz więcej danych.

Format danych treningowych

OpenAI wymaga formatu JSONL (JSON Lines). Każda linia to jeden przykład:

{"messages": [{"role": "system", "content": "Jesteś asystentem prawnym."}, {"role": "user", "content": "Napisz pismo procesowe o zwrot kaucji."}, {"role": "assistant", "content": "Szanowny Sądzie, wnoszę o..."}]}
{"messages": [{"role": "system", "content": "Jesteś asystentem prawnym."}, {"role": "user", "content": "Przygotuj odpowiedź na pozew."}, {"role": "assistant", "content": "W odpowiedzi na pozew..."}]}

Kluczowe zasady:

  • Jakość > ilość — 100 dobrych przykładów bije 1000 przypadkowych.
  • Różnorodność — nie kopiuj tego samego przykładu z drobnymi zmianami. Model nauczy się overfittingu.
  • Spójność — jeśli w 90% przykładów odpowiedź zaczyna się od "Szanowny Sądzie", model będzie to powielał. Jeśli tego chcesz — OK. Jeśli nie — popraw dane.
  • Długość — OpenAI limituje do 4096 tokenów na przykład (GPT-4o mini) lub 16 384 tokenów (GPT-4o). Dłuższe przykłady zostaną obcięte.

Jeśli nie masz gotowych danych, możesz je wygenerować. Użyj bazowego modelu (np. GPT-4o) do stworzenia przykładów, a potem ręcznie je popraw. To szybsze niż pisanie od zera.

Jak zrobić fine-tuning przez OpenAI API

Dobra, masz dane. Czas na trening. OpenAI udostępnia API do fine-tuningu — nie musisz instalować Pythona ani zarządzać infrastrukturą. Wszystko dzieje się w chmurze.

Zanim zaczniesz

Potrzebujesz:

  • Konto OpenAI z aktywnym API key (platform.openai.com/api-keys)
  • Dane treningowe w formacie JSONL — zapisane lokalnie jako training_data.jsonl
  • Środowisko z Pythonem (opcjonalnie — możesz użyć curl, ale Python jest wygodniejszy)
  • Biblioteka OpenAI — zainstaluj przez pip install openai

Krok 1: Wgraj plik treningowy

Otwierasz terminal i wpisujesz:

from openai import OpenAI
client = OpenAI(api_key="twoj-api-key")

file = client.files.create(
 file=open("training_data.jsonl", "rb"),
 purpose="fine-tune"
)

print(file.id) # Zapisz to ID — będzie potrzebne

OpenAI sprawdzi plik pod kątem błędów (np. złego formatu JSON). Jeśli coś jest nie tak, dostaniesz komunikat. Popraw i spróbuj ponownie.

Krok 2: Uruchom fine-tuning

Teraz startujesz trening:

job = client.fine_tuning.jobs.create(
 training_file=file.id,
 model="gpt-4o-mini-2024-07-18" # lub "gpt-4o-2024-08-06"
)

print(job.id) # ID zadania — możesz sprawdzić status

Trening zajmie od kilku minut (małe zestawy danych) do kilku godzin (duże zestawy). OpenAI wyśle Ci email, kiedy skończy.

Dashboard fine-tuningu w OpenAI — możesz śledzić postęp w czasie rzeczywistym
Dashboard fine-tuningu w OpenAI — możesz śledzić postęp w czasie rzeczywistym

Krok 3: Sprawdź status

Możesz sprawdzić, co się dzieje:

status = client.fine_tuning.jobs.retrieve(job.id)
print(status.status) # "running", "succeeded", "failed"

Jeśli status to succeeded, dostaniesz ID nowego modelu (np. ft:gpt-4o-mini:twoja-firma:model-v1:abc123). Zapisz je — to Twój dopasowany model.

Krok 4: Użyj modelu

Teraz możesz wywoływać model jak każdy inny:

response = client.chat.completions.create(
 model="ft:gpt-4o-mini:twoja-firma:model-v1:abc123",
 messages=[
 {"role": "system", "content": "Jesteś asystentem prawnym."},
 {"role": "user", "content": "Napisz pismo procesowe o zwrot kaucji."}
 ]
)

print(response.choices[0].message.content)

Model odpowie w stylu, którego nauczył się z Twoich danych. Jeśli odpowiedź jest kiepska — problem leży w danych treningowych, nie w API.

Krok 5: Iteruj

Fine-tuning to proces iteracyjny. Rzadko wychodzi za pierwszym razem. Typowy cykl:

  1. Trenuj model na 100 przykładach → sprawdź wyniki
  2. Zidentyfikuj błędy (np. model używa złego tonu, pomija szczegóły)
  3. Popraw dane treningowe (dodaj przykłady z prawidłowym tonem)
  4. Trenuj ponownie → sprawdź wyniki
  5. Powtarzaj, aż model działa OK

OpenAI pozwala na nieograniczoną liczbę fine-tuningów. Płacisz tylko za trening i użycie.

Najczęstsze błędy w fine-tuningu

Widziałem setki projektów fine-tuningowych. Większość popełnia te same błędy. Oto top 5:

1. Za mało danych

10 przykładów to nie fine-tuning. To loteria. Model "zapamięta" wzorce, ale nie uogólni. Jeśli nie masz minimum 50 przykładów — nie zaczynaj.

2. Dane niskiej jakości

Jeśli Twoje przykłady treningowe są pełne błędów, literówek, niespójności — model to powieli. Garbage in, garbage out. Sprawdź dane ręcznie. Tak, to żmudne. Tak, musisz to zrobić.

3. Brak walidacji

Podziel dane na zestaw treningowy (80%) i walidacyjny (20%). Trenuj na 80%, testuj na 20%. Jeśli model radzi sobie dobrze na treningu, ale źle na walidacji — masz overfitting. Potrzebujesz więcej danych lub prostszego zadania.

4. Złe zadanie dla fine-tuningu

Jeśli problem da się rozwiązać RAG-iem lub few-shot promptingiem — nie używaj fine-tuningu. To jak wynajmowanie helikoptera, żeby dojechać do sklepu. Działa, ale jest głupie.

5. Brak monitoringu po wdrożeniu

Model działa świetnie na testach, ale po miesiącu zaczyna odpowiadać dziwnie? To normalne. Dane się zmieniają, użytkownicy zadają nowe pytania, kontekst się przesuwa. Monitoruj odpowiedzi, zbieraj feedback, trenuj ponownie co kilka miesięcy.

Alternatywy dla OpenAI fine-tuningu

OpenAI to nie jedyna opcja. Jeśli chcesz więcej kontroli (lub masz wrażliwe dane), możesz:

  • Fine-tunować open-source modele — Llama 4, Mistral, Gemma. Potrzebujesz GPU (albo wynajmujesz w RunPod, Lambda Labs). Lokalne modele AI dają pełną kontrolę, ale wymagają więcej pracy.
  • Użyć LoRA (Low-Rank Adaptation) — technika, która trenuje tylko część parametrów modelu. Szybsze, tańsze, mniej podatne na overfitting. LoRA to osobny temat, ale warto znać.
  • Anthropic Claude fine-tuning — dostępny dla klientów Enterprise. Droższy niż OpenAI, ale model ma lepsze rozumowanie out-of-the-box.
  • Google Vertex AI — fine-tuning dla Gemini. Wymaga konta GCP i trochę konfiguracji, ale integruje się z resztą infrastruktury Google.

Jeśli dopiero zaczynasz — idź z OpenAI. Jeśli masz specyficzne wymagania (prywatność, koszt, kontrola) — rozważ alternatywy.

FAQ

Czy fine-tuning działa na GPT-5?

Na razie (marzec 2026) OpenAI nie udostępniło fine-tuningu dla GPT-5. Możesz dopasować GPT-4o i GPT-4o mini. Jeśli potrzebujesz najnowszego modelu — użyj RAG lub few-shot promptingu.

Ile czasu zajmuje fine-tuning?

Zależy od rozmiaru danych. 100 przykładów: 10-20 minut. 10 000 przykładów: kilka godzin. OpenAI nie gwarantuje czasu — jeśli serwery są obciążone, może trwać dłużej.

Czy mogę fine-tunować model na danych w języku polskim?

Tak. GPT-4o i GPT-4o mini radzą sobie dobrze z polskim. Jeśli Twoje dane są po polsku, model nauczy się odpowiadać po polsku. Nie musisz tłumaczyć na angielski.

Czy fine-tuning poprawia faktografię modelu?

Nie zawsze. Jeśli model halucynuje fakty, fine-tuning może to pogorszyć (model "nauczy się" halucynować w Twoim stylu). Lepsze rozwiązanie: RAG z weryfikacją źródeł.

Czy mogę usunąć model po fine-tuningu?

Tak. Wchodzisz do dashboardu OpenAI, znajdujesz model i klikasz "Delete". Przestaniesz płacić za jego użycie. Dane treningowe możesz też usunąć (ale nie musisz — nie są publicznie dostępne).

Chcesz opanować AI od podstaw?

Ten poradnik to dopiero początek. W naszym kursie "Praktyczna AI" nauczysz się korzystać z ChatGPT, Claude i innych narzędzi AI w sposób systematyczny — od zera do zaawansowanego poziomu.

Sprawdź kurs →

Fine-tuning jako narzędzie, nie cel

Fine-tuning to narzędzie, nie cel sam w sobie. Jeśli RAG wystarczy — użyj RAG. Jeśli potrzebujesz dopasowania stylu, terminologii, struktury odpowiedzi — fine-tuning ma sens. Tylko wtedy, gdy masz dane i budżet.

Najczęstszy scenariusz: zaczynasz od RAG, widzisz, co nie działa, zbierasz dane z produkcji, robisz fine-tuning. Nie na odwrót.

Weź 10 przykładów typowych zapytań z Twojej firmy i odpowiedzi, które chcesz dostać. Zapisz je w formacie JSONL. Wgraj do OpenAI. Zrób fine-tuning na GPT-4o mini (koszt: kilka dolarów). Przetestuj. Jeśli działa lepiej niż bazowy model — masz punkt wyjścia. Jeśli nie — wiesz, że problem leży gdzie indziej.

Na podstawie: OpenAI Fine-tuning Guide, Anthropic Claude Documentation, Google Vertex AI Docs

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.