Poradniki
Poradniki · 12 min czytania · 27 marca 2026

Jak podłączyć ChatGPT do własnej aplikacji przez API OpenAI

Grafika ilustrująca: Jak podłączyć ChatGPT do własnej aplikacji przez API OpenAI

Źródło: Link

W skrócie:
  • Klucz API OpenAI dostajesz w kilka minut – płacisz tylko za faktyczne użycie
  • Pierwszy request to 10-15 linijek kodu w Pythonie lub JavaScript
  • Koszt: ~$0.002 za 1000 tokenów (około 750 słów) dla GPT-4o-mini
  • Możesz kontrolować temperaturę, długość odpowiedzi i historię konwersacji

Używasz ChatGPT przez przeglądarkę. Kopiujesz odpowiedzi, wklejasz do swojej aplikacji, powtarzasz. Działa, ale to jak noszenie wody wiadrami, gdy możesz podłączyć rurę.

API OpenAI pozwala Ci wbudować ChatGPT bezpośrednio w Twoją aplikację, skrypt czy narzędzie. Nie musisz być programistą z dziesięcioletnim stażem – wystarczy podstawowa znajomość Pythona lub JavaScript. Pokażę Ci dokładnie, jak to zrobić.

Zanim zaczniesz: co będzie Ci potrzebne

Zanim przejdziesz do kodu, upewnij się, że masz:

  • Konto OpenAI – zakładasz je na platform.openai.com (potrzebujesz adresu email i numeru telefonu)
  • Środki na koncie – minimum $5 (OpenAI wymaga przedpłaty, nie ma darmowego tieru API)
  • Python 3.7+ lub Node.js 16+ – w zależności od tego, w jakim języku chcesz pracować
  • Edytor kodu – VS Code, PyCharm, Sublime Text, cokolwiek Ci pasuje
  • Terminal/wiersz poleceń – będziesz instalować biblioteki

Jeśli nigdy nie pracowałeś z API, spokojnie. API to po prostu sposób, w jaki Twoja aplikacja może "rozmawiać" z serwerem OpenAI. Wysyłasz zapytanie (prompt), dostajesz odpowiedź. Jak SMS, tylko między programami.

Panel API OpenAI – tutaj wygenerujesz swój klucz dostępu

Krok 1: Zdobywasz klucz API

Klucz API to Twoje hasło dostępu do modeli OpenAI. Bez niego nic nie zrobisz.

  1. Wchodzisz na platform.openai.com i logujesz się
  2. Klikasz w prawym górnym rogu na swój profil → View API keys
  3. Klikasz Create new secret key
  4. Nadajesz nazwę (np. "moja-aplikacja-testowa") i klikasz Create
  5. Kopiujesz klucz i zapisujesz go w bezpiecznym miejscu – zobaczysz go tylko raz

Klucz wygląda mniej więcej tak: sk-proj-abc123def456.... Traktuj go jak hasło do banku – nie wrzucaj do publicznych repozytoriów na GitHubie, nie udostępniaj nikomu.

Jak bezpiecznie przechowywać klucz

Najlepszy sposób: zmienne środowiskowe. W Pythonie używasz biblioteki python-dotenv, w Node.js – dotenv. Tworzysz plik .env w katalogu projektu:

OPENAI_API_KEY=sk-proj-twoj-klucz-tutaj

Dodajesz .env do .gitignore, żeby nie wrzucić go przypadkiem do repozytorium. Gotowe.

Krok 2: Instalujesz bibliotekę OpenAI

OpenAI udostępnia oficjalne biblioteki dla Pythona i JavaScript. Nie musisz ręcznie składać requestów HTTP – biblioteka robi to za Ciebie.

Dla Pythona

Otwierasz terminal i wpisujesz:

pip install openai python-dotenv

Jeśli używasz pip3, zamień pip na pip3. Instalacja zajmuje 10-20 sekund.

Dla JavaScript (Node.js)

W terminalu wpisujesz:

npm install openai dotenv

Albo, jeśli wolisz yarn:

yarn add openai dotenv

Biblioteka waży kilka megabajtów, instalacja trwa chwilę.

Przykładowy kod integracji API w Pythonie i JavaScript

Krok 3: Piszesz pierwszy request

Teraz konkret. Tworzysz plik, wklejasz kod, uruchamiasz. Zacznijmy od Pythona.

Python: prosty request do ChatGPT

Tworzysz plik test_api.py i wklejasz:

import os
from openai import OpenAI
from dotenv import load_dotenv

# Ładujesz klucz API z pliku .env
load_dotenv()
client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))

# Wysyłasz zapytanie do GPT-4o-mini
response = client.chat.completions.create(
 model="gpt-4o-mini",
 messages=[
 {"role": "system", "content": "Jesteś pomocnym asystentem."},
 {"role": "user", "content": "Wyjaśnij, czym jest API w 2 zdaniach."}
 ],
 temperature=0.7,
 max_tokens=150
)

# Wyświetlasz odpowiedź
print(response.choices[0].message.content)

Zapisujesz, wracasz do terminala i uruchamiasz:

python test_api.py

Po 1-2 sekundach zobaczysz odpowiedź ChatGPT w terminalu. Działa.

JavaScript: ten sam request w Node.js

Tworzysz plik test_api.js:

import OpenAI from 'openai';
import dotenv from 'dotenv';

// Ładujesz klucz API z pliku .env
dotenv.config();
const openai = new OpenAI({
 apiKey: process.env.OPENAI_API_KEY,
});

// Wysyłasz zapytanie do GPT-4o-mini
const response = await openai.chat.completions.create({
 model: 'gpt-4o-mini',
 messages: [
 { role: 'system', content: 'Jesteś pomocnym asystentem.' },
 { role: 'user', content: 'Wyjaśnij, czym jest API w 2 zdaniach.' },
 ],
 temperature: 0.7,
 max_tokens: 150,
});

// Wyświetlasz odpowiedź
console.log(response.choices[0].message.content);

Zapisujesz, w terminalu wpisujesz:

node test_api.js

Odpowiedź pojawia się po chwili. Gotowe.

Co się dzieje w tym kodzie?

  • model – wybierasz model AI (GPT-4o-mini jest najtańszy i najszybszy, GPT-4o to mocniejsza wersja)
  • messages – lista wiadomości w konwersacji. system to instrukcja dla AI, user to Twoje zapytanie
  • temperature – kontroluje kreatywność (0 = deterministyczne, 1 = bardzo kreatywne). Dla faktów używasz 0.3-0.5, dla brainstormingu 0.7-0.9
  • max_tokens – maksymalna długość odpowiedzi. 1 token ≈ 0.75 słowa w języku angielskim, trochę mniej po polsku

Jeśli chcesz dłuższą odpowiedź, zwiększasz max_tokens. Jeśli chcesz bardziej przewidywalne wyniki, obniżasz temperature.

Krok 4: Budujesz konwersację z historią

ChatGPT nie pamięta poprzednich wiadomości automatycznie. Musisz sam przekazać całą historię konwersacji w każdym requeście.

Przykład: chatbot z pamięcią

W Pythonie:

messages = [
 {"role": "system", "content": "Jesteś ekspertem od AI."}
]

# Pierwsza wymiana
messages.append({"role": "user", "content": "Czym jest API?"})
response = client.chat.completions.create(
 model="gpt-4o-mini",
 messages=messages
)
answer = response.choices[0].message.content
messages.append({"role": "assistant", "content": answer})
print("AI:", answer)

# Druga wymiana – AI pamięta kontekst
messages.append({"role": "user", "content": "Podaj przykład użycia."})
response = client.chat.completions.create(
 model="gpt-4o-mini",
 messages=messages
)
print("AI:", response.choices[0].message.content)

Dodajesz każdą wiadomość (Twoją i AI) do listy messages. W kolejnym requeście wysyłasz całą listę. AI widzi kontekst i odpowiada spójnie.

Uwaga: im dłuższa historia, tym więcej tokenów zużywasz. Jeśli konwersacja ma 50 wiadomości, płacisz za przetworzenie wszystkich 50 przy każdym nowym zapytaniu. Dlatego większość aplikacji ogranicza historię do ostatnich 10-20 wiadomości.

Schemat działania API: wysyłasz prompt, dostajesz odpowiedź, płacisz za tokeny

Krok 5: Rozumiesz koszty (i jak ich nie przepalić)

API OpenAI działa na zasadzie pay-as-you-go. Płacisz za tokeny – zarówno te w prompcie (input), jak i w odpowiedzi (output).

Cennik (stan na marzec 2026)

  • GPT-4o-mini: $0.150 / 1M tokenów input, $0.600 / 1M tokenów output
  • GPT-4o: $2.50 / 1M tokenów input, $10.00 / 1M tokenów output
  • o1-mini: $3.00 / 1M tokenów input, $12.00 / 1M tokenów output

Dla porównania: 1000 tokenów to około 750 słów. Jeśli wysyłasz prompt na 200 słów i dostajesz odpowiedź na 300 słów, zużywasz ~650 tokenów. Z GPT-4o-mini to koszt około $0.0005 (pół centa).

Jak nie przepalić budżetu

  1. Ustaw limity w panelu OpenAI – w zakładce "Usage limits" możesz ustawić miesięczny cap (np. $50). Po przekroczeniu API przestaje działać
  2. Używaj GPT-4o-mini do testów – jest 15x tańszy niż GPT-4o i dla większości zadań wystarczy
  3. Ogranicz max_tokens – nie pozwalaj AI generować 2000 tokenów, jeśli potrzebujesz 200
  4. Cachuj odpowiedzi – jeśli to samo pytanie pojawia się często, zapisz odpowiedź w bazie danych zamiast odpytywać API za każdym razem
  5. Monitoruj zużycie – w panelu OpenAI masz szczegółowe statystyki. Sprawdzaj je co tydzień

Jeśli budujesz aplikację dla użytkowników, dodaj rate limiting – np. maksymalnie 10 requestów na użytkownika dziennie. Inaczej jeden bot może zjeść Ci cały budżet w godzinę.

Krok 6: Obsługujesz błędy (bo wystąpią)

API czasem zwraca błędy. Serwer OpenAI może być przeciążony, Twój klucz może być nieprawidłowy, możesz przekroczyć limit requestów. Musisz to obsłużyć.

Podstawowa obsługa błędów w Pythonie

from openai import OpenAI, OpenAIError
import time

client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))

def ask_gpt(prompt, retries=3):
 for attempt in range(retries):
 try:
 response = client.chat.completions.create(
 model="gpt-4o-mini",
 messages=[{"role": "user", "content": prompt}]
 )
 return response.choices[0].message.content
 except OpenAIError as e:
 print(f"Błąd (próba {attempt + 1}/{retries}): {e}")
 if attempt < retries - 1:
 time.sleep(2 ** attempt) # Exponential backoff
 else:
 raise

# Używasz
try:
 answer = ask_gpt("Czym jest machine learning?")
 print(answer)
except OpenAIError:
 print("API nie odpowiada. Spróbuj później.")

Ten kod próbuje 3 razy z rosnącymi przerwami (2s, 4s, 8s). Jeśli wszystkie próby zawiodą, zwraca błąd. To standard w pracy z API.

Najczęstsze błędy i co robić

  • 401 Unauthorized – zły klucz API. Sprawdź, czy skopiowałeś cały klucz
  • 429 Rate Limit Exceeded – za dużo requestów. Poczekaj minutę lub zwiększ limit w panelu
  • 500 Internal Server Error – problem po stronie OpenAI. Spróbuj ponownie za chwilę
  • Context length exceeded – prompt + odpowiedź przekraczają limit modelu (128k tokenów dla GPT-4o). Skróć historię konwersacji

Zawsze loguj błędy. Jeśli coś nie działa, logi pokażą Ci dokładnie co i kiedy poszło nie tak.

Krok 7: Testujesz zaawansowane parametry

Podstawowy request działa, ale API oferuje więcej kontroli. Oto parametry, które warto znać.

Presence penalty i frequency penalty

  • presence_penalty (zakres -2.0 do 2.0) – kara za powtarzanie tematów. Wartość 0.6 sprawia, że AI chętniej wprowadza nowe wątki
  • frequency_penalty (zakres -2.0 do 2.0) – kara za powtarzanie konkretnych słów. Wartość 0.5 zmniejsza powtórzenia

Przykład:

response = client.chat.completions.create(
 model="gpt-4o-mini",
 messages=[{"role": "user", "content": "Napisz 5 pomysłów na posty na LinkedIn."}],
 temperature=0.8,
 presence_penalty=0.6,
 frequency_penalty=0.5
)

Dostaniesz bardziej zróżnicowane pomysły, mniej powtórzeń.

Streaming odpowiedzi

Zamiast czekać na całą odpowiedź, możesz otrzymywać ją kawałek po kawałku – jak w interfejsie ChatGPT.

stream = client.chat.completions.create(
 model="gpt-4o-mini",
 messages=[{"role": "user", "content": "Opowiedz krótką historię."}],
 stream=True
)

for chunk in stream:
 if chunk.choices[0].delta.content:
 print(chunk.choices[0].delta.content, end="")

Tekst pojawia się na bieżąco. Użytkownik nie czeka 10 sekund na odpowiedź – widzi, że coś się dzieje.

JSON mode

Jeśli potrzebujesz strukturalnych danych (np. lista zadań, dane kontaktowe), możesz wymusić format JSON:

response = client.chat.completions.create(
 model="gpt-4o-mini",
 messages=[
 {"role": "system", "content": "Zwracaj odpowiedzi w formacie JSON."},
 {"role": "user", "content": "Podaj 3 pomysły na artykuł o AI."}
 ],
 response_format={"type": "json_object"}
)

import json
data = json.loads(response.choices[0].message.content)
print(data)

AI zwróci poprawny JSON, który możesz od razu sparsować. Przydatne, jeśli budujesz automatyzacje.

Jeśli chcesz dowiedzieć się więcej o pracy z API Jeśli chodzi o programowania, sprawdź przewodnik po ChatGPT w programowaniu.

Przykłady praktycznych zastosowań

API OpenAI to nie zabawka – to narzędzie, które możesz wbudować w realne projekty. Oto kilka pomysłów.

Chatbot na stronie firmowej

Zamiast statycznego FAQ, budujesz chatbota, który odpowiada na pytania klientów. Używasz system message, żeby nauczyć AI kontekstu Twojej firmy:

{"role": "system", "content": "Jesteś asystentem firmy XYZ. Odpowiadasz na pytania o produkty, ceny i dostawy. Bądź konkretny i pomocny."}

Klient pyta, AI odpowiada w oparciu o Twoje instrukcje. Jeśli potrzebujesz więcej szczegółów, zobacz jak wdrożyć chatbot AI na stronie.

Automatyczne podsumowania raportów

Masz długi raport (5000 słów). Wysyłasz go do API z promptem "Podsumuj kluczowe wnioski w 5 punktach". Dostajesz zwięzłe podsumowanie w 10 sekund. Możesz to zautomatyzować – np. każdy nowy raport w Google Drive automatycznie trafia do API i generuje podsumowanie.

Generator treści na social media

Wpisujesz temat, AI generuje 5 wariantów posta na LinkedIn. Wybierasz najlepszy, edytujesz, publikujesz. Zamiast 30 minut na brainstorming, masz gotowe propozycje w 15 sekund. Więcej o tym w artykule jak używać ChatGPT do social media.

Asystent do analizy danych

Masz plik CSV z danymi sprzedażowymi. Wysyłasz fragment do API z pytaniem "Jakie są 3 główne trendy w tych danych?". AI analizuje i zwraca wnioski. Nie musisz znać Pythona ani Excela – AI robi to za Ciebie.

Tłumaczenie z kontekstem

Standardowe tłumacze Google nie rozumieją branżowego żargonu. API OpenAI możesz nauczyć kontekstu: "Tłumacz dokumenty medyczne z angielskiego na polski. Używaj polskiej terminologii medycznej". Dostajesz tłumaczenia, które mają sens w Twojej branży.

Najczęstsze pytania (FAQ)

Czy mogę używać API OpenAI za darmo?

Nie. OpenAI wymaga przedpłaty minimum $5. Nowe konta dostawały kiedyś $5 kredytu startowego, ale ten program został zakończony w 2023 roku. Musisz dodać kartę i wpłacić środki.

Ile kosztuje typowy request?

Zależy od modelu i długości. Dla GPT-4o-mini: prompt na 500 tokenów + odpowiedź na 500 tokenów = ~1000 tokenów = $0.0004 (mniej niż pół centa). Dla GPT-4o to samo to $0.006 (pół centa). Jeśli robisz 1000 requestów miesięcznie, GPT-4o-mini to $0.40, GPT-4o to $6.

Czy moje dane są bezpieczne?

Od marca 2023 OpenAI domyślnie nie używa danych z API do trenowania modeli (chyba że wyrazisz zgodę). Dane są przechowywane maksymalnie 30 dni do celów monitoringu nadużyć. Nie wysyłaj jednak przez API danych osobowych klientów bez ich zgody – to naruszenie RODO. Więcej o bezpieczeństwie w przewodniku po prywatności w ChatGPT.

Czy mogę używać API w aplikacji komercyjnej?

Tak. OpenAI pozwala na komercyjne wykorzystanie API. Musisz tylko przestrzegać ich Usage Policies – nie możesz generować nielegalnych treści, spamu, dezinformacji ani naruszać praw autorskich. Przeczytaj dokument "Usage Policies" na stronie OpenAI, zanim wypuścisz produkt.

Co jeśli przekroczę limit requestów?

Dostajesz błąd 429. OpenAI ma rate limity zależne od Twojego tieru (tier 1-5, w zależności od tego, ile wydałeś). Tier 1 (nowe konta): 500 requestów na minutę dla GPT-4o-mini, 10 000 requestów dziennie. Jeśli potrzebujesz więcej, wydaj więcej – po przekroczeniu $100 przechodzisz na tier 2 z wyższymi limitami.

Czy mogę używać starszych modeli jak GPT-3.5?

Tak, ale po co? GPT-4o-mini jest szybszy, tańszy i lepszy niż GPT-3.5-turbo. Jedyny powód, żeby używać starszych modeli, to jeśli masz legacy kod, który na nich polega. Nowe projekty zaczynaj od GPT-4o-mini.

Chcesz opanować AI od podstaw?

Ten poradnik to dopiero początek. W naszym kursie "Praktyczna AI" nauczysz się korzystać z ChatGPT, Claude i innych narzędzi AI w sposób systematyczny — od zera do zaawansowanego poziomu.

Sprawdź kurs →

Podsumowanie

API OpenAI to bezpośredni dostęp do ChatGPT w Twojej aplikacji. Zamiast kopiować odpowiedzi ręcznie, wysyłasz request, dostajesz odpowiedź, automatyzujesz. Koszt? Grosze za request. Próg wejścia? 10-15 linijek kodu.

Jeśli nigdy nie pracowałeś z API, zacznij od GPT-4o-mini. Wygeneruj klucz, skopiuj przykład z tego artykułu, uruchom. Zobaczysz odpowiedź w terminalu po 2 sekundach.

Wejdź na platform.openai.com, wygeneruj klucz API i uruchom pierwszy przykład z tego poradnika. Za 5 minut będziesz mieć działający kod.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od 18 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.