Regulacje
Regulacje · 4 min czytania · 11 stycznia 2026

OpenAI prosi wykonawców o firmowe pliki. Prawnicy biją na alarm

OpenAI prosi wykonawców o firmowe pliki. Prawnicy biją na alarm

Źródło: Link

Kurs AI Evolution

118 lekcji od zera do eksperta. Bez kodowania.

Sprawdź kurs →

Powiązane tematy

OpenAI wysłało swoim wykonawcom nietypową prośbę. Firma chce autentycznych dokumentów roboczych z wcześniejszych projektów – nie przykładów do portfolio. Prawdziwych plików, które powstały dla innych klientów.

Prawnicy specjalizujący się w IP patrzą na to z niedowierzaniem. Ich zdaniem firma wchodzi na naprawdę cienki lód.

O co właściwie chodzi

Według TechCrunch i japońskiego ITmedia, OpenAI zwróciło się do części kontrahentów z dość śmiałą propozycją. Potrzebują rzeczywistych materiałów – dokumentów, raportów, analiz – które powstały w ramach zleceń dla zupełnie innych firm.

Problem? Te pliki zazwyczaj objęte są NDA. I – co ważniejsze – należą do klientów, nie do wykonawców.

taką sytuację: zlecasz agencji kampanię reklamową. Podpisujesz umowę o poufności – wszystko, co widzą, zostaje między wami. A potem dowiadujesz się, że Twoje briefy, dane klientów i strategie trafiły prosto do OpenAI. Bo "model potrzebował treningu".

To przypomina scenariusz na prawniczy koszmar? No właśnie.

Po co im te dokumenty

Najprawdopodobniej chodzi o dane treningowe. Modele AI – GPT-4o, przyszły GPT-5, inne warianty – uczą się na tekstach. Im bardziej różnorodne i specjalistyczne, tym lepiej model radzi sobie z konkretnymi zadaniami.

Dokumenty firmowe to czyste złoto. Znajdziesz tam żargon branżowy, struktury raportów, niuanse języka prawniczego, medycznego, finansowego. Tego nie wyciągniesz z publicznie dostępnych artykułów.

Haczyk? Te dokumenty nie są własnością wykonawców.

Są własnością firm, które za nie zapłaciły.

Prawnicy nie owijają w bawełnę

Ekspert od własności intelektualnej cytowany przez TechCrunch mówi wprost: OpenAI "naraża się na ogromne ryzyko".

Dlaczego?

Po pierwsze: naruszenie NDA. Wykonawca podpisał umowę o zachowaniu poufności, a potem wysyła pliki do OpenAI? Łamie kontrakt. Firma, której dane wyciekły, może pozwać – i wykonawcę, i OpenAI jako beneficjenta.

Po drugie: własność intelektualna. Dokumenty mogą zawierać chronione know-how, strategie biznesowe, dane klientów. Ich wykorzystanie bez zgody to potencjalne naruszenie praw autorskich albo – jeszcze gorzej – tajemnicy przedsiębiorstwa.

Po trzecie: zaufanie. Jeśli wyjdzie na jaw, że OpenAI trenuje modele na cudzych poufnych danych, firma może stracić klientów korporacyjnych. A to właśnie tam – w sektorze B2B – leżą naprawdę duże pieniądze.

Czy to w ogóle legalne

Zależy.

Jeśli wykonawca ma w umowie zapis, że może wykorzystać materiały do własnych celów (szkolenia, rozwój narzędzi) – wtedy może być okej. Tylko że takie zapisy są rzadkie jak złoto. Większość umów B2B mówi jasno: "dane klienta zostają u klienta".

Jeśli OpenAI prosi o dane bez wiedzy i zgody pierwotnych właścicieli, sytuacja robi się naprawdę nieciekawa. W Europie, gdzie obowiązuje RODO, sprawa komplikuje się jeszcze bardziej. Dokumenty firmowe często zawierają dane osobowe – nazwiska, maile, numery. Ich przekazanie bez zgody? Potencjalne naruszenie prawa.

W USA przepisy są mniej restrykcyjne, ale ryzyko nadal istnieje. Firmy mogą pozywać za naruszenie NDA, kradzież tajemnic handlowych czy nieuczciwe praktyki. I pozywają – precedensów nie brakuje.

Co to znaczy dla Ciebie

Korzystasz z freelancerów, agencji, konsultantów? Upewnij się, że umowy mają jasne zapisy o poufności. I że zabraniają przekazywania danych stronom trzecim bez Twojej zgody.

Jesteś wykonawcą i dostałeś podobną prośbę – od OpenAI czy innej firmy AI? Sprawdź swoje umowy. Nie ryzykuj pozwu, bo "AI to przyszłość". Przyszłość nie pokryje Twoich kosztów prawnych.

Używasz ChatGPT, Claude, Gemini? Pamiętaj, że wszystko, co wpisujesz, może trafić do treningu modelu. Chyba że wyłączysz tę opcję w ustawieniach (w ChatGPT: Settings → Data Controls → wyłącz "Improve the model for everyone").

Dlaczego to większy problem niż się wydaje

To nie jest historia o jednej firmie i jednej prośbie.

To sygnał szerszego problemu: jak AI pozyskuje dane treningowe.

Przez lata firmy AI zbierały teksty z internetu – książki, artykuły, fora, Reddit, Twitter. Często bez pytania o zgodę. Teraz mamy lawiny pozwów: wydawcy prasowi przeciwko OpenAI, autorzy przeciwko Meta, artyści przeciwko Midjourney.

Publiczne dane się kończą. Albo są już wykorzystane, albo prawnie chronione. Więc firmy AI szukają nowych źródeł. I sięgają po dane prywatne – firmowe, poufne, chronione umowami.

Jeśli ten trend się utrzyma, zobaczymy więcej takich przypadków.

I więcej procesów sądowych.

Co dalej

OpenAI nie skomentowało sprawy publicznie. Nie wiemy, ilu wykonawców dostało taką prośbę. Nie wiemy, ilu się zgodziło.

Wiemy jedno: granica między "treningiem modelu" a "naruszeniem prywatności" jest coraz bardziej rozmyta. Firmy AI coraz częściej balansują na tej granicy.

Pytanie brzmi: kto za to zapłaci, gdy spadną z liny?

Źródła

Informacje o artykule

Podoba Ci się ten artykuł?

Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.