OpenAI walczy o prywatność 20 milionów rozmów z ChatGPT
Źródło: Link
Źródło: Link
New York Times zażądał dostępu do 20 milionów prywatnych rozmów użytkowników ChatGPT. Tak, dobrze czytasz – gazeta chce przejrzeć Twoje konwersacje z AI. OpenAI właśnie powiedział "nie" i uruchamia nowe zabezpieczenia, które mają chronić dane użytkowników przed tego typu żądaniami.
Sprawa wynika z trwającego sporu sądowego między OpenAI a The New York Times. Gazeta oskarża firmę o naruszenie praw autorskich przez trenowanie modeli AI na jej artykułach. Teraz chce wykorzystać prywatne rozmowy użytkowników jako dowód w sprawie. OpenAI traktuje to jako bezprecedensową inwazję prywatności.
The New York Times argumentuje, że potrzebuje dostępu do 20 milionów rozmów, by udowodnić swoje oskarżenia. Chodzi o sytuacje, w których ChatGPT mógł zacytować lub sparafrazować treści z NYT. Problem? Takie żądanie oznaczałoby masowe naruszenie prywatności ludzi, którzy używali ChatGPT do osobistych, zawodowych czy wrażliwych rozmów.
OpenAI odmawia udostępnienia tych danych. Firma podkreśla, że rozmowy użytkowników zawierają informacje poufne – od strategii biznesowych, przez dane medyczne, po osobiste wyznania. Przekazanie ich stronie trzeciej (nawet w ramach postępowania sądowego) byłoby zdradą zaufania użytkowników.
W odpowiedzi na żądanie NYT, OpenAI przyspiesza wdrożenie nowych funkcji bezpieczeństwa i prywatności. Firma nie podaje wszystkich szczegółów (co jest zrozumiałe), ale zapowiada rozszerzone szyfrowanie i dodatkowe warstwy ochrony danych użytkowników.
Dodatkowo OpenAI pracuje nad mechanizmami, które mają uniemożliwić wykorzystanie prywatnych rozmów w przyszłych sporach prawnych. To ważne nie tylko jeśli chodzi o obecną sprawę – chodzi o precedens, który mógłby otworzyć drzwi innym podmiotom do podobnych żądań.
Jeśli korzystasz z ChatGPT, ta sprawa bezpośrednio Cię dotyczy. OpenAI stara się udowodnić, że traktuje prywatność poważnie – nie tylko w marketingowych deklaracjach, ale w praktyce prawnej. Odmowa udostępnienia 20 milionów rozmów to silny sygnał.
Firma podkreśla, że użytkownicy muszą mieć pewność, iż ich rozmowy pozostaną prywatne. Bez tego zaufania narzędzia AI tracą wartość – szczególnie w zastosowaniach zawodowych czy medycznych, gdzie poufność jest kluczowa.
Ta sprawa to nie tylko starcie OpenAI z New York Times. To potencjalny precedens dla całej branży AI. Jeśli sąd przychyli się do żądania gazety, inne firmy mogłyby zacząć składać podobne wnioski. świat, w którym każdy pozew przeciwko dostawcy AI automatycznie oznacza dostęp do milionów prywatnych rozmów użytkowników.
OpenAI argumentuje, że istnieją inne sposoby na weryfikację oskarżeń o naruszenie praw autorskich – bez narażania prywatności użytkowników. Firma oferuje dostarczenie próbek danych, audytów czy ekspertyz technicznych. NYT jak dotąd upiera się przy pełnym dostępie.
Sprawa prawdopodobnie potrwa jeszcze miesiące. Jedno jest pewne – jej wynik wpłynie na to, jak firmy AI będą chronić dane użytkowników w przyszłości. I czy w ogóle będziemy mogli ufać, że nasze rozmowy z AI pozostaną naprawdę prywatne.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar