Bernie Sanders rozmawia z Claude. Polityka kontra technika
Źródło: Link
Źródło: Link
19 marca 2026 roku Bernie Sanders, senator z Vermont, opublikował na platformie X nagranie, w którym przepytuje Claude – model AI firmy Anthropic – o grzeszki branży sztucznej inteligencji. Cel? Pokazać, jak firmy AI „kradną” dane do treningu swoich modeli.
Efekt? Polityczna munka, która mija się z rzeczywistością techniczną.
Sanders nie jest pierwszym politykiem, który próbuje ubrać AI w narrację o wyzysku. Problem w tym, że jego zarzuty opierają się na fundamentalnym niezrozumieniu, jak działają modele językowe. To nie kwestia szczegółów – to różnica między sensowną regulacją a walką z wiatrakami.
W nagraniu senator pyta Claude o źródła danych treningowych. Sugeruje, że model został „nakarmiony” milionami artykułów, książek i postów bez zgody autorów. W jego narracji AI to gigantyczny dysk twardy, który przechowuje cudzą własność intelektualną i odtwarza ją na żądanie.
Sanders stawia to jako oczywistą kradzież: firmy AI biorą treści, nie płacą twórcom, zarabiają miliardy. Prosta historia. Politycznie chwytliwa.
Technicznie błędna.
Claude w odpowiedziach potwierdza, że został wytrenowany na dużych zbiorach danych tekstowych – co jest prawdą. Nie wyjaśnia jednak (bo to format wywiadu, nie wykład techniczny), że proces uczenia maszynowego to coś fundamentalnie innego niż kopiowanie plików.
Modele językowe jak Claude czy ChatGPT nie działają jak baza danych. Nie mają dostępu do oryginalnych tekstów po zakończeniu treningu. Uczą się wzorców statystycznych – jak słowa łączą się w zdania, jak budować spójne argumenty, jak rozpoznawać kontekst.
Porównaj to do różnicy między fotografią a nauką rysowania. Pokażesz komuś tysiąc zdjęć kotów. Ta osoba narysuje potem kota z pamięci. Czy ukradła te zdjęcia? Nie. Nauczyła się, jak wygląda kot.
Modele AI uczą się struktury języka, nie kopiują treści. Dlatego Claude potrafi napisać tekst o kotach, nie mając dostępu do żadnego konkretnego artykułu o kotach. Nauczył się wzorca, nie zapisał pliku.
Sanders nie jest głupi. Wie, jak budować narrację polityczną. Problem w tym, że narracja oparta na błędnych przesłankach prowadzi do złych przepisów.
Jeśli traktujesz uczenie maszynowe jak kradzież danych, logicznym wnioskiem jest zakaz używania jakichkolwiek treści bez indywidualnej zgody autora. W praktyce oznaczałoby to koniec rozwoju AI w Europie i USA – bo nikt nie uzyska zgody od milionów twórców treści w internecie.
Chiny i inne kraje bez takich ograniczeń przejmą rynek. A my zostaniemy z poczuciem moralnej wyższości i importowanymi modelami.
To nie znaczy, że nie ma problemu. Jest. Tylko inny niż ten, który przedstawia Sanders.
Prawdziwe pytanie: czy uczenie modelu AI na cudzych tekstach to „dozwolony użytek” (fair use), czy wymaga licencji? Czy twórcy powinni dostawać wynagrodzenie, jeśli ich prace były w zbiorze treningowym? Jak to wynagrodzenie obliczyć?
To skomplikowane pytania prawne. Nie mają oczywistych odpowiedzi. Wymagają balansu między prawami twórców a dostępem do wiedzy. Między innowacją a ochroną.
Jeśli jednak zaczniesz od błędnej przesłanki („AI kradnie dane”), skończysz z błędnymi rozwiązaniami.
Anthropic, firma stojąca za Claude, jest jedną z bardziej transparentnych w kwestii źródeł danych. Nie publikuje pełnej listy (żadna firma AI tego nie robi – to tajemnica handlowa), przyznaje jednak, że używa publicznie dostępnych tekstów z internetu, książek i artykułów naukowych.
Firma podkreśla również, że Claude nie ma dostępu do tych danych po zakończeniu treningu. Model nie może „wyciągnąć” konkretnego artykułu czy książki – nauczył się tylko, jak pisać w sposób spójny i merytoryczny.
Czy to rozwiązuje problem praw autorskich? Nie. Czy oznacza, że nie ma podstaw do debaty? Absolutnie nie. Zmienia jednak charakter tej debaty – z „kradzieży” na „dozwolony użytek”.
Sanders nie jest pierwszym politykiem, który upraszcza technologię dla potrzeb narracji. I nie będzie ostatnim. Problem w tym, że w przypadku AI uproszczenia prowadzą do regulacji, które mogą zablokować rozwój technologii na dekady.
Unia Europejska już to robi. AI Act, który wszedł w życie w 2024 roku, nakłada na firmy AI obowiązek dokumentowania źródeł danych treningowych. W teorii sensownie. W praktyce oznacza, że europejskie startupy AI mają dodatkowe koszty compliance, których nie mają konkurenci z USA czy Chin.
Efekt? Europejskie firmy AI emigrują do Londynu (który po Brexicie nie musi stosować się do AI Act) albo do USA. Anthropic otworzyło biuro w Londynie nie bez przyczyny.
Gdyby senator chciał prowadzić merytoryczną debatę, mógłby zapytać Claude o inne rzeczy:
To byłyby trudne pytania. Wymagające odpowiedzi. Sanders wybrał jednak prostszą narrację – „AI kradnie” – bo politycznie się sprzedaje.
Istnieje jednak jeden scenariusz, w którym zarzut „kradzieży” ma sens: gdy model AI odtwarza dosłownie fragmenty tekstów treningowych. To się zdarza – rzadko, ale się zdarza.
W 2023 roku GPT-4 czasami odtwarzał fragmenty artykułów prasowych niemal słowo w słowo. OpenAI naprawiło to w późniejszych wersjach, problem jednak pokazał, że granica między „nauką wzorców” a „zapamiętaniem treści” nie jest ostra.
Firmy AI używają technik takich jak deduplication (usuwanie duplikatów z danych treningowych) i filtering (filtrowanie treści chronionych prawem autorskim), żeby minimalizować ryzyko dosłownego odtwarzania. To nie jest proces doskonały.
I to jest prawdziwy problem techniczny, który warto regulować. Nie wymyślona „kradzież danych”, ale konkretne przypadki, gdy model odtwarza chronione treści.
Ma. Absolutnie ma. Twórcy treści mają prawo pytać, jak ich praca jest wykorzystywana. Dziennikarze, pisarze, artyści – wszyscy widzą, że AI uczy się na ich pracy i konkuruje z nimi na rynku.
Pytanie: jak zbudować system, który chroni twórców, nie zabijając innowacji? Jak wynagradzać autorów, nie tworząc systemu licencji tak skomplikowanego, że tylko giganci technologiczni mogą sobie na niego pozwolić?
To trudne pytania. Nie mają prostych odpowiedzi. Na pewno jednak nie rozwiążemy ich, zaczynając od błędnej diagnozy.
Sanders mógł rozpocząć merytoryczną debatę. Zamiast tego zrobił polityczny performance. Claude odpowiadało grzecznie, bo tak zostało zaprogramowane. A my zostaliśmy z nagraniem, które brzmi poważnie, ale nie przesuwa debaty ani o milimetr.
Jeśli chcemy sensownej regulacji AI – a potrzebujemy jej – musimy zacząć od zrozumienia, jak ta technologia naprawdę działa. Nie od uproszczonych narracji, które dobrze wyglądają w social mediach.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar