FTC usuwa wpisy o zagrożeniach AI. Koniec ery Liny Khan
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Federalna Komisja Handlu (FTC) właśnie usunęła ze swojej strony materiały ostrzegające przed zagrożeniami związanymi ze sztuczną inteligencją. Chodzi o wpisy opublikowane za kadencji Liny Khan – przewodniczącej znanej z twardego stanowiska wobec gigantów technologicznych.
Jeden z usuniętych tekstów, zatytułowany "AI and the Risk of Consumer Harm", pojawił się na stronie FTC 3 stycznia 2025 roku. Autorzy z zespołu Khan zwracali w nim uwagę na realne zagrożenia płynące z AI – od wzmocnienia komercyjnej inwigilacji, przez ułatwienie oszustw i podszywania się, po utrwalanie dyskryminacji. Materiał zniknął bez wyjaśnienia. Wraz z nim inne publikacje dotyczące regulacji open source i praktyk monopolistycznych w sektorze AI.
Usunięte treści dotyczyły kluczowych kwestii związanych z rozwojem sztucznej inteligencji. FTC za czasów Khan aktywnie monitorowała sposób, w jaki firmy technologiczne wykorzystują AI do śledzenia konsumentów i budowania profili behawioralnych. Komisja ostrzegała również przed wykorzystywaniem modeli językowych do masowej dezinformacji i automatyzacji oszustw.
Wśród usuniętych materiałów znalazły się również opracowania dotyczące modeli open source – ich dostępności, potencjalnych nadużyć oraz odpowiedzialności firm udostępniających wagi modeli publicznie. Komisja analizowała, w jakim stopniu otwarte modele językowe mogą być wykorzystywane do generowania szkodliwych treści lub obchodzenia zabezpieczeń stosowanych przez komercyjnych dostawców. Te dokumenty, choć techniczne w naturze, miały konkretne implikacje dla polityki regulacyjnej.
Zniknęły też analizy dotyczące koncentracji rynku w sektorze AI – w szczególności powiązań kapitałowych między dużymi funduszami, dostawcami infrastruktury chmurowej a startupami rozwijającymi modele fundamentalne. To temat, który w kontekście inwestycji Microsoftu w OpenAI czy Google'a w Anthropic nabierał szczególnego znaczenia regulacyjnego.
Khan opuściła stanowisko przewodniczącej w styczniu 2025 roku – tuż po publikacji wspomnianego artykułu. Jej podejście do regulacji big techów było znacznie bardziej restrykcyjne niż poprzedników. Co nie wszystkim się podobało (delikatnie mówiąc).
Usunięcie materiałów sygnalizuje wyraźną zmianę w podejściu FTC do kwestii AI. Za kadencji Khan komisja prowadziła śledztwa dotyczące praktyk firm takich jak OpenAI czy Microsoft, badając ich metody zbierania danych treningowych i wpływ na konkurencję. Teraz te priorytety mogą się zmienić.
Warto przypomnieć, że FTC za Liny Khan wszczęła formalne dochodzenie wobec OpenAI w 2023 roku, żądając szczegółowych informacji na temat sposobu zbierania danych do treningu modeli GPT oraz mechanizmów kontroli jakości generowanych treści. Komisja badała, czy firma stosuje praktyki mogące wprowadzać konsumentów w błąd lub naruszać ich prywatność. Tego rodzaju postępowania były wyrazem filozofii regulacyjnej Khan – działaj wcześnie, zanim rynek zostanie zdominowany przez kilku graczy.
Dla Ciebie, jako użytkownika technologii AI, może to oznaczać mniejszą presję regulacyjną na firmy tworzące narzędzia oparte na sztucznej inteligencji. Z jednej strony – szybszy rozwój i więcej innowacji. Z drugiej – potencjalnie słabsza ochrona przed nadużyciami i nieuczciwymi praktykami.
Firmy z Doliny Krzemowej od dawna krytykowały Khan za nadmierną, ich zdaniem, ingerencję w wolny rynek. Usunięcie materiałów o zagrożeniach AI może być sygnałem dla branży, że nowe kierownictwo FTC będzie bardziej "przyjazne biznesowi".
W praktyce oznacza to, że firmy rozwijające systemy AI mogą spodziewać się mniejszej liczby wniosków o udostępnienie dokumentacji wewnętrznej, rzadszych zapytań dotyczących praktyk zbierania danych oraz mniejszego zainteresowania komisji strukturą umów licencyjnych na modele fundamentalne. Dla startupów budujących produkty na bazie API największych graczy to odczuwalna ulga – mniej zasobów przeznaczanych na zgodność regulacyjną, więcej na sam produkt.
Jednak ta sama zmiana kursu oznacza, że zagrożenia wymienione w usuniętym raporcie – wzmocnienie komercyjnej inwigilacji, automatyzacja oszustw, utrwalanie dyskryminacji algorytmicznej – pozostają bez instytucjonalnej odpowiedzi na poziomie federalnym. Mechanizmy śledzenia behawioralnego wbudowane w asystentów AI, systemy scoringowe oparte na modelach językowych czy automatyczne decyzje kredytowe podejmowane przez algorytmy to obszary, które wcześniej znajdowały się w polu zainteresowania komisji.
Pytanie brzmi: czy to dobra wiadomość również dla konsumentów – czy tylko dla akcjonariuszy big techów? Warto obserwować, jak FTC będzie teraz podchodziła do kwestii takich jak transparentność algorytmów, wykorzystywanie danych osobowych do treningu modeli czy monopolizacja rynku AI przez kilka największych graczy.
Decyzja FTC nie dzieje się w próżni. Stany Zjednoczone od dłuższego czasu pozostają w tyle za Unią Europejską w kwestii regulacji sztucznej inteligencji – podczas gdy w Europie obowiązuje już AI Act, wprowadzający hierarchię ryzyka i konkretne obowiązki dla dostawców systemów AI wysokiego ryzyka, USA wciąż nie wypracowały spójnych regulacji federalnych. Wycofanie się FTC z aktywnej roli nadzorczej oznacza, że ta luka może się powiększać.
Dla globalnych firm technologicznych działających na obu rynkach powstaje interesująca sytuacja: w Europie muszą spełniać rygorystyczne wymogi dotyczące przejrzystości i zarządzania ryzykiem, podczas gdy w USA presja regulacyjna maleje. Część ekspertów wskazuje, że to właśnie europejskie standardy mogą de facto stać się globalną normą – bo firmy chcące działać na rynku UE i tak muszą je spełniać, niezależnie od tego, czego wymaga (lub nie wymaga) FTC.
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar