Boty AI czytają Twoje treści, ale nie przysyłają użytkowników
Źródło: Link
Źródło: Link
118 lekcji od zera do eksperta. Bez kodowania.
Cloudflare właśnie opublikował raport o trendach internetowych na 2025 rok. Liczby mówią jedno: boty AI pożerają treści w tempie, jakiego internet jeszcze nie widział. Ale jest haczyk.
Problem nie w tym, że AI się uczy. Problem w tym, że coraz częściej używa tego, czego się nauczyło, żeby odpowiadać użytkownikom bezpośrednio.
Bez odsyłania do źródła.
Cloudflare wyróżnia dwa typy botów AI. Pierwsze to te do treningu – indeksują internet, żeby nauczyć modele językowe. Drugie to boty "user-driven" – te, które działają w czasie rzeczywistym, gdy pytasz ChatGPT, Perplexity czy Google AI.
I tu robi się ciekawie.
Boty do odpowiadania użytkownikom urosły w 2025 roku 15 razy bardziej niż te treningowe. Patrząc na same liczby: ruch z botów user-driven wzrósł o 1461%, podczas gdy boty treningowe zwiększyły aktywność o 97%.
To jak różnica między spacerkiem a sprintem olimpijskim.
Prowadzisz sklep z poradami. Ktoś wchodzi, czyta wszystkie Twoje materiały, robi notatki, wychodzi. I potem staje przed Twoim sklepem, rozdając za darmo te same porady przechodniom.
Przechodnie dostają odpowiedzi. Ty nie dostajesz klientów.
Dokładnie to się dzieje z treściami w internecie. AI czyta Twoje artykuły, analizuje dane, a potem – gdy ktoś zadaje pytanie – serwuje odpowiedź bezpośrednio. Użytkownik zadowolony. Twoja strona? Nie odwiedzona.
Cloudflare nazywa to praktyką "dual-purpose" – giganci technologiczni używają tych samych botów zarówno do treningu, jak i do odpowiadania na żywo. I stało się to już standardem branżowym.
Raport Cloudflare bazuje na danych z ich sieci CDN (Content Delivery Network – czyli systemu, który przyspiesza ładowanie stron na całym świecie). Obsługują miliony witryn, więc mają niezły przegląd sytuacji.
Wzrost ruchu z botów AI user-driven o prawie 1500% w ciągu roku to nie anomalia. To trend.
Dla porównania: jeszcze rok temu większość dyskusji o botach AI dotyczyła treningu modeli. Debaty o prawach autorskich, scraping'u (automatycznym pobieraniu treści), zgodach wydawców. Teraz okazuje się, że prawdziwy problem leży gdzie indziej.
Bo model już wytrenowany działa cicho. Odpowiada na pytania. Nie generuje kontrowersji. Ale też nie generuje ruchu dla źródeł.
Cloudflare umieścił ten raport Jeśli chodzi o regulacji – i nie bez powodu. Unia Europejska pracuje nad AI Act, Stany Zjednoczone toczą batalię o prawa autorskie Jeśli chodzi o AI, a wydawcy na całym świecie zastanawiają się, jak przetrwać.
Tradycyjny model biznesowy w internecie opierał się na prostej zasadzie: tworzysz wartościową treść, ludzie ją znajdują (często przez Google), odwiedzają Twoją stronę, widzą reklamy lub kupują produkt. Wszyscy zadowoleni.
AI rozbija ten model.
Jeśli odpowiedź pojawia się bezpośrednio w chatbocie, użytkownik nie ma powodu, żeby klikać dalej. A bez kliknięć nie ma ruchu. Bez ruchu nie ma przychodów z reklam. Bez przychodów nie ma motywacji do tworzenia treści.
I nagle mamy problem systemowy.
Raport Cloudflare wskazuje, że praktyka dual-purpose stała się standardem wśród największych graczy. Google, OpenAI, Anthropic, Meta – wszyscy używają botów, które zarówno trenują modele, jak i odpowiadają użytkownikom w czasie rzeczywistym.
Technicznie to efektywne. Ekonomicznie – genialne dla platform AI. Dla twórców treści? Nie bardzo.
Niektóre firmy próbują zawierać umowy z wydawcami. OpenAI podpisał kontrakty z Axel Springer, Associated Press, Financial Times. Google płaci wybranym wydawcom za treści. Ale to kropla w morzu.
Większość twórców – blogerzy, mali wydawcy, niszowe serwisy – nie ma siły negocjacyjnej, żeby wynegocjować takie umowy.
Technicznie tak. Można blokować boty AI przez plik robots.txt (to taki plik, który mówi botom, co mogą, a czego nie mogą indeksować na Twojej stronie). Niektóre serwisy już to robią.
Ale jest haczyk.
Jeśli zablokujesz boty AI, Twoje treści nie trafią do modeli językowych. A to oznacza, że gdy ktoś zapyta AI o temat, którym się zajmujesz, Twoja wiedza nie będzie częścią odpowiedzi. Stajesz się niewidzialny w nowym ekosystemie informacji.
To jak odmowa bycia indeksowanym przez Google w 2005 roku. Technicznie możliwe. Strategicznie samobójcze.
Cloudflare nie proponuje rozwiązań – raportuje fakty. Ale fakty te stawiają pytania, na które regulatorzy będą musieli odpowiedzieć szybciej, niż by chcieli.
Czy AI powinno odsyłać do źródeł? Czy wystarczy ogólna wzmianka, czy konkretny link? Czy twórcy mają prawo do wynagrodzenia, gdy ich treści są używane do generowania odpowiedzi?
To nie są pytania filozoficzne. To pytania o model biznesowy internetu na najbliższe lata.
Bo jeśli tworzenie treści przestanie się opłacać, kto będzie tworzył treści, z których AI się uczy? Paradoks, który może zamknąć się w pętlę szybciej, niż się spodziewamy.
Raport Cloudflare to nie tylko zbiór statystyk. To sygnał ostrzegawczy. Boty AI nie zwalniają – przyspieszają. I rośnie właśnie ta część, która nie przynosi ruchu twórcom.
Pytanie nie brzmi "czy to się zmieni". Pytanie brzmi: "kto zapłaci cenę za tę zmianę".
Przeczytaj też:
Podoba Ci się ten artykuł?
Co piątek wysyłam podsumowanie najlepszych artykułów tygodnia. Zapisz się!
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar