Modele AI
Modele AI · 4 min czytania · 3 grudnia 2025

Śmierć 29-latka w Bogocie i algorytmy, które zarabiają na tragedii

Śmierć 29-latka w Bogocie i algorytmy, które zarabiają na tragedii

Źródło: Link

Jean Claude Bossard miał 29 lat. Przedsiębiorca. Pilot. Przyjechał do Bogoty na własne urodziny — odwiedzić rodziców.

Zastrzelili go podczas napadu w północnej części miasta.

Jego ojciec, rozmawiając z dziennikarzami, powiedział tylko: "To nie powinno się dziać".

Historia trafiła do mediów. I tu zaczyna się coś, o czym prawie nikt nie mówi na głos.

Dlaczego akurat tę historię zobaczyłeś w feedzie

Ta wiadomość — tragiczna, lokalna, ludzka — rozprzestrzeniła się przez sieci informacyjne napędzane sztuczną inteligencją. Systemy rekomendacji (te same, które decydują, co widzisz w Google News czy Apple News) wyłapały ją i zaczęły serwować użytkownikom.

Pytanie brzmi: dlaczego?

Bo AI wie, że dramaty rodzinne klikają się świetnie. Systemy LLM (te "mózgi" za ChatGPT i podobnymi narzędziami) analizują miliony artykułów dziennie. Uczą się wzorców. Które słowa zatrzymują uwagę. Które tematy generują udostępnienia. Które emocje trzymają Cię na stronie.

"Desgarrador" (rozdzierający) w tytule. "Testimonio" (świadectwo). "Asesinado" (zamordowany).

To nie przypadek. To sygnały.

AI nie ma empatii — ma metryki

Systemy sztucznej inteligencji nie rozumieją, że za nagłówkiem jest rodzina w żałobie. One widzą tylko dane: CTR (Click-Through Rate — ile osób kliknie), czas spędzony na stronie, współczynnik odrzuceń.

Jeśli tragedia sprzedaje się lepiej niż analiza gospodarcza — algorytm będzie promował tragedię. Zawsze.

I tu pojawia się pytanie, które powinniśmy sobie zadać: czy chcemy, żeby AI decydowała, co jest "ważne", bo jest "klikalne"?

jesteś redaktorem naczelnym

Masz 100 artykułów dziennie. Musisz wybrać 10 na pierwszą stronę.

Tradycyjnie: wybierasz na podstawie wagi społecznej, kontekstu politycznego, wpływu na czytelników.

AI robi to inaczej.

Analizuje historyczne dane. "Artykuły z tym słowem kluczowym miały 23% wyższy CTR". "Tytuły z liczbami generują o 18% więcej udostępnień". "Negatywne emocje zatrzymują uwagę o 2,3 sekundy dłużej".

Efekt.

System nie promuje tego, co ważne. Promuje to, co działa. A "działa" najczęściej oznacza: szokuje, przeraża, wzrusza.

Co znaczy tag "LLM" przy newsie

Ten artykuł został oznaczony jako "LLM" w systemie agregacji. To nie pomyłka — to standard.

Coraz więcej platform używa dużych modeli językowych do:

  • Automatycznej kategoryzacji newsów
  • Generowania streszczeń (tych, które widzisz w Google News)
  • Tłumaczenia w czasie rzeczywistym
  • Rekomendacji powiązanych artykułów

Oznaczenie "LLM" to sygnał: ten artykuł został przetworzony przez AI. Może przetłumaczony. Może podsumowany. Może skategoryzowany — automatycznie.

Brzmi efektywnie. I jest.

Problem? AI nie rozumie kontekstu ludzkiego. W ogóle.

Słowa ojca jako ciąg znaków

"To nie powinno się dziać".

Proste zdanie. Pełne bólu.

Dla algorytmu? To tylko ciąg znaków z wysokim potencjałem emocjonalnym.

System nie wie, że to ojciec mówi o synu. Nie wie, że to była wizyta urodzinowa. Nie wie, że Bogota zmaga się z falą przestępczości, która dotyka nie tylko statystyki — konkretnych ludzi.

AI widzi równanie: "testimonio" + "asesinado" + "papá" = wysoki engagement.

I promuje.

Czy da się to zmienić?

Tak. Wymaga to tylko świadomych decyzji — i trochę odwagi.

Po pierwsze: platformy muszą zmienić metryki. Zamiast optymalizować pod kliknięcia, optymalizować pod wartość. Trudniejsze do zmierzenia? Jasne. Niemożliwe? Nie. Czas spędzony na czytaniu (nie tylko na stronie). Współczynnik dokończenia artykułu. Jakość dyskusji w komentarzach.

Po drugie: my — użytkownicy — musimy przestać klikać w clickbait. Każde kliknięcie to sygnał dla algorytmu: "więcej tego". Dosłownie trenujemy AI, żeby serwowała nam więcej tragedii.

Po trzecie: transparentność. Jeśli artykuł został przetworzony przez AI — powinniśmy o tym wiedzieć. Nie jako ciekawostka. Jako standard branżowy.

Co to znaczy dla Ciebie osobiście

Czytasz newsy przez agregatory? Google News, Apple News, Flipboard.

Pamiętaj: to, co widzisz, nie jest obiektywnym obrazem świata. To obraz świata przefiltrowany przez algorytm, który uczy się na Twoich kliknięciach. Dosłownie.

Prowadzisz biznes i używasz AI do content marketingu? Zastanów się, jakim metrykom służysz. Kliknięcia czy zaufanie? Bo to nie jest to samo.

Jesteś rodzicem? Porozmawiaj z dziećmi o tym, jak działa internet. Bo to nie jest neutralne okno na świat. To system zbudowany na podstawie tego, co sprzedaje się najlepiej — nie tego, co najważniejsze.

Tragedia nie przestaje być tragedią

Jean Claude Bossard nie żyje. Jego rodzina przeżywa żałobę.

A jego historia stała się danymi w systemie.

To nie jest wina AI. To wybór, który zrobiliśmy jako społeczeństwo: zbudować systemy optymalizujące engagement — nie empatię.

Możemy to zmienić.

Pytanie brzmi: czy chcemy.

Źródła

Informacje o artykule

Ten temat omawiam szerzej na webinarze

90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.

Zapisz sie na webinar
Udostępnij:
Jan Gajos

Ekspert AI & Founder, AI Evolution

Pasjonat sztucznej inteligencji, który od ponad 15 lat działa z sukcesem biznesowo i szkoleniowo. Wprowadzam AI do swoich firm oraz codziennego życia. Fascynują mnie nowe technologie, gry wideo i składanie klocków Lego – tam też widzę logikę i kreatywność, które AI potrafi wzmacniać. Wierzę, że dobrze użyta sztuczna inteligencja to nie ogłupiające ułatwienie, lecz prawdziwy przełom w sposobie, w jaki myślimy, tworzymy i pracujemy.