Śmierć 29-latka w Bogocie i algorytmy, które zarabiają na tragedii
Źródło: Link
Źródło: Link
Jean Claude Bossard miał 29 lat. Przedsiębiorca. Pilot. Przyjechał do Bogoty na własne urodziny — odwiedzić rodziców.
Zastrzelili go podczas napadu w północnej części miasta.
Jego ojciec, rozmawiając z dziennikarzami, powiedział tylko: "To nie powinno się dziać".
Historia trafiła do mediów. I tu zaczyna się coś, o czym prawie nikt nie mówi na głos.
Ta wiadomość — tragiczna, lokalna, ludzka — rozprzestrzeniła się przez sieci informacyjne napędzane sztuczną inteligencją. Systemy rekomendacji (te same, które decydują, co widzisz w Google News czy Apple News) wyłapały ją i zaczęły serwować użytkownikom.
Pytanie brzmi: dlaczego?
Bo AI wie, że dramaty rodzinne klikają się świetnie. Systemy LLM (te "mózgi" za ChatGPT i podobnymi narzędziami) analizują miliony artykułów dziennie. Uczą się wzorców. Które słowa zatrzymują uwagę. Które tematy generują udostępnienia. Które emocje trzymają Cię na stronie.
"Desgarrador" (rozdzierający) w tytule. "Testimonio" (świadectwo). "Asesinado" (zamordowany).
To nie przypadek. To sygnały.
Systemy sztucznej inteligencji nie rozumieją, że za nagłówkiem jest rodzina w żałobie. One widzą tylko dane: CTR (Click-Through Rate — ile osób kliknie), czas spędzony na stronie, współczynnik odrzuceń.
Jeśli tragedia sprzedaje się lepiej niż analiza gospodarcza — algorytm będzie promował tragedię. Zawsze.
I tu pojawia się pytanie, które powinniśmy sobie zadać: czy chcemy, żeby AI decydowała, co jest "ważne", bo jest "klikalne"?
Masz 100 artykułów dziennie. Musisz wybrać 10 na pierwszą stronę.
Tradycyjnie: wybierasz na podstawie wagi społecznej, kontekstu politycznego, wpływu na czytelników.
AI robi to inaczej.
Analizuje historyczne dane. "Artykuły z tym słowem kluczowym miały 23% wyższy CTR". "Tytuły z liczbami generują o 18% więcej udostępnień". "Negatywne emocje zatrzymują uwagę o 2,3 sekundy dłużej".
Efekt.
System nie promuje tego, co ważne. Promuje to, co działa. A "działa" najczęściej oznacza: szokuje, przeraża, wzrusza.
Ten artykuł został oznaczony jako "LLM" w systemie agregacji. To nie pomyłka — to standard.
Coraz więcej platform używa dużych modeli językowych do:
Oznaczenie "LLM" to sygnał: ten artykuł został przetworzony przez AI. Może przetłumaczony. Może podsumowany. Może skategoryzowany — automatycznie.
Brzmi efektywnie. I jest.
Problem? AI nie rozumie kontekstu ludzkiego. W ogóle.
"To nie powinno się dziać".
Proste zdanie. Pełne bólu.
Dla algorytmu? To tylko ciąg znaków z wysokim potencjałem emocjonalnym.
System nie wie, że to ojciec mówi o synu. Nie wie, że to była wizyta urodzinowa. Nie wie, że Bogota zmaga się z falą przestępczości, która dotyka nie tylko statystyki — konkretnych ludzi.
AI widzi równanie: "testimonio" + "asesinado" + "papá" = wysoki engagement.
I promuje.
Tak. Wymaga to tylko świadomych decyzji — i trochę odwagi.
Po pierwsze: platformy muszą zmienić metryki. Zamiast optymalizować pod kliknięcia, optymalizować pod wartość. Trudniejsze do zmierzenia? Jasne. Niemożliwe? Nie. Czas spędzony na czytaniu (nie tylko na stronie). Współczynnik dokończenia artykułu. Jakość dyskusji w komentarzach.
Po drugie: my — użytkownicy — musimy przestać klikać w clickbait. Każde kliknięcie to sygnał dla algorytmu: "więcej tego". Dosłownie trenujemy AI, żeby serwowała nam więcej tragedii.
Po trzecie: transparentność. Jeśli artykuł został przetworzony przez AI — powinniśmy o tym wiedzieć. Nie jako ciekawostka. Jako standard branżowy.
Czytasz newsy przez agregatory? Google News, Apple News, Flipboard.
Pamiętaj: to, co widzisz, nie jest obiektywnym obrazem świata. To obraz świata przefiltrowany przez algorytm, który uczy się na Twoich kliknięciach. Dosłownie.
Prowadzisz biznes i używasz AI do content marketingu? Zastanów się, jakim metrykom służysz. Kliknięcia czy zaufanie? Bo to nie jest to samo.
Jesteś rodzicem? Porozmawiaj z dziećmi o tym, jak działa internet. Bo to nie jest neutralne okno na świat. To system zbudowany na podstawie tego, co sprzedaje się najlepiej — nie tego, co najważniejsze.
Jean Claude Bossard nie żyje. Jego rodzina przeżywa żałobę.
A jego historia stała się danymi w systemie.
To nie jest wina AI. To wybór, który zrobiliśmy jako społeczeństwo: zbudować systemy optymalizujące engagement — nie empatię.
Możemy to zmienić.
Pytanie brzmi: czy chcemy.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar