Google uczy AI przewidywać powodzie z artykułów prasowych
Źródło: Link
Źródło: Link
Jak przewidzieć powódź w miejscu, gdzie nigdy nie było czujników poziomu wody? Google znalazło odpowiedź w miejscu, którego nikt nie sprawdzał — w archiwach gazet.
Zespół Google Research opracował metodę, która zamienia jakościowe opisy z artykułów prasowych na twarde dane liczbowe. To rozwiązanie problemu, który od lat blokował rozwój systemów wczesnego ostrzegania w krajach rozwijających się: braku historycznych pomiarów.
Tradycyjne modele przewidywania powodzi potrzebują lat danych z czujników: poziom wody, opady, temperatura. Problem? Większość świata takich czujników nie ma. Zwłaszcza tam, gdzie powodzie błyskawiczne zabijają najwięcej ludzi.
Google podeszło do sprawy inaczej. Zamiast czekać na instalację tysięcy czujników, sięgnęło po to, co już istnieje — doniesienia prasowe z ostatnich dekad. Lokalne gazety od zawsze opisywały powodzie: "woda sięgała po kolana", "zalane pięć wiosek", "droga nieprzejezdna przez trzy dni".
LLM analizuje te opisy i wyciąga z nich konkretne informacje: szacunkowy poziom wody, zasięg geograficzny, czas trwania. Tworzy bazę danych tam, gdzie wcześniej była tylko proza.
Kluczem jest przekształcenie narracji w liczby. Model językowy nie tylko czyta tekst — interpretuje kontekst. "Woda po kolana" to około 50 cm. "Zalane pięć wiosek" plus nazwa regionu daje zasięg geograficzny. "Trzy dni" to czas trwania zdarzenia.
System uczy się na wzorcach. Jeśli artykuł opisuje "najgorszą powódź od 20 lat", LLM szuka wcześniejszych doniesień z tego regionu i porównuje opisy. Buduje relatywną skalę nawet bez absolutnych pomiarów.
Model radzi sobie z różnymi językami i lokalnymi określeniami. "Flash flood" w Teksasie, "突発洪水" w Japonii, "powódź błyskawiczna" w Polsce — wszystko trafia do jednego systemu.
Google przetestowało metodę na regionach, gdzie są zarówno dane z czujników, jak i doniesienia prasowe. Wyniki? Model osiągnął dokładność wystarczającą do trenowania systemów predykcyjnych. Nie zastępuje pomiarów rzeczywistych, ale wypełnia luki tam, gdzie pomiarów nigdy nie było.
Według danych ONZ, 90% ofiar powodzi przypada na kraje rozwijające się. To właśnie tam brakuje infrastruktury pomiarowej. Instalacja sieci czujników kosztuje miliony dolarów i zajmuje lata. A powodzie nie czekają.
Google już od kilku lat rozwija narzędzia AI do różnych zastosowań praktycznych, ale ten projekt ma bezpośredni wpływ na bezpieczeństwo ludzi. System wczesnego ostrzegania działa tylko wtedy, gdy ma dane historyczne do nauki. Teraz te dane można wydobyć z archiwów.
Metoda działa również wstecz. Gazety z lat 70., 80., 90. zawierają opisy setek powodzi, które nigdy nie trafiły do żadnej bazy danych. LLM może je przeanalizować w dni, tworząc dekady historii hydrologicznej.
Google wskazuje, że ta sama metoda może działać w innych dziedzinach. Wszędzie tam, gdzie brakuje danych liczbowych, ale są opisy jakościowe: historyczne raporty o suszach, epidemiach, trzęsieniach ziemi, pożarach lasów.
Zespół pracuje teraz nad integracją systemu z istniejącymi platformami wczesnego ostrzegania. Celem jest uruchomienie pilotażu w regionach Azji Południowo-Wschodniej i Afryki Subsaharyjskiej, gdzie problem powodzi błyskawicznych jest najbardziej dotkliwy.
Podobnie jak agenci AI automatyzujący procesy, ten system działa w tle, przetwarzając dane niedostępne dla tradycyjnych metod. Różnica? Tu stawką są ludzkie życia.
W Polsce mamy rozbudowaną sieć hydrologiczną IMGW-PIB, ale system Google mógłby uzupełnić dane historyczne sprzed powstania automatycznych czujników. Archiwum prasy lokalnej z lat 50-80 zawiera setki opisów powodzi, które nigdy nie trafiły do cyfrowych baz danych.
Technologia ma też znaczenie dla firm ubezpieczeniowych działających w Polsce — dokładniejsze modele ryzyka powodziowego mogą zmienić wycenę polis w regionach zagrożonych.
System ma swoje granice. Doniesienia prasowe są subiektywne — różni dziennikarze różnie opisują tę samą sytuację. LLM musi to uwzględniać, szukając wspólnych wzorców w wielu źródłach.
Kolejny problem: dostęp do archiwów. Wiele lokalnych gazet nigdy nie zostało zdigitalizowanych. Google współpracuje z bibliotekami narodowymi i archiwami regionalnymi, ale to proces długotrwały.
I wreszcie kwestia jakości predykcji. Dane z artykułów prasowych nigdy nie będą tak precyzyjne jak pomiary z czujników. System działa jako uzupełnienie, nie zamiennik prawdziwej infrastruktury pomiarowej.
Ostatecznie Google pokazuje, że AI nie musi być rewolucją w SaaS ani kontrowersyjnym narzędziem wojskowym. Czasem wystarczy spojrzeć na stary problem z nowej perspektywy — i znaleźć dane tam, gdzie nikt ich nie szukał.
90 minut praktycznej wiedzy o AI. Pokaze Ci krok po kroku, jak zaczac oszczedzac 10 godzin tygodniowo dzieki sztucznej inteligencji.
Zapisz sie na webinar