Prognoza w minutę. AI wypycha meteorologię poza limit dwóch tygodni

Prognoza w minutę. AI wypycha meteorologię poza limit dwóch tygodni Prognoza w minutę. AI wypycha meteorologię poza limit dwóch tygodni

Sztuczna inteligencja w prognozowaniu pogody przestaje być ciekawostką z laboratoriów. Największe ośrodki i firmy technologiczne wdrażają modele AI, które potrafią liczyć prognozy szybciej i taniej niż klasyczne symulacje numeryczne, a w wielu porównaniach także dokładniej. To zmienia nie tylko aplikacje pogodowe, lecz także energetykę, transport i zarządzanie ryzykiem związanym z ekstremami.

  • Modele AI generują globalne prognozy w minutach (a nie godzinach). Dzięki temu można uruchamiać więcej wariantów i częściej aktualizować wyniki
  • Najmocniejsze podejścia (np. GraphCast/GenCast, Pangu-Weather, Aurora, AIFS) uczą się z wielodekadowych reanaliz i danych obserwacyjnych, zamiast bezpośrednio rozwiązywać równania fizyczne krok po kroku
  • ECMWF uruchomiło operacyjnie własny system AI (AIFS), a NOAA wdraża operacyjne modele AI obok klasycznego GFS
  • Największymi barierami pozostają „czarna skrzynka”, wiarygodność dla rzadkich ekstremów oraz jakość warunków początkowych, co napędza rozwój podejść hybrydowych i end-to-end

Klasyczne prognozy numeryczne (NWP) opierają się na rozwiązywaniu równań opisujących atmosferę na trójwymiarowej siatce. To podejście jest fizycznie „wyjaśnialne”, ale kosztowne obliczeniowo. Aby zachować stabilność, symulacje muszą wykonywać małe kroki czasowe, co wymaga potężnych superkomputerów i czasu. W praktyce jakość prognoz spada zauważalnie po około tygodniu, a horyzont dwóch tygodni od dekad uchodzi za twardą granicę użyteczności w prognozie deterministycznej.

Modele AI podchodzą do problemu inaczej. Uczą się statystycznego przeskoku od stanu atmosfery dziś do stanu za 6, 12 czy 24 godziny, bez konieczności liczenia każdego drobnego kroku w symulacji. GraphCast (Google DeepMind) wykorzystuje m.in. architekturę grafową i w publikacji w Science wykazał przewagę nad czołowymi systemami deterministycznymi na dużej części metryk w prognozach średnioterminowych. Z kolei Pangu-Weather (Huawei) opisany w Nature pokazuje, że podejście oparte o transformery 3D może być jednocześnie szybkie i konkurencyjne jakościowo.

Szybkość i koszt jako przewaga operacyjna

Najbardziej namacalna zmiana to ekonomia prognozowania. Modele AI potrafią wygenerować globalną prognozę w czasie, który w klasycznej meteorologii był zarezerwowany raczej dla postprocessingu i dystrybucji wyników. DeepMind podkreślało, że 10-dniowa prognoza może powstać w mniej niż minutę na akceleratorach, zamiast w godzinę lub dłużej na zasobach HPC.

Ta przewaga przekłada się na praktykę. Można liczyć więcej scenariuszy (ensembles), zwiększać częstotliwość odświeżania prognoz i szybciej reagować na zmiany w danych wejściowych. Właśnie dlatego modele probabilistyczne, takie jak GenCast (opisany w Nature), są tak istotne. W wielu zastosowaniach kluczowa jest nie jedna ścieżka prognozy, tylko rozkład ryzyka. Podobny kierunek widać w pracach NVIDIA nad dużymi zestawami prognoz zespołowych (FourCastNet3), gdzie nacisk kładzie się na kalibrację i stabilność prognoz w dłuższych skalach czasowych.

Równolegle trwa „instytucjonalizacja” tej technologii. ECMWF ogłosiło operacyjne uruchomienie AIFS jako otwartego modelu ML i następnie wprowadziło także wersję zespołową działającą obok klasycznego IFS. NOAA z kolei komunikuje wdrożenie operacyjnych modeli AI (w tym systemów porównywalnych z GFS) jako element nowej generacji prognoz globalnych. W tle rośnie też rynek komercyjny — od platform chmurowych po wyspecjalizowane narzędzia dla energetyki, transportu czy tradingu, gdzie nawet niewielkie poprawy jakości prognoz mają wymierną wartość ekonomiczną.

Sprawdź też: Małe firmy nie obserwują takich samych korzyści z AI jak duże korporacje. Znamy powód

„Czarna skrzynka”, fizyka i pytanie o granice przewidywalności

Sukces AI w pogodzie ma jednak koszt poznawczy. W przeciwieństwie do NWP, wiele modeli głębokiego uczenia jest trudnych do interpretacji. W branży często pada określenie „czarna skrzynka” – model działa, ale nie zawsze wiadomo, dlaczego w danym przypadku podjął taką, a nie inną decyzję. Z naukowego punktu widzenia stawka jest wysoka: jeśli modele faktycznie uczą się istotnych praw fizyki atmosfery, mogą stać się narzędziem nie tylko do prognoz, ale i do badań nad dynamiką klimatu.

Ciekawy wątek wnosi praca Trenta Vonicha (studenta) Grega Hakima (profesora nauk atmosferycznych i klimatycznych na Uniwersytecie Waszyngtońskim) nad analizą wrażliwości prognoz przy użyciu mechanizmów typowych dla uczenia sieci (backpropagation) w kontekście ekstremalnej fali upałów w 2021 roku. Autorzy pokazali, że optymalizacja warunków początkowych względem modelu AI potrafi dramatycznie zmniejszyć błąd prognozy dla badanego zdarzenia, co podsyca dyskusję, czy „limit dwóch tygodni” jest bardziej ograniczeniem metod i danych niż fizyki samej w sobie.

Jednocześnie literatura podkreśla, że „uczenie fizyki” bywa częściowe. Są wyniki sugerujące fizycznie sensowne zależności, ale pozostają też przykłady, gdzie model może oddawać pozornie poprawny efekt bez pełnej spójności procesowej.

Trzecia oś sporu dotyczy ekstremów poza rozkładem danych treningowych. To problem dla modeli uczonych na historii: klimat się zmienia, a niektóre zdarzenia są tak rzadkie, że brak im odpowiednich przykładów. Z drugiej strony, pojawiają się analizy wskazujące, że czołowe modele potrafią trafnie uchwycić nawet bardzo nietypowe epizody opadowe. To sugeruje, że generalizacja bywa lepsza, niż zakładali sceptycy.

Wreszcie – warunki początkowe. W klasycznej meteorologii ogrom pracy i kosztów idzie w asymilację danych (łączenie obserwacji satelitarnych, naziemnych i balonowych w spójny obraz atmosfery). Coraz ważniejszy trend to modele end-to-end, które próbują zastąpić większą część pipeline’u jednym systemem uczącym się bezpośrednio z obserwacji. Przykładem jest Aardvark Weather opisany w Nature. Jednocześnie rośnie znaczenie nowych źródeł pomiarów, bo nawet najlepszy model nie nadrobi „dziur” w danych – stąd zainteresowanie inicjatywami zwiększającymi gęstość obserwacji atmosfery.

Czytaj też: News Corp testuje redaktora AI. To może zmienić pracę wielu redakcji

REKLAMA