Twoja wyszukiwarka

IGOR J. ZALESKI
KULISY PROGNOZOWANIA
Wiedza i Życie nr 5/1999
Artykuł pochodzi z "Wiedzy i Życia" nr 5/1999

ZAPOMNIJCIE O STARYCH GÓRALACH. SKUTECZNE PRZEWIDYWANIE ZJAWISK POGODOWYCH BYŁOBY NIEMOŻLIWE BEZ SUPERKOMPUTERÓW.

Na jutro synoptycy przewidują następujące warunki. Dla Warszawy: między godziną 12:00 a 13:00 opad deszczu połączony z wiatrem o sile 10 m/s, temperatura o 8:00 rano - 15°C, w południe - 25°C, po opadzie chwilowy spadek do 18°C, od 14:30 ocieplenie do 22°C; wieczorem o 20:00 należy spodziewać się kolejnych opadów i spadku temperatury do 16.5°C. Dla Krakowa:...Takiej prognozy jeszcze nie słyszymy, ale być może niedługo będzie to realne. Sprawią to coraz szybsze komputery, bez których już dziś meteorolog nie może się obyć.

Gdy uzmysłowimy sobie, jak skomplikowaną strukturą jest ziemska atmosfera, przestają dziwić trudności z opisaniem jej chwilowego stanu zwanego pogodą. Trzeba praktycznie w jednej chwili zmierzyć wartości ciśnienia, temperatury, wilgotności, siły wiatru i stopnia zachmurzenia w jak największej liczbie punktów na ziemi oraz nad ziemią. Prognoza ma nam powiedzieć, jak zmienią się te czynniki w przyszłości. I tu potrzebne są właśnie komputery, które, dysponując tym gigantycznym zbiorem danych o obecnym stanie atmosfery, mają za zadanie "wyobrazić sobie", co się z tym całym układem będzie dalej działo. Muszą to robić bardzo szybko, bo niewielki byłby pożytek z prognozy na jutro, gdyby komputer skończył ją liczyć pojutrze.

Złożenie zdjęć satelitarnych, wykonanych w różnych zakresach promieniowania, daje ciekawe efekty wizualne

Fot. Institut für Meteorologie, Freier Universität Berlin

Trudno uwierzyć, że mimo wielkiej liczby naziemnych stacji obserwacyjnych, statków i boi, a także mnogości radarów i satelitów meteorologicznych, danych obserwacyjnych jest ciągle za mało. Bezpośrednim powodem jest to, że większość stacji meteorologicznych znajduje się na obszarach Europy i Stanów Zjednoczonych; podobnie ma się sprawa z radarami. Pogoda zaś jest wszędzie i brak danych z jakiegoś zakątka świata może być czasem bardzo kłopotliwy. Z kolei obserwacje dokonywane z kosmosu są niezbyt dokładne ze względu na duże oddalenie przyrządu od zjawiska. Siatka punktów pomiarowych jest bardzo nieregularna, a 70% naszego globu to morza i oceany, na których nie można umieścić stałego obserwatora.

Mimo wszystko pewnym zbiorem danych jednak dysponujemy. Najliczniejsze są obserwacje naziemne, dające informacje o ciśnieniu, temperaturze, wilgotności, wietrze, a także o stopniu zachmurzenia i opadach. Co 12 godzin (w niektórych krajach co 6) wykonywane są tzw. sondaże pionowe, polegające na wysłaniu w górę balonu z instrumentami pomiarowymi. Dzięki nim otrzymujemy rozkład temperatury, wilgotności i wiatru wraz ze wzrostem wysokości. Jest to bardzo istotne, gdyż pogodą przy powierzchni Ziemi rządzi stan atmosfery na wyższych jej poziomach. Balony i stacje naziemne działają na zasadzie umieszczenia przyrządu w miejscu pomiaru. Istnieją jednakże sposoby zdalnego pomiaru, z wykorzystaniem radarów i satelitów. Sieć złożona z radarów informuje o opadach i ich natężeniu oraz o kierunku i prędkości przemieszczania się groźnych zjawisk pogodowych, takich jak na przykład tornada. Satelity są natomiast doskonałym punktem obserwacyjnym do badania układów chmur i zawartości pary wodnej w powietrzu.

Za pomocą sieci GTS (Global Telecommunication System - Globalna Sieć Telekomunikacyjna) dokonuje się transmisji danych meteorologicznych na cały świat w postaci tzw. biuletynów. W celu skrócenia czasu ich dystrybucji wykorzystuje się szybkie łącza satelitarne. W Centrum Meteorologicznym w Bracknell (Wielka Brytania) dane są dostępne w 10 minut po obserwacji. Nanosi się je na mapy, analizowane albo przez komputer, albo przez człowiekal ub wykorzystywane do generowania map prognostycznych. W obu przypadkach niezbędna jest ingerencja synoptyka. Na zanalizowanej mapie widać układy baryczne, czyli niże i wyże, linie oddzielające masy powietrza o różnych właściwościach, czyli fronty, obszary wzrostów i spadków ciśnienia (tendencje), a także strefy opadów.

Fot. PhotoDisc

Każdy synoptyk, mimo że korzysta z tych samych danych, może nieco inaczej sformułować prognozę. Bierze się przy tym pod uwagę nie tylko to, co zostało przedstawione na mapach, ale także wykresy z sondaży pionowych i wyniki modeli numerycznych. W zasadzie można oprzeć się tylko na tych ostatnich, lecz nie jest to dobra metoda. Ważnym czynnikiem jest zawodowe doświadczenie- jeśli ktoś widział już bardzo podobny układ i jego konsekwencje, będzie skłonny do przypisania podobnych skutków obecnemu układowi, nawet jeśli prognoza opracowana przez komputer jest trochę inna. Komputer generuje pewien zbiór liczb, nie zastanawiając się nad tym, czy jest on prawdziwy, czy nie. Co prawda, stosuje się różne procedury sprawdzające, ale jest to czasem stanowczo za mało.

Warto przed podjęciem decyzji obejrzeć wyniki z kilku modeli komputerowych, pamiętając o różnicach między nimi (jak na przykład rozdzielczość siatki obliczeniowej). W dobie coraz bardziej skomplikowanych systemów informatycznych dość łatwo o błąd. Dobrze, gdy jest wyraźny i szybko da się go naprawić. Tak naprawdę najwięcej szkód wywołuje niewielki, ukryty gdzieś w kodzie źródłowym przecinek (lub jego brak), powodujący powstawanie rzekomo prawdziwych wyników. W takim przypadku analiza dokonana przez człowieka przyczynia się do odrzucenia wadliwego produktu. Nie zapominajmy bowiem, że w końcu to człowiek, a nie maszyna, bierze na siebie odpowiedzialność za podjętą decyzję.

Kolorowe mapy pogody, jak "prognoza numeryczna" z Interdyscyplinarnego Centrum Modelowania (ICM), którą mogą oglądać Czytelnicy podłączeni do Internetu, są jedynie graficznym przedstawieniem niektórych rezultatów. Warto wiedzieć, że komputer wyprodukuje elegancki i szczegółowy obrazek zarówno z dobrych, jak i ze złych danych. Dlatego o tym, co i jak powinno być pokazane, musi decydować synoptyk.

Model numeryczny zawiera informację o wzajemnych zalenościach między czynnikami kształtującymi pogodę. Procesy prowadzące do powstania niżów, frontów, chmur oraz opadów są dość dobrze znane, pozostaje więc opisać je w języku zrozumiałym dla maszyny - to zadanie dla programistów, realizowane drogą tzw. parametryzacji fizycznej. W atmosferze mamy do czynienia także z wieloma zjawiskami, które zachodzą tylko na określonych obszarach. Uwzględnienia wymaga na przykład parowanie wody z powierzchni Ziemi, decydujące o powstawaniu chmur i ewentualnych opadów, czy przepływ powietrza nad łańcuchami górskimi. Model pracujący w UKMO (United Kingdom Meteorological Office - Biuro Meteorologiczne Zjednoczonego Królestwa) w Bracknell, jeden z najlepszych na świecie, bierze pod uwagę wszystkie
te czynniki, a jego zasięg obejmuje tereny Polski.

Od pomysłu do efektu droga prowadzi poprzez trzy modele: fizyczny, matematyczny i numeryczny... Każdy z nich jest kolejnym uproszczeniem: pierwszy uproszczeniem rzeczywistości, drugi nieco uogólnia ten pierwszy, a na koniec kod źródłowy w programie komputerowym zawiera algorytm, który jest uproszczoną wersją modelu matematycznego... W każdym punkcie atmosfery istnieje nieskończenie wiele wartości do zmierzenia, a więc siłą rzeczy trzeba wybrać te dominujące. Wszystko to składa się na zawodność modeli, choć największy wpływ na błędy obliczeniowe mają niedokładne pomiary. Taki niewielki błąd wywołany czymkolwiek narasta w miarę obliczeń i zaczyna dominować. Problem wprowadzenia do modelu danych pomiarowych (w tym ich przetwarzanie na potrzeby siatki obliczeniowej), podobnie jak weryfikacja wyników, jest w dalszym ciągu nierozwiązany.

Ogromnym problemem dla meteorologów pozostaje wielka różnorodność skali .Aby móc skutecznie prognozować pogodę dla konkretnego miasta, trzeba zacząć od całego globu. Największe układy baryczne - wiry atmosferyczne o średnicy rzędu tysięcy km - wytwarzają mniejsze, a z nich dopiero ewoluują te zupełnie małe, powodujące chociażby wspomniany przelotny opad w południe nad Warszawą. Dziś moc nawet najszybszych komputerów jest wciąż zbyt słaba, by wyliczyć tak małe zjawiska dla dowolnego miejsca na świecie. Z tego powodu stosuje się tzw. zagnieżdżanie jednego modelu w drugim: jeden komputer liczy pogodę na całym świecie w punktach odległych powiedzmy o 200 km, drugi bierze od niego część wyników i analizuje pogodę nad danym kontynentem w skali 45 km, w końcu trzeci oblicza z fragmentu rezultatów drugiego pojedyncze grupy chmur nad regionem, stosując siatkę obliczeniową 11 km. Tak na przykład wygląda prognozowanie pogody na przylądku Canaveral, skąd startują wahadłowce kosmiczne.

Nie każdy wie, że start promu kosmicznego to nie tylko piękne widowisko oraz wyzwanie dla astronautów i techników. To także ogrom pracy modeli numerycznych do przewidywania pogody, a także wielki wysiłek meteorologów. Podczas lądowania musi być dobra pogoda. Gdy misja trwa np. 10 dni, prognozy tworzone przez specjalistyczny zespół meteorologów muszą obejmować dwa tygodnie. Start może zostać odłożony nie tylko ze względów technicznych, ale także wtedy, gdy przewidywania pogody na lądowanie w chwili startu są niekorzystne.

Fot. PhotoDisc

Model pracujący na przylądku Canaveral jest zagnieżdżony w większym modelu, obejmującym południowo-wschodnie stany USA wraz z Atlantykiem i Zatoką Meksykańską. Zasilany jest wynikami z wielu źródeł, a siatka pomiarowa, stworzona specjalnie na jego potrzeby, ma niespotykaną gęstość. Wykorzystuje się tam najnowocześniejsze radary dopplerowskie, wiele automatycznych stacji umieszczono na obszarach bagiennych. Na kilka dni przed planowanym startem meteorolodzy mają do dyspozycji nie tylko wyniki opracowań ze swojego modelu, lecz także mapy wygenerowane w największych ośrodkach obliczeniowych, jak np. Europejskie Centrum Prognoz Średnioterminowych (ECMWF - European Centre for Medium-Range Weather Forecasts). Dzięki temu ich prognozy są wyjątkowo dokładne i trafne.

Na zdjęciu satelitarnym wykonanym w podczerwieni widać temperaturę fotografowanych obszarów

Fot. Dundee Satellite Receiving Station

Powróćmy jednak do naszych stron. Tylko najbogatsze państwa stać na zakupy superkomputerów typu Cray. Lecz potężny kalkulator to jeszcze nie wszystko - trzeba opracować dla niego lokalny model i ustalić dlań odpowiednie warunki brzegowe. A także wykonać pomiary, których musi być tym więcej, im mniejsza jest skala modelowania.

Zamiast dokładnej prognozy, podobnej do tej z początku artykułu, zazwyczaj słyszymy bardzo ogólnikowe informacje, na dodatek czasem zupełnie nieprawdziwe. Prawda jest niestety taka, że zapowiedź pogody dla Polski nie zawsze się sprawdza. Nietrafna informacja jest szybko zapominana, jeśli miast ulewnego deszczu spadnie kilka kropel. Kiedy jednak prezenter (a nie meteorolog!) mówi w telewizji, że na pewno będzie świeciło słońce, a leje od rana, to ludzie długo wypominają taką pomyłkę.

Pamiętajmy jednak, że, po pierwsze, nigdzie na świecie nie udało się dojść do stuprocentowej sprawdzalności prognozy, i po drugie, że meteorolog podaje informacje dotyczące stosunkowo sporego obszaru, np. Mazowsza. Jeśli w kilku mazowieckich miasteczkach nie spadnie zapowiadany deszcz, to nie można jeszcze mówić o błędzie - wystarczy jeden przelotny opad na Mazowszu, aby prognoza została uznana za prawidłową. W telewizji na tle konturów Polski wyrysowane są zazwyczaj chmurki bądź słoneczka dla kilku tylko regionów. Takiej prognozy nie można rozumieć dosłownie - jesteśmy bliżej chmurki bez opadów, to nie będzie lało.

A na koniec zważmy, że meteorolog też jest człowiekiem i może się mylić, zwłaszcza jeśli pracuje z niepełnym zestawem danych, co się niestety zdarza. Toteż na razie pozostaje nam wysłuchanie czegoś w rodzaju: jutro nad naszym krajem będzie przechodziła zatoka niskiego ciśnienia i chłodny front atmosferyczny...- z lepszym zrozumieniem, co to wszystko znaczy.

IGOR J. ZALESKI jest synoptykiem, pracuje w Instytucie Meteorologii i Gospodarki Wodnej.

O podobnych zagadnieniach przeczytasz w artykułach:
(10/97) Wielka woda, matematyka i komputery