Blog poświęcony popularyzacji badań klimatycznych
piątek, 28 maja 2010

Z punktu widzenia klimatu pewne zjawiska atmosferyczne nie mają znaczenia. Dla przykładu - tęcza, halo, miraże. Mimo to kiedy uczę o fizyce chmur czy o efekcie cieplarnianym wspominam o zjawiskach optycznych w atmosferze ponieważ daja one dobre wprowadzenie do metodologii używanej w wymianie promieniowania i rozpraszaniu światła w atmosferze. Monte Carlo to jedna z najbardziej intuicyjnych metod w fizyce.  Metoda jest bajecznie prosta do wytłumaczenia. Tutaj opiszę tylko jedno z wielu zastosowan Monte Carlo (sama technika została opracowana m.in. przez polskiego matematyka Stanisława Ulama). Światło od Słonca potraktujmy jako strumień cząstek (myśl o drobinach piasku, chociaż fachowo chodzi o fotony) czy o strumieniu promieni (myśl o aureoli na obrazkach świętych, chociaż fachowo chodzi o przybliżenie optyki geometrycznej). Postarajmy się prześledzić jedną taką cząstkę, która przedziera się do powierzchni Ziemi.  Po drodze ma przed sobą różne niespodzianki. Np może się zderzyć z kropelka chmurowa i odskoczyć w jakimś kierunku tak jak kula bilardowa, albo może się zderzyć z cząstką sadzy i wpaść do niej trochę tak jak mucha do beczki ze smołą. Każdemu z tych zdarzeń możemy nadać pewne prawdopodobieństwo.  Śledząc tylko jedną cząstkę nie mamy dobrej statystyki, musimy prześledzić ich bardzo wiele. To tak jak w grze w ruletkę. Z jednego obrotu kołem nic nie można wywnioskować, ale śledząc grę przez noc, możemy się zorientować czy większe szanse ma gracz czy kasyno.

Przykładem obliczeń opartych częściowo na technice Monte Carlo jest program HaloSim, który jest bezpłatny i działa pod Windowsami. Program został  napisany przez  Lesa Cowleya i Michaela Schroedera.  Na znakomitej stronie sieciowej Cowleya można znależć wyjaśnienie zjawisk rozpraszania światła takich jak słońca poboczne, halo, górny łuk styczny, łuk okołozenitalny, kręg parheliczny.
http://www.atoptics.co.uk/halosim.htm

W HaloSim od słońca wysyłane są promienie światła, które następnie oddziaływują z kryształkami lodu. Każdy z promieni pada na kryształ lodu pod nieco innym kątem i na różne powierzchnie. Kryształy mogą mieć rózne kształty – np płatki lub kolumny i w zależności od wielkości mogą opadać i odchylać się od pionu, tak jak liśce, które spadając w dół, oscylują. Uruchamiając HaloSim łatwo zobaczyć jak indywidulane promienie tworzą obraz końcowego zjawiska.

Zjawiska optyczne nie są same w sobie ważne w badaniach klimatu. Mimo to obeserwując halo czy tęczę można zorientować się o wielkości czy ułożeniu kropel i kryształów w chmurach. Łatwo powiedzieć czy chmura składa się z kropel czy z  kryształów lodu. Zrozumienie zjawisk optycznych w atmosferze to wstęp do zrozumienia technik teledetekcyjnych takich jak pomiary satelitarne. Pomimo tego, że techniki Monte Carlo są stosunkowo wolne obliczeniowo, często są niezastąpione zwłaszcza w analizie rozchodzenia się światła w skomplikowanych sytuacjach - np w analizie instrumentów optycznych lub w ocenie intensywności światła dla niejednorodnych sytuacji, np cienia od małych chmur.   

czwartek, 27 maja 2010

Właśnie spakowałem radar, który mierzy charakterystykę kropli deszczowych
http://www.metek.de/produkte_mrr.htm

i przyszło mi do głowy, żeby napisać o deszczu. Najwieksze deszczowe krople na świecie wyglądały jak parasolki lub meduzy i były całkiem spłaszczone (Peter Hobbs i A. Rangne, Super-large raindrops, Geophysical Research Letters, 31, L13102, doi:10.1029/2004GL020167, 2004). Duże krople nie są podobne do łez, ani nie są kuliste.  W pomiarach laboratoryjnych bardzo duże krople o wielkości 10 mm rozpadają się same na klika mniejszych. Rzadko nawet osiągają tę wielkość ponieważ  wcześniej zaczynają się rozpadać podczas zderzeń pomiędzy sobą.  W 1986 roku odkryto krople o wielkości 8mm w chmurach blisko wysp Hawajskich. W 1995 roku na północ od Brazylii odkryto największe na świecie krople deszczowe o wielkości pomiędzy 8.8mm – 10mm.  Pomiary dokonano w atmosferze, w której było dużo dymów z pożarów w  obszarze Amazonki. Przypuszczalnie pożary przyczyniły się też do rozwoju intesywnych chmur – takie chmury mają nazwę pyrocumulus.  Pomiary rozmiarów kropli dokonuje się z samolotow za pomocą bardzo małych i szybkich diod, które robią zdjęcia cienia jaki rzuca kropla na diodę przelatując blisko niej - no taki szybki aparat fotograficzny.  Krople deszczowe  występują w chmurach stosunkowo rzadko. Chmury „są zrobione” głównie ze znacznie mniejszych i liczniejszych  kropli chmurowych.  W tych samych pomiarach samolotowych w Amazonii,  zmierzono około 900 kropli na centymetr sześcienny,  a największa miała tylko około 28 mikrometrow (mikrometr to 1/1000 część centymetra). Małe krople deszczowe nie chcą się zderzać ze sobą bo zaczynają opływać się nawzajem. Sytuacja jest trochę  podobna do jazdy samochodem w padającym śniegu. Większość płatków opływa samochód.  Dlaczego znaleziono takie olbrzymie krople skoro było tyle kropli chmurowych niechętnych, żeby tworzyć większe?  Dymy w pożarach powodują, że para wodna w atmosferze skrapla się na bardzo wielu małych zarodkach; te  początkowe kropelki nie tworzą deszczu. Jeżeli jednak w jakiś cudowny sposób powstanie kropla deszczowa, to może  bardzo szybko urosnąć przez oddziaływanie z wieloma kroplami chmurowymi.  Pomysł, że kilka dużych kropli, może spowodować opad z chmur, jest wykorzystywany w technikach sztucznego wywoływania deszczu zwłaszcza w chmurach nad kontynentami. Można posypać taką chmurę piaskiem, albo jodkiem srebra, albo polać je rozpyloną wodą. W opisywanych powyżej chmurach z Amazonii, mechanizmem tworzenia się kilku szczęśliwych kropelch deszczowych, mogło być oddziaływanie z wybranymi bardzo dużymi cząstkami dymów. Są jeszcze inne pomysły dlaczego tworzą się wybrane wielkie krople. Jednym  z nich jest  hipoteza,  że pierwsze duże krople deszczu  powstają w wybranych obszarach chmur (ze względu na niejednorodności w prędkości pionowej  powietrza czy lokalnego przesycenia pary wodnej).

poniedziałek, 24 maja 2010

19 lutego 1600 rozpoczął się największy w Andach wybuch wulkanu Huaynaputina, który częściowo wpłynął na historię Rosji i Polski i przyczynił się  (też w pewnym stopniu) do okresu „wielkiej smuty” w Rosji.  Na podstawie pomiarów paleoklimatycznych stwierdzono, że  w roku 1601 temperatura na półkuli północnej była najzimniejsza od 600 lat.   Pomiędzy 1601-1603 w Rosji zmarło z głodu około kikaset tysięcy osób.  Reformy Borisa Godunowa zostały zniwelowane przez wielką suszę co spowodowało głód w wielu rejonach Rosji; zresztą niepokoje wzmagały pogłoski o tym, że Dymitr, młodszy syn Iwana Groźnego żyje i należy mu się dziedzictwo. W 1604 roku rozpoczęły się tzw. Dimitriady z udziałem części polskiej szlachty
http://pl.wikipedia.org/wiki/Dymitriady

We Francji początek winobrania w roku 1601 był jednym z najpóźniejszych pomiędzy 1500-1700.  W Szwecji wystąpiły rekordowe opady śniegu w zimie 1601 roku a na wiosnę zanotowano olbrzymie powodzie.  Zbiory w Szwecji były bardzo małe co spowodowało głód i choroby (K. L. Versosub oraz  J. Lippman, Global Impacts of the 1600 Eruption of Peru’s Huaynaputina Volcano, EOS Transactions, 89, 141-142, 2008). Ocenia się, że globalna zmiana temperatury związana z wybuchem Huaynaputina wyniosla około 0.8°C i była znacznie większa niż jakikolwiek efekt wulkaniczny dwudziestego wieku (David H. Pyle, How did the summer go? Nature, 393, 1998).

W 1815, po wybuchu wulkanu Tambora we wschodniej Indonezji pyły, które przedostały się do stratosfery spowodowały tworzenie się zawiesiny aerozoli odbijających promieniowanie słoneczne. Mechanizm jest czasami nazywany globalnym zaciemnieniem
http://pl.wikipedia.org/wiki/Globalne_zaciemnienie

a następny rok 1816 nazwano „rokiem bez słońca”.  15 lipca 1991 wybuchł wulkan Pinatubo i jego wpływ na globalną temperaturę był obserwowany z danych satelitarnych. Ocenia się na podstawie bezpośrednich lub satelitarnych pomiarów, że wpływ wulkanów Mount Pinatubo na Filipinach i El Chichón w Meksyku zmiejszył globalną temperaturę o około  0.3°C.   Jednak większość wybuchów wulkanów jest za słabych, żeby mieć znaczący wpływ na klimat. Np wybuch wulkanu Laki na Islandii w 1783, mimo że zbliżony do intensywności wulkanu Tambora spowodował w północnej Europie gęstą mgłę,  ale nie wpłynął  znacząco na temperaturę globu - ponieważ większość materiału nie przedostała się do stratosfery. Mechanizm wzmożonych  powodzi w Szwecji po wybuchu Huaynaputina związany był  raczej z dużymi opadami śniegu w zimie i topnieniem na wiosnę.  

Innym mechanizmem oddziaływania zanieczyszczeń i pyłów wulkanicznych może być wpływ na tworzenie się kropel chmurowych. Tutaj jednak duża ilość małych cząstek aerozolowych raczej ogranicza opad deszczu a nie odwrotnie (przykładem jest mgła lub smog).  Wiadomo też, że pyły są  szybko wymywane przez padający deszcz.  Z obserwacji lidarowych (taka duża i szybko migająca latarka) na satelicie Calypso wynika, że ostatnie wybuchy wulkaniczne na Islandii wynosiły zanieczyszczenia głównie do stosunkowo niskich warstw atmosfery (około 8 kilometrów).

Zdjęcie z 7 maja 2008 pokazujące przekrój pionowy małych cząstek zawieszonych w powietrzu zaznaczonych kolorami czerwonym, zielonym i żółtym podczas wybuchu wulkanu Chaiten. Pomiary dokonano z satelity Calypso (instrument Caliop). Aerozol sięga do 16 kilometrów ponad powierzchnię Ziemi. Tylko wybuchy wulkaniczne w obszarach równikowych powodują obserwowalne efekty na obu półkulach. Małe (poniżej 1 mikrona) cząstki w stratosferze mogą spowodować istotną zmianę globalnej temperatury.

Zdjęcie z 7 maja 2008 pokazujące przekrój pionowy małych cząstek zawieszonych w powietrzu zaznaczonych kolorami czerwonym, zielonym i żółtym podczas wybuchu wulkanu Chaiten. Pomiary dokonano z satelity Calypso (instrument Caliop). Aerozol sięga do 16 kilometrów ponad powierzchnię Ziemi. Tylko wybuchy wulkaniczne w obszarach równikowych powodują obserwowalne efekty na obu półkulach. Małe (poniżej 1 mikrona) cząstki w stratosferze mogą spowodować istotną zmianę globalnej temperatury.

 

Wpływ wybuchów na Islandii na globalną temperaturę będzie przypuszczalnie bardzo mały. Podobnie, wpływ wulkanu na opady deszczu w Polsce w maju 2010 jest prawdopodobnie znikomy w porównaniu z  deszczem wywołanym przez transport pary wodnej z obszaru Morza Śródziemnego w obszarach ruchu wstępującego (powodującego opad) na frontach atmosferycznych.

PS.  Podziękowania dla Sashy Gershunova za informacje na temat  wybuchu Huaynaputina w 1600 i mozliwych korelacji z Polsko - Rosyjską polityką.

piątek, 21 maja 2010

22 czerwca 1918 roku w Buenos Aires spadł śnieg.  Pianista Agustin Bardi , zwany też “Chińczykiem”, Francisco Castello i Pedro Fiorito wybrali się na wyścigi koni w La Plata.  Potem poszli coś zjeść i wsiedli do Forda, żeby wrócic do domu. Samochód zepsuł się koło Parque Pereyra Iraola.  Trudno było znaleźć mechanika,  a w tym samym momencie zaczął padać śnieg.   Bardi zaczął nucić jakąś nową melodię tanga,  początek kompozycji. Niedługo potem spotkał się z  Eduardo Arolas  w kawiarni T.V.O.,  w pobliżu Barracas. To Arolas,  nazywany też “Tygrysem Bandoneonu”,  wymyślił nazwę “Co za noc!".  I tak powstało nowe tango.  Tę historię opowiada się do tej pory w Argentynie. Ostatni raz 9 lipca 2007 roku, kiedy po prawie 100 latach znowu padał snieg w Buenos Aires.  Wtedy meteorolog Hector Ciappesoni wypowiedział się dla gazety „La Nacion” , że śnieg w BsAs „jest bardzo trudno przewidzieć”.

PS W Polsce powódź. W Zatoce Meksykanskiej leje się ropa.

W 2006 roku byłem głównym meteorologiem polskiego zespołu  olimpijskiego przygotowującego się na olimpiadę w Chinach. Pojechałem z nimi do Quingdao (czytaj „czingdao”), żeby rozpracować akwen Zatoki Fushan gdzie odbyły się regaty żeglarskie w czasie letnich igrzysk w 2008. Z tym wyjazdem związana była masa roboty.  Powoli zaczynam zapominać tę przygodę, ale warto to opisać. 

Wciągnął mnie do prognoz żeglarskich Robert Jarecki, trener główny klasy 470.  Dla Roberta robiłem różnego rodzaju prognozy. Czasami na odległośc, kiedy oni się bujali na wodzie w rozmaitych krajach – w Palma Majorka, Cascais i w innych miejscach gdzie odbywają się regaty pucharu świata, których wyniki używane są do klasyfikacji olimpijskich.  Jedną z najbardziej spektakularnych wpadek miałem kiedy nad Balatonem przyszła komórka burzowa a ja przewidywałem słabe wiatry. Od tego czasu zacząłem sprawdzać mapy radarowe.

Robert skontaktował mnie z dyrektorem sportu PZŻ Tomkiem Chamerą. Ale pierwszy kontakt z PZŻ to był Zbyszek Kusznierewicz, ojciec słynnego polskiego olimpijczyka,  który jest naukowcem i inżynierem.  Zbyszek opowiadał wtedy w pokoju polskiego związku żeglarskiego w Warszawie na Chocimskiej  jak trenował Mateusza w rozpoznawaniu zmian wiatru.  Nie mam specjalnie wątpliwości, że inżynierskie wykształcenie Zbyszka pomogło Mateuszowi w osiąganiu światowych wyników w klasie Finn a teraz w klasie Star. Razem ze Zbyszkiem Kusznierewiczem staraliśmy się zbudować system, który byłby w stanie zbierać informacje o kierunku wiatru i statystyce zmian kierunku i prędkości przed zawodami z kołyszącej się i małej łódki trenerskiej. Tego typu pomiary turbulencji, zawirowań, rzeczywiście robi się meteorologii badając tzw. warstwę graniczną.  Pomiary turbulencji umożliwiają zrozumienie procesów wymiany momentu (wpływ wiatru) i ciepła (wpływ różnic temperatury) pomiędzy atmosferą i oceanem. W żeglarstwie wykorzystywane są  do oceny w jaki sposób optymalnie żeglować, w badaniach klimatu używane są do parametryzacji oddziaływania pomiędzy atmosferą i oceanem. Mała dygresja  - do tej pory nie bardzo wiadomo jak wiatr wpływa na ocean przy bardzo dużych, huraganowych prędkościach.

Prognozy pogody wykorzystywane są w żeglarstwie w trzech skalach. W klasie regat transoceanicznych ważne jest prowadzenie jachtu (ang. routing), tutaj istotna jest informacja o globalnych systemach pogodowych. Napiszę kiedyś o tym dokładniej bo to ciekawy dział meteorologii stosowanej.  Drugą skalą jest klasa Pucharu Ameryki  - tutaj prognoza mezoskalowa w skali kilkunastu kilometrów jest ważna, czasami wygrywa się przy pierwszej, dobrze przewidzianej, zmianie wiatru. W klasie olimpijskiej,  gdzie zawody sa krótkie, prognozy w skali globalnej są mniej ważne. Prognozuje się "na teraz", a istotną informacją jest rozwój bryzy morskiej, statystyka zmian wiatru, i pływy.

Mimo to prognozy pogody w klasach olimpijskich rozpoczyna się od zrozumienia ogólnej klimatologii akwenu.  Zaczęto to robić na poważnie od zawodów olimpijskich w Savannah w Georgia i pojawiły się pierwsze publikacje naukowe na ten temat.  Potem były prognozy bryzy morskiej w Sydney w Australii,  w Atenach w Grecji,  i ostatnio w Quingdao w Chinach. Każdy z tych akwenów ma swoją specyfikę.  Do prognoz początkowo używano modeli statystycznych, ale szybko zaczęto używać także mezoskalowych modeli numerycznych.   David Houghton i Fiona Campbell, którzy prognozowali pogodę dla zespołu brytyjskiego na olimpiadzie w Atenach mieli niezła zabawę, bo trzeba było prognozowac nie tylko wiatry bryzowe, ale też wiatry górskie – meltemi.   W Quingdao wiadomo było, że wiatry będą słabe. To było  istotne w przygotowaniach bo faworyzuje lekkich żeglarzy, zwłaszcza na małych jachtach i deskach. Wiedzieliśmy też, że są silne pływy zmieniające kierunek po południu -  to było ważne bo zmiany występowały w czasie trwania regat.  Wiadomo było, że Quingdao mogło być pod marginalnym wpływem cyklonów tropikalnych.  Miasto jest położone na tyle na północ od równika, że trajektorie cyklonów tropiklanych (tajfunów) zakrzywiają się już na wschód i zaczynają łaczyć się z przepływem w średnich szerokościach. Ten rejon nazywa się w meteorologii tropikalnej "obszarem przejściowym", podczas gdy obszary równikowe to obszary "genezy cyklonów". Z klimatologii wiadomo było, że będzie gorąco i wilgotnie. Wiedzieliśmy też, że powietrze będzie zamglone ze względu na wilgotoność i duże zanieczyszczenia w Chinach.

I to by było na tyle. Obiecuję jeszcze jeden blog - detale o prognozie w czasie regat.

PS Dobrą książką dla żeglarzy regatowych w klasach olimpijskich jest „Strategia Wiatrowa” (ang. Wind Strategy),  napisana przez  Fionę Campbell i Davida Houghtona. Rozmawiałem z Fioną, żeby tę książkę przetłumaczyć na polski – była tym zainteresowana, ale chyba do tej pory nikt jej nie przetłumaczył.

wtorek, 18 maja 2010

To jest blog dla fizyków. Dla mnie fizyka atmosfery i badania klimatu są dziedzinami podobnymi do astrofizyki jeżeli chodzi o metodologię nauki. Dlaczego?  Zarówno astrofizyka i fizyka atmosfery (meteorologia, badania klimatu) używają fizyki i matematyki stosowanej w podobny sposób.  W astrofizyce jest to olbrzymi zakres klasycznej i nowoczesnej fizyki oparty na mechanice klasycznej - ruch planet,  równaniu transferu - rozchodzenie się światła w chmurach pyłu kosmicznego, klasycznej optyce - obserwacje teleskopami, i wielu innych działów fizyki.  W fizyce atmosfery stosuje się podobnie szeroki zakres fizyki stosowanej. Mechanika cieczy opisuje ruch powietrza, równanie transferu promieniowania opisuje podstawy obliczeń efektu cieplarnianego,  elektrodynamika opisuje jak rozprasza się światło na kroplach wody i kryształach lodu. Niektóre analogie są zaskakujące. Dla przykładu zarówno zderzenie się kropel wody w chmurach jak i zwiększanie się pewnych obiektów astronomicznych opisywane jest tym samym równaniem Smoluchowskiego.  Oczywiście krople wody są znacznie mniejsze niż powiedzmy planety, ale procesy prowadzące do zderzeń mają podobną charakterystykę, są to głównie zderzenia dwóch obiektów w jednej chwili. Innym zdumiewającym przykładem jest zrozumienie efektów cieplarnianych czyli tego jak rozprzestrzenia się promieniowanie słoneczne i podczerwone w atmosferze. Podstawy teorii opracowało dwóch astrofizyków  Sir Arthur  Schuster i Sir Arthur  Eddington. Teraz przybliżenie dwustrumieniowe opisujące rozchodzenie się promieniowania słonecznego w atmosferze  jest używane w modelach klimatu i prognozach pogody. Inną zdumiewajaca analogią są zjawiska rozpraszania światła na małych obiektach. W astrofizyce istnieją pasy pyłu kosmicznego, którego cząstki są podobne do cząstek piasku, często nie są sferyczne. W sposób w jaki rozprasza się światło na takich cząstkach opisuję się podobnymi technikami zarówno w astrofizyce jak i w fizyce atmosfery  – np. przybliżeniem dyskretnych dipoli. 

W modelach klimatu używa się wielu zdobyczy klasycznej fizyki ale i technik rozwiniętych na potrzeby meteorologii. Wielokrotnie to właśnie obserwacje atmosferyczne doprowadzały do nowych hipotez fizycznych.  Dobrym przykładem jest wiele aspektow klasycznej termodynamiki. Mało kto wie, że początkowy rozwój komputerów był związany z prognozami pogody - pierwsze komputery służyły do prognoz pogody (John von Neuman w Princeton). Znany teraz każdemu fizykowi "efekt skrzydeł motyla",  czyli teoria chaosu, został opracowany przez meteorologa - Edwarda Lorenza, żeby zrozumieć przewidywalność pogody.
http://pl.wikipedia.org/wiki/Edward_Lorenz

Po co to piszę? Parafrazując powiedzenie Stefana Banacha - dobrzy fizycy dostrzegają analogie.  Tak na marginesie, Banach uważał także, że wielcy [matematycy] dostrzegają analogie pomiędzy analogiami; stąd tytuł bloga.

piątek, 14 maja 2010

7 maja 2010 w czasopiśmie Science  255 członków Amerykańskiej Akademii Nauk podpisało list oceniający, że obecne ataki na naukowców i badaczy klimatu są politycznie motywowane.
http://www.pacinst.org/climate/climate_statement.pdf

W liście naukowcy zwracają uwagę, że obecne ataki są dogmatyczne, robione przez ludzi, którzy chcą opóźnić działania związane z występującym globalnym ociepleniem. Wspomniany jest neomakkartyzm
http://takiklimat.blox.pl/tagi_b/42013/marcin-Bosacki.html

W Science akademicy  zwracają uwagę, że zawsze jest pewna niewiadoma związana z badaniami naukowymi, ale brak działania jest potencjalnie katastroficzny dla Ziemi. Kolejne komisje w sprawie "Climategate" (ostatnia  14 kwietnia 2010)  w sposób nie ulegający wątpliwości, stwierdzają że nie ma żadnych dowodów na jakiekolwiek umyślne i nieprawidłowe działania klimatologów.
http://pl.wikipedia.org/wiki/Climategate

W Stanach i w Europie Zachodniej, gdzie badania zmian klimatu są rozwijane,  sprawa Climategate sparaliżowała środowisko naukowe. List w Science jest pierwszą zorganizowaną odpowiedzią.  Do tej pory nie ma stanowiska Amerykańskiej Unii Geofizycznej i Amerykańskiego Stowarzyszenia Meteorologicznego.  

W Polsce potrzebny jest instytut czy grupa badawcza zajmująca się badaniem zmian klimatu. Zacząć należy od kształcenia uniwersyteckiego.  Teraz jako środowisko mamy stosunkowo mało siły, żeby odpowiadać na ataki pseudonaukowców. Ale  część działań jest optymistyczna – mieliśmy odpowiedź Komitetu Nauk Geofizycznych PAN na bezsensowne stanowisko Komitetu Nauk Geologicznych PAN,  jest troche dobrych blogów klimatycznych, rozwijana jest popularyzacja badan klimatycznych.  

Dziś blog dla eksperymentatorów, czyli jak zbudować kamerę poklatkową,  która mierzy zachmurzenie.  To będzie techniczne, tylko dla wariatów-meteorologów.  Na koncu jest pomysł na  magisterium. Całość jest trochę rozwinięciem artykułu jaki napisałem na wikipedii
http://pl.wikipedia.org/wiki/Kamera_całego_nieba

 

 

Zacznijmy od tego, że kamerę całego nieba można zbudować z dwóch garnków,  kołpaku (przykrywki)  na koła, i dość taniego aparatu fotograficznego (patrz zdjęcie).  Zwykłym aparatem można zrobić fotografię nieba.  Jest tu jednak kilka problemów: (1) żeby ocenić zachmurzenie w czasie dnia trzeba zdjęcia robić co kilkanaście minut, (2) zwykłą kamerą daje się zrobić fotografię tylko części nieba, (3) słońce świeci na tyle mocno, że prześwietla część fotografii blisko słońca, (4) kontrast pomiędzy chmurami a niebem może być mały. Wszystkie te problemy daje się stosunkowo prosto rozwiązać.  Zdjęcia co kilka minut daje się zrobić automatycznie cyfrowymi aparatami fotograficznymi, a dokładniej – prawie wszyscy amatorzy używają do tego kamer Canona. 

 

 

Najtańszym rozwiązaniem jest zainstalowanie programu obsługującego kamerę na karcie pamięci – tej gdzie normalnie są gromadzone zdjęcia.  Działa to niezwykle, kamera staje się swojego rodzaju minikomputerem i można ją automatycznie ustawić tak, żeby robiła zdjęcia co kilka lub kilkanaście minut.  To oprogramowanie nic nie kosztuje i nazywa się CHDK – czyli, w bardzo wolnym tłumaczeniu,  „Programy do obsługi aparatu Canona” 

http://chdk.wikia.com/wiki/CHDK

Następny problem to zrobienie zdjęć całego nieba.  Najłatwiej "wywrócić problem do góry nogami" i skierować kamerę w dół na objekt, który skupia w sobie całe niebo.  Świetnie się do tego nadają metalowe kołpaki (ang. hubcap) na koła TIRów.  Mają średnicę kilkunastu centymetrów, świetnie odbijają, i są wypukłe.    Nazywają się „baby moons” czyli „małe księżyce”.

 

Następnym problemem jest słońce, które może prześwietlić cześć zdjęcia jeżeli kamerę ustawimy na "automatyczne".  Rozwiązanie jest szalenie proste i zarazem sprytne i opiera się na technice cyfrowej.   Wystarczy zrobić szybko kilka zdjęć z różnym czasem lub przesłoną  i złożyć te zdjęcia w jedno.  Metoda daje fotografię o dużej dynamice (HDR)
http://pl.wikipedia.org/wiki/High_dynamic_range_imaging  

Ostatni problem jest trudny ale nie jest konieczny do wykonania.  Opisuje go, bo to ciekawy problem optyki atmosfery.  Ze względu na rozpraszanie światła niebo jest często „mleczne”  („zamglone”) w świetle widzialnym i kontrast pomiędzy chmurami i  czystym niebem jest mały. Można zwiększyć kontrast poprzez robienie zdjęć w podczerwieni.  Nieprawdopodobne przykłady zmiany kontrastu chmur pokazane są tutaj
http://ghonis2.ho8.com/rebelmoddaytime.html 

Można kupić odpowiednie filtry fotograficzne, które pozwalają robić fotografie tylko w podczerwieni. Niestety cyfrowe aparaty fotograficzne Canona mają wbudowane filtry (tzw „gorący filtr”), które przesłaniają obszar podczerwieni. Tutaj trzeba się pogimnastykować i wymienić filtr wewnątrz kamery na kawałek szkła typu „pyrex” (czyli przepuszczającego zarówno w świetle widzialnym jak i w podczerwieni).

Ostatni problem jest już algorytmiczny – jak ze zdjęcia zmierzyć zachmurzenie?   Wiele programów do manipulacji zdjęciami fotograficznymi ma możliwość znalezienia obszarów o pewnym zakresie kolorów. Podobną technikę można zastosować do oceny odcieni szarości (chmury) względem niebieskiego nieba.

A teraz obiecany pomysł na magisterium. Można technicznie zrobić sieć kamer cyfrowych i połączyć zdjęcia poprzez ich „zszywanie” - istnieją techniki panoramiczne tego typu. Dzieki temu dałoby się ocenić zachmurzenie na obszarze „mezoskalowym” (kilkanaście kilometrów)  i porównać z ocenami satelitarnymi lub modelami mezoskalowymi.  Nie znam za wiele prób tego typu.

sobota, 08 maja 2010

Ten blog mi chodzi po głowie bo przygotowuję się do eksperymentu na Florydzie na Przylądku Canaveral. Mam zamiar napisac o tym jak się mierzy ilość chmur i dlaczego to jest ważne.

Na początek trochę motywacji. Z punktu widzenia zmian klimatu zachmurzene jest ważnym parametrem bo chmury odbijają duże ilości promieniowania słoneczngo.  Każdy z nas dobrze wie, że w Polsce, w zimie, kiedy powyżej są chmury na dworze jest ponuro. Chmury odbijają około 50-70%  przychodzącego promieniowania słonecznego. Jest to olbrzymia ilość w porównaniu  z efektem cieplarnianym – około 100 razy większa. Czasami  nie zdajemy sobie nawet sprawy jak jest ciemno poniżej chmur, bo nasze oko ma nieprawdopodobną zdolność do adaptacji, ale pomiary pyranometrami
http://pl.wikipedia.org/wiki/Pyranometr

pokazują duży spadek natężenia.  Pomimo adaptacji reagujemy na zmianę natężenia promieniowania słonecznego – m.in. jest więcej depresji (psychicznych) w Polsce w zimie.  Wpływ na klimat poprzez  zmiany pokrywy chmur  jest jednym z wielu proponowanych mechanizmów. Jest  kilka proponowanych mechanizmów tego typu wpływu - regulacja temperatury w obszarach tropikalnych przez efekt termostatu, zmiany pokrywy chmur poprzez promieniowanie kosmiczne,  zmiany pokrywy chmur poprzez zmiany wilgotności w atmosferze.

Ale pomiary zachmurzenia są trudne. Przez kilka dziesiątków lat był to pomiar subiektywny, opierający się na ocenie zachmurzenia przez obserwatorów na stacjach meteorolgicznych. Robiło się to poprzez ocenę  zachmurzenia na trzech wysokościach  w jednostkach co 1/8; 0/8 – czyste niebo, 8/8 – całkowite zachmurzenie. Od czasu pomiarów satelitarnych ocenę pokrywy chmur można robić z przestrzeni kosmicznej. Nie jest to łatwe, zwłaszcza nad obszarami gdzie leży śnieg i ze względu na trudności oceny wysokości podstawy chmur, a także ze względu na  trudności technologiczne. Zmieniające się i coraz lepsze sposoby pomiarów satelitarnych powodowały, że inaczej oceniano zachmurzenie w kolejnych latach.  W końcu powstał projekt satelitarny ISCCP (wymawiaj  „iskip”), który miał za zadanie uniformizację wyników
http://isccp.giss.nasa.gov/

Projekt był prowadzony przez Billa Rossowa (uwielbia operetki) w ośrodku NASA GISS w Nowym Jorku, w tym samym miejscu gdzie pracuje znienawidzony przez przeciwników zmian klimatycznych Jim Hansen.   Wyniki projektu były bajecznie popularne i doprowadziły do tego, że zaczęto używać danych chmurowych ISCCP do oceny zmian klimatu. Bill Rossow łapał się za głowę, bo wiedział jak trudno jest zuniformizowć dane satelitarne z kilkunastu lat i używać je dla ocen klimatycznych; identyczny problem pojawil sie ostatnio w ocenie intensywności cyklonów tropikalnych tzw. metodą Dvoraka. Mimo to,  pojawiło się wiele (problematycznych) artykułów korelujących klimatologię zachmurzenia z różnymi procesami – np. aktywnością słońca; cześć z nich, m.in. hipoteza Svensmarka,  jest trudna do zweryfikowania.

czwartek, 06 maja 2010

A tutaj sprawozdzanie z pierwszysch dni z pomiarów na japonskim statku Mirai. Warto może zorientować jak są robione pomiary na morzu. część z tych pomiarów dotyczy badań klimatycznych oceanu - w tym przypadku sieci pomiarowej Argo. Ten email pokazuje troche "kuchni" - jak sie robi pomiary, które po jakimś czasie są używane do oceny zmian klimatycznych.

Dzien Dobry,
 
Nie mam tu stałego dostępu do internetu. Nawiązują polączenie raz na godzinę zeby odebrać i wysłać dane i maila, wiec skype ani nawet żaden chat nie zadziała. Dopoki tu jestem mam jednak adres mailowy na Mirai dopisany do mojej kajuty.
 
Wczoraj wypłyneliśmy. Dzisiaj umieścilismy pierwsze Argo w oceanie. Oni [na statku MIRAI] używaja urządzeń zrobionych przez niemiecka firme Optimal, choć sama sonda jest ze Scripps. Wcześniej umieścili już jeden instrument i były z nim problemy. Parkowal na 200dbar, zamiast na 500, robił zły profil, bo od 100dbar lecial od razu do powierzchni i do tego nie przekazywał pozycji. Słowem spory problem. Jest tu inżynier z Niemiec który próbuje rozwiazac ten problem. Zmienił czujnik GPS, dodał balastu (smiesznie to brzmi zważając że dorzucil tam 15 kuleczek 10g wagi każda), zresetowal firmware. Profilator dzisiaj wypuszczony powinien jutro rano skomunikować sie po raz pierwszy. Jutro też wypuszczamy drugie urzadzenie. Jezeli te nie zadziałaja to projekt wypuszczenia kolejnych zostanie wstrzymany.

Zanim wypuszczamy Argo sa jeszcze 2 pomiary. Robią CTD do 500m i wypuszczaja coś co się nazywa micro structure profiler. Póki co dopiero testuja to urzdzenie. Za jego pomocą można mierzyć turbulencję w oceanie. Ma rodzielczość rzedu 1cm (tak mi powiedzial Yamada, choć nie był tego do końca pewny).  Mają też kilka innych projektów,  które tu realizują. Mają radar dopplerowski, radar chmurowy (95GHz +/- 5MHz modulacji), lidar mikroimpulsowy (chyba 532nm czy jakoś tak). No i standardy czyli wiatr, temperatura i wilgotność powietrza, promieniowanie – słoneczne i podczerwone, pomiar AOT (automatyczny, mają sun tracker, choć nie wiem jak sobie radzą z chmurami). Robią też 4 razy na dzien sondaż aerologiczny.
Jest tez grupa która coś robi z jakimiś insektami i napięciem powierzchniowym. Generalnie są bardzo mili więc mogę wciskać nos praktycznie wszędzie tam gdzie się coś dzieje, choć jest pewna bariera językowa – słabo raczej mówia po angielsku. Nie wszyscy naturalnie, choć swobodna komunikacja z większościią jest dość ciężka.
 
Jest tu tez gość – Masaki Katsumata. On bedzie PI na Mirai w czasie DYNAMO. 

Ogólnie jest miło. Bardzo nie buja (mają też taki wielki stabilizator na najwyzszym pokladzie, który porusza sie przeciw fali – można go obserwować na telewizorze) i jedzenie jest bardzo dobre (choc poslugiwanie sie paleczkami sprawia mi jeszcze nie jaki problem, ale sie ucze).
 
Pozdrawiam
 
Darek

PS Trochę wyjaśnień o co tutaj chodzi dla osób, które nie są oceanografami lub meteorologami. Email używa wielu  akronimów i wyrażeń typowych dla naukowego żargonu. 

AOT - atmosferyczna grubość optyczna to jest pomiar ile jest cząstek zawieszonych w atmosferze. Wykonywany jest instrumentem, który śledzi słońce. Jest to trudne na statku, który się cały czas "kiwa". Łatwiej taki pomiar zrobić na lądzie, ale i tutaj chmury są czasami problemem, bo wtedy nie widać słońca.  Z drugiej strony jak jest duża pokrywa chmur to i tak taki pomiar nie ma sensu bo chmury maskują efekt cząstek zanieczyszczeń.

CTD  (conductivity, denisty, temperature) - to jest pomiar temperatury, ciśnienia  i zasolenia wody, który robi się z instrumentów opuszczanych ze statku na linie. Podobne pomiary z instrumentów, które opadają i juz nie są wybierane z wody nazywa się XBT.  Dla meteorologów: CTD, XBT są odpowiednikiem sondaży aerologicznych.

dbar - decybar, czyli jednostka ciśnienia. 1dbar odpowiada około 1m słupa wody.

Sondaż aerologiczny - pomiar temperatury, ciśnienia, wilgotności, prędkości i kierunku wiatru za pomocą balonów w atmosferze. Odpowiednikiem sondażu aerologicznego jest CTD. Odpowiednikiem wilgotności w atmosferze jest zasolenie w wodzie.

Lidar - to taka duża latarka, bardzo szybko migocacą  (no, w rzeczywistości pulsujace światło laserowe). W tym przypadku w kolorze zielonym (czyli w długości fali świetlnej ok. około 520 nanometra). Używany jest do oceny grubości warstwy dobrze wymieszanej w atmosferze, do oceny położenia chmur  i rozkładu zanieczyszczeń w atmosferze.

Radar chmurowy - mierzy wielkość i rozkład kropli wody w chmurach. 95GHz to częstotliowść wysyłanej fali w mikrofalach, natomiast modulacja  5MHz daje możliwość oceny rozkładu kropli wody z wysokością nad poziomem oceanu.

Balast sondy Argo i dodawanie małych ciężarków. Chodzi o to, że ta sonda ma neutralną wyporność (myśl o prawie Archimedesa). Tak, że dodanie małego nawet obciążenia powoduje, że sonda się zanurza. Własnienie ta neutralna wyporność sondy daje możliwość zmniejszania i zwiększania jej wyporności i automatyczne zanurzanie i wyniurzanie (patrz poprzedni wpis o sondach Argo).

poniedziałek, 03 maja 2010

Dziś na japoński statek MIRAI
http://www.jamstec.go.jp/e/about/equipment/ships/mirai.html

ma zaokrętować mój doktorant - Darek Baranowski.  Rejs jest z Guam na Palau, czyli odbywa się w tropikalnym rejonie Pacyfiku. W czasie pierwszej części rejsu planowane jest umieszczenie 8 specjalnych sond Argo, które będą mierzyły temperaturę i zasolenie w górnych 500 metrach oceanu. Dlatego dziś będzie o Argo i o tym jak się mierzy temperaturę w głębi oceanu. W tamtym roku napisaliśmy artykuł o Argo na polskiej Wikipedii. Darek robił wtedy magisterium na temat sieci Argo, i między innymi w ten sposób, przez pisanie artykułu na Wikipedii, wymienialiśmy informację co trzeba zrobić i przeczytać i gdzie są dane.  Moim zdaniem artykuł wyszedł całkiem encyklopedycznie
http://pl.wikipedia.org/wiki/Argo_(oceanografia)

Argo ma ciekawą  historię. W mitologii greckiej 52 bohaterów greckich wyruszyło na statku  Argo pod wodzą Jazona po Złote runo.  Argo to sieć około 3000 sond, które są umieszczane w oceanie ze statków, a następnie są już autonomiczne. Pierwsze wersje zostały skonstruowane w Instytucie Oceanografii imienia Scripps przez Russa Davisa.  Jego kolega z piętra niżej Dean Roemmich, wymyślił, że można wykorzystać takie sondy do skonstruowania światowej sieci pomiarowej. Było to ważne,  ponieważ do końca lat 1990 większość pomiarów oceanicznych odbywało się ze statków.  Do pomiarów temperatury na powierzchni można wykorzystać satelity, ale pomiary w głębi oceanu muszą być robione bezpośrednio (dla oceanografów - m.in. ze względu na to, że zdalne metody akustyczne były krytykowane ze względu na możliwy wpływ na wieloryby).  Na lądzie stacje meteorologiczne są w jednym miejscu przez lata. W przypadku sond, które poruszają się wraz z prądami oceanicznymi sytuacja nie jest taka prosta.  Jednak Dean Roemmich wiedział, że jeżeli większość czasu sondy będę spędzać głęboko pod wodą, to wtedy będą mniej więcej wypływać w tym samym miejscu. Dzieje się tak dlatego, bo przepływ głęboko w oceanie nie powoduje gromadzenia się sond w jednym miejscu; przepływ jest bezdywergencyjny. Z tego powodu sondy muszą przebywać na powierzchni bardzo krótko.  Sonda sama się wynurza i zanurza co kilka dni. Sondy sa tak skonstruowane, że mogą zmieniać swoją wyporność poprzez bardzo małą zmianę swojej objętości - robi się to gumowym pęcherzem.  Podczas kilku godzin na powierzchni oceanu sondy wysyłają dane do satelity, które następnie są transmitowane na Ziemię.  W czasie cyklu wynurzania sondy wykonują pomiary temperatury i zasolenia. Pierwsza sonda sieci Argo zaczęła pomiary pod koniec 1999 roku.  Sondy mają czas życia 3-5 lat głównie ze względu na to, że  wykorzystują baterie. Istnieją  teraz nowe technologie, które pozwalają na ładowanie baterii za pomocą efektu różnic temperatur w czasie wynurzania się sondy. Na początku cyklu sondy zanurzają się do głębokość około 1 kilometra, na której pozostają około 9 dni. Następnie zanurzają się do głębokości 2 kilomterów i zaczynają powracać na powierzchnię. Pomiary są wyłączane przed osiągnięciem powierzchni ze względu na możliwe problemy z zanieczyszczeniami znajdującymi się na powierzchni oceanu. Nowe techniki komunikacji z sondami wykorzystują system telefoniczny Iridium co umożliwia szybkie przesyłanie danych po wynurzeniu ponieważ sondy nie muszą czekać na przelot satelity nad danym miejscem. Dzięki temu można wysłac sondzie rozkaz, żeby zmieniła zmianę sposobu profilowania. Jest to ważne w szczególnych przypadkach, np kiedy sonda jest w okolicy cyklonu tropikalnego i warto mierzyć profil temperatury z większą dokładnością.

Do momentu stworzenia systemu Argo większość pomiarów temperatury w głębi oceanu odbywało się za pomocą statków badawczych lub statków handlowych, czasami za pomocą pomiarów z zakotwiczonych boi oceanicznych. Sieć Argo to kompletnie nowa jakość w pomiarach oceanicznych. A wszystko wydarzyło się w przeciągu ostatnich kilku lat.

sobota, 01 maja 2010

Marian Smoluchowski
http://pl.wikipedia.org/wiki/Marian_Smoluchowski

opracował matematyczną teorię, która stanowi podstawę mikrofizyki chmur. Równanie koagulacji Smoluchowskiego z 1917 roku
http://en.wikipedia.org/wiki/Smoluchowski_coagulation_equation

(Marian Smoluchowski, Versuch Einer Mathematischen Theorie der Koagulationkinetik kolloider losungen, Zeitschrift fur physikalishe Chemie, XCII, 1917, 129-168) opisuje m.in. jak zderzają się krople wody w chmurach i w jaki sposób powstaje deszcz. Równanie Smoluchowskiego jest używane w  modelach rozwoju chmur i, w uproszczonej formie, w modelach prognoz pogody i modelach klimatycznych (parametryzacja typu Kesslera).

Wyobraźmy sobie, że staramy się opisać problem wzrostu małych kropel utrzymujących się w chmurach aż do rozmiarów, kiedy następuje deszcz. Jednym z mechanizmów jest zderzanie i zlewanie kropel, proces który nazywamy koagulacją. Starając się opisać liczbę kropli o  określonej wielkości mamy do czynienia z dwoma procesami. Jeden proces jest procesem źródłowym – doprowadzającym do tego, że kropel o danym rozmiarze jest coraz więcej. Drugi proces jest procesem zmniejszającym (ściek) ilość kropli o danej wielkości.  Smoluchowski zauważył, że istnieje wiele kombinacji,  w których dwie małe krople zderzając i zlewając się  tworzy kroplę o konkretnym rozmiarze.  Łatwo to zrozumieć rozważając następującą analogię. Powiedzmy, że interesują nas kombinacje liczb, które po zsumowaniu dają liczbę 7=1+6=2+5=3+4.  Jak widać jest kilka możliwości (1,6), (2,5), (3,4). Podobnie jest w chmurach, krople o różnych rozmiarach zlewając się tworzą większą krople o konkretnej wielkości.  Inaczej jest dla ścieku: jakakolwiek kropla zderzająca się z kroplą o interesującym nas rozmiarze spowoduje, że ilość tych kropli się zmniejszy. Zastanówmy ile jest kombinacji dodawania do liczby 7 innej (nie zerowej) liczby, tak żeby po dodaniu nadal pozostało 7.  Nie ma takiej możliwości.  Te dwa procesy to w skrócie równanie Smoluchowskiego.

Tak na marginesie ciekawe są uwagi Smoluchowskiego o fizyce atmosfery w 1916 roku kiedy podkreślał że meteorologia przestaje być dziedziną opisową a staje się dziedziną fizyki: „Podręcznik meteorologii [Rudzkiego ...], pod pewnym względem stoi również  na poziomie wyższym niż podobne dzieła zagraniczne, ponieważ meteorologia nie występuje w nim jako zbiór statystycznych reguł empirycznych, lecz przybiera postać, o ile to możliwe w dzisiejszym stanie wiedzy, nauki o fizyce atmosfery. Taki zaś jest oczywiście kierunek, w którym ta nauka dzisiaj się rozwija, i w którym postępując, stanie się kiedyś gałęzią nauk ścisłych, równorzędną z innymi działami nauk ścisłych
http://matwbn.icm.edu.pl/ksiazki/pms/pms3/pms318.pdf

(Marian Smoluchowski, „Maurycy Rudzki jako geofizyk”, przemówienie wygłoszone w dniu 21 listopada 1916 roku na posiedzeniu Krakowskiego Oddziału Polskiego Towarzystwa Przyrodników im. Kopernika, Kosmos, tom XLI, 105-119).  Z perspektywy prawie 100 lat widać, że meteorologia jest dziedziną fizyki (a także chemii i matematyki stosowanej).  Czasami mam wrażenie, że nie dostrzeżono tego jeszcze do końca w Polsce w 2010 roku, gdzie meteorologia jest nadal domeną studiów geograficznych z jednym, chlubnym, wyjątkiem Uniwersytetu Warszawskiego. Potwierdza to też niski poziom, czasami na poziomie znachorstwa, obecnej dyskusji o zmianach klimatu w Polsce.

Jeden z najbardziej aktywnie badanych współczesnych problemów zmian klimatu opiera sie na pionierskich pracach polsko-amerykańskiego  fizyka atmosfery – Wojtka Grabowskiego. Wojtek pracuje od lat w Narodowym Centrum Badań Atmosferycznych w Boulder w Kolorado. To dzięki jego badaniom powstało centrum  nauki i technologii Wielkoskalowych Badań Procesów Atmosferycznych
http://www.cmmap.org/

Centrum stara się w realistyczny sposób uwzględnić procesy chmurowe w numerycznych modelach klimatu. Wojtek napisał kilka artykułów, które zapoczątkowały zainteresowanie tym tematem. Jeden z nich dotyczy parametryzacji konwekcji za pomocą modeli chmurowych (patrz np. Grabowski, W. W., and P. K. Smolarkiewicz, 1999: CRCP: A cloud resolving convection parameterization for modeling the tropical convective atmosphere. Physica D, 133, 171-178).

O co tutaj chodzi? Komputerowe modele zmian klimatu polegają na uwzględnieniu wielu wpływów na element powietrza.  To, że wieje wiatr zależy od tego jakie są różnice ciśnienia. To, ile promieniowania słonecznego dochodzi do Ziemi zależy od tego czy jest noc czy dzień i od tego ile promieniowania jest odbijane od chmur. To czy są chmury zależy od tego czy jest dostatecznie dużo wilgotności w atmosferze i od tego czy cząstce powietrza łatwo czy trudno przemieszczać się do góry (mówimy o stabilności atmosfery). Komputerowe modele  starają się uwzględniać wszystkie istotne procesy atmosferyczne:  transport promieniowania słonecznego, mieszanie turbulencyjne, tworzenie się chmur, oddziaływanie powietrza z przepływem nad górami, adwekcję powietrza z jednego miejsca do drugiego. Takich elementów powietrza może być szalenie dużo,  na wszystkie oddziaływują różne procesy i w zasadzie każdy z tych elementów ma wpływ na wszystkie inne. Ze względu na ograniczenia w szybkości obliczeń wyniki są liczone dla pewnej określonej rozdzielczości. Chcemy nie tylko uwzględnić dużą ilość elementów powietrza – daje to możliwość dobrej prognozy w konkretnym miejscu, ale też dokonać takiego podziału, w którym wszystkie istotne procesy są uwzględnione. Mimo to pewne procesy są zawsze podskalowe, innymi słowy nie są w sposób bezpośredni opisane.  Fizycy od dawna nauczyli się żyć z takimi podskalowymi zjawiskami.   Dla przykładu, temperatura w butelce jest przejawem ruchu wszystkich molekuł. Śledząc je wszystkie można wyznaczyć temperaturę.  Ale można też zmierzyć temperaturę termometrem, który mierzy uśrednioną wartość wszystkich molekularnych oddziaływań (uwaga tylko dla fizyków, którzy to czytają; chodzi o różnice pomiędzy opisem makroskopowym i mikroskopowym;  mechanika statystyczna vs termodynamika).

Jednym z procesów podskalowych w modelach prognozy pogody i klimatu jest powstawanie chmur. W globalnych modelach cyrkulacji ziemskiej rozważa się obecnie elementy powietrza w horyzontalnej skali około 100x100 kilometrów.  Chmury mają skalę zazwyczaj znacznie mniejszą niż 100x100 kilometrów. W tak dużym elemencie może być tysiące znacznie mniejszych chmur. Jednak pewną informację o uśrednionych własnościach można uzyskać nawet w tak dużym elemencie. Dla przykładu, jeżeli jest kompletnie sucho, to niezależnie od tego czy w środku  elementu jest góra czy jezioro, chmury nie mają szans powstać. Jest to przykład parametryzacji procesów podskalowych na podstwie informacji z większej skali.

Na czym polegał pionierski pomysł Grabowskiego?  Otóż Wojtek postanowił użyć do opisu chmur  „modelu w modelu”. Innymi słowy połączył ze sobą dwa modele. Jeden to ten jaki opisałem powyżej. W nim obliczane są prognozy dla elementu w skali 100x100km. Natomiast drugi model stara się obliczyć pole zachmurzenia wewnątrz elementu 100x100km dzieląc go na znacznie mniesze elementy.  Następnie wyniki z tego podskalowego modelu są uśredniane (np pole zachmurzenia) i przekazywane do modelu w większej skali. Tego typu schemat nazywany jest  obecnie w meteorologii superparametryzacją.