Blog poświęcony popularyzacji badań klimatycznych
sobota, 17 lipca 2010

W ostatnich 3 miesiącach Narodowe Centrum Badań Atmosferycznych  wypuściło dwa modele klimatu. W kwietniu 2010 oddano do użytku czwartą wersję Publicznego Modelu Klimatu, a 25 czerwca 2010 nowy  Publiczny Model Ziemi. Oba modele będą częścią projektu Porównanie Modeli Klimatu (CMIP), do którego wchodzi wiele modeli klimatycznych z całego świata a wyniki z tego projektu stanowią częściowo podstawy raportów IPCC.  Nowy model Ziemi jest w zamyśle szerszy niż dotychczasowe modele klimatyczne i ma za zdanie zrozumienie jednoczesnych zmian zachodzących w atmosferze (do 500 kilometrów nad powierzchnią Ziemi), oceanie, i na powierzchni Ziemi. Nowy model pozwala na badanie wpływu zmian klimatu przy znanej informacji o temperaturze oceanu. Większość opisów różnego rodzaju procesów fizyczych została poprawiona. Model został dostrojony (tj. zmieniane są parametry opisu  procesów fizycznych) poprzez sprawdzenie czy przewiduje prawidłowo klimat XX wieku.  Największe zmiany zostały wprowadzone w opisie procesów chemicznych w atmosferze, m.in. sposobu rozchodzenia się zanieczyszczeń (pyły, siarczany, sól morska).  Ciekawa jest też strona komputerowa. Modele klimatyczne zawsze stanowiły bardzo skomplikowany problem obliczeniowy, do którego wykorzystuje się superkomputery.

 

Modele klimatu nowej generacji mają tzw. „łączniki” (ang. couplers) pomiędzy różnymi podystemami, które wymieniają pomiędzy sobą informację o strumieniach (m.in. ciepła) – dla przykładu pomiędzy oceanem i atmosferą. Tego typu łączniki są potrzebne bo procesy w oceanie i w atmosferze mają różne skale czasowe zmian (np woda ma większą pojemność cieplną i własności oceanu zmieniają się wolniej).  Nowa struktura obliczeniowa (tzw. „rdzeń dynamiczny modelu”) pozwala na liczenie zmian klimatu zarówno na małych komputerach jak i na superkomputerach z kilka tysiącami procesorów. Rdzeń dynamiczy oblicza przepływ powietrza i oceanu pod wpływem róznego rodzaju sił działających na cząstki powietrza i wody. Nowy model jest opisany na stronie
http://www.cesm.ucar.edu/

A wyniki są opublikowane tutaj
http://www.cesm.ucar.edu/experiments/cesm1.0/diagnostics/

Raporty IPCC V mają się ukazać poczynając od 2013 roku.
http://www.ipcc.ch/activities/activities.htm

Nad V raportem IPCC pracuje ponad 800 osób.

środa, 14 lipca 2010

C'est à la chaleur que doivent être attribués les grands mouvements qui frappent nos regards sur la terre: C'est à elle que sont dues les agitations de l'atmosphère, l'ascension des nuages, la chute des pluies ... les courants d'eau qui sillonnent la surface du globe et dont l'homme est parvenu à employer pour son usage une faible partie... (Sadi Carnot, Réflexions sur la puissance motrice du feu, Paryż, 1824))

Jednym z pytań współczesnych badań klimatu jest zmiana intensywności cyklonów tropikalnych w sytuacji zmieniającej się temperatury powierzchni oceanów lub temperatury atmosfery. W Polsce przeciwnicy badań klimatycznych często wypowiadają się na ten temat, bez zrozumienia o co chodzi. W 1824 Sadi Carnot,  w ksiązce Refleksje na temat poruszającej siły ciepła, napisał: To dzięki ciepłu możemy zrozumieć wielkie ruchy jakie powstają na Ziemi; ciepło powoduje, że atmosfera porusza się,  dzięki ruchom wstępującym powstają chmury,  spada deszcz i inne meteory,  woda płynie po powierzchni Ziemi i w pewnym stopniu zostaje wykorzystywana przez czlowieka ...   Książka Carnot (karno) dała podstawy zrozumienia pracy silników zamieniających energię cieplną na energię mechaniczną. Cyklon tropikalny jest przykładem takiego urządzenia. Popatrzmy jak to działa.

 

Krok 1. Gaz jest ogrzewany i tłok porusza się do góry, jednocześnie zmniejszając ciśnienie gazu pod tłokiem. Temperatura gazu się obniża kiedy ciśnienie maleje, ale dodawane jest tyle ciepła, żeby temperatura pod tłokiem była cały czas taka sama (fachowa nazwa to rozprężanie izotermiczne)

Krok 2. Ciepło nie jest dostarczane, ale tłok nadal  porusza się do góry w związku z tym spada ciśnienie i obniża się temperatura. Ten spadek temperaury bez dodania ciepła nazywa się fachowo procesem adiabatycznym. Procesy adiabatyczne można łatwo zaobserwować np. obudowa pompki do roweru jest cieplejsza podczas pompowania powietrza.

Krok 3. Tłok nie może iść do góry cały czas. W pewnym momencie zaczyna opadać, ciśnienie pod tłokiem rośnie, z tym że w tym samym czasie ciepło jest oddawane (myśl o chłodnicy w samochodzie). Ten krok odbywa się bez zmiany temperatury ale w zimniejszej temperaturze niż Krok 1 (sprężanie izotermiczne)

Krok 4. Chłodnica przestaje działać i gaz jest sprężany bez wymiany ciepła i ogrzewa się do początkowej temperatury (sprężanie adiabatyczne).

Silnik Carnot, wykonuje pracę, innymi słowy zamienia energię cieplną na energię mechaniczną. Okazuje się, że sprawność silnika Carnot jest proporcjonalna do różnicy temperatury na początku Kroku  1 i temperatury pod koniec Kroku 2. Dokładniej,  praca jaką można uzyskać zależy od tego ile dostarczamy ciepła, ale także od sprawności silnika, która zależy od róznicy temperatur w jakich silnik pracuje.  Czyli

Praca =  (Dostarczone Ciepło)  (Tciepłe – Tzimne) / Tzimne

Popatrzmy się teraz na cyklon tropikalny.

Krok 1 (od A do B). Na poziomej osi na rysunku jest odległośc w kilometrach od oka cyklonu a na osi pionowej jest wysokość ponad ziemią. Powietrze płynie (spiralnie)  w kierunku oka cyklonu, w którym jest niskie ciśnienie. Ponieważ powietrze jest z kontakcie z powierzchnią oceanu to jego temperatura jest w miarę stała. Nie jest  oczywiste że temperatura jest stała, bo  cisnienie w punkcie A jest większe niż w oku cyklonu. Zachodzi proces oziębiania powietrza, jest to równoważone przez ciepło jakie płynie z oceanu do atmosfery. Jednocześnie do powietrza przedostaje się dużo ciepła (utajonego) ze względu na parowanie wody. Nie jest ono w tym kroku wykorzystane. Koło środka cyklonu (ale nie dokładnie tam) wieją silne wiatry i energia ruchu jest dysypowana, podobnie jak tarcie rąk powoduje odczuwalne zwiększenie temperatury.

Krok 2. Od B do C. Powietrze w oku cyklonu zaczyna poruszać się do góry. Powoduje to zmniejszanie się ciśnienia (bo ciśnienie w atmosferze maleje wraz z odległościa od Ziemi)  w więc spadek temperatury powietrza. Jednocześnie  pada deszcz, czyli skrapla się para wodna pobrana od atmosfery. Ten proces powoduje wzrost temperatury powietrza bo para wodna skraplając się oddaje ciepło. Ale całkowita pojemność cieplna (uwzględniając parę wodną) jest mniej więcej stała od B do C.

Krok 3. Od C do D. Powietrze znalazło się wysoko w atmosferze, 12 – 18 kilometrów ponad powierzchnia Ziemi, i rozpływa się od oka cyklonu. Na tych wysokościach jest zimno ze względu na rozprężanie powietrza i związany z tym spadek temperatury. Powietrze zaczyna opadać, spręża się przy tym, ale w tym czasie jest też wyziębiane przez wypromieniowanie ciepła (tak jak ochładza się dom, któru nie jest podgrzewany).

Krok 4. Od punktu D do A. Powietrze porusza się do dołu, zwiększa się ciśnienie i jest ogrzewane.

Cyklon tropikalny jest realizacją silnika Carnot. Dla nas najważniejszą sprawą jest to, że wykonana praca, która jest związana z wykorzystaniem ciepła przez cyklon tropikalny, jest proporcjonalna do różnicy temperatur na powierzchni Ziemi i na górze atmosfery. Gdyby temperatura na górze atmosfery była identyczna do temperatury na powierzchni Ziemi, wtedy cyklon nie mogłyby istnieć. A dokładniej, maksymalna prędkość w cyklonie tropikalnym

Vmax  =  proporcjonalna do  pierwiastka kwadratowego  z  (Tciepłe-Tzimne)/Tzimne

Co z tego wynika dla zmian intensywności cyklonów tropikalnych przy zmianie temperatury Ziemi?  Jest możliwych kilka scenariuszy. Jeżeli ociepli się tylko temperatura na powierzchni Ziemi, to intensywnośc (prędkość) cyklonów tropiklanych zwiększy się. Natomiast jeżeli podgrzejemy i Ziemię i górne warstwy atmosfery to różnica temperatur zostanie taka sama i intensywność cyklonów tropikalnych nie ulegnie zmianie. Oczywiście jest sporo innych komplikacji, dla przykładu wymiana ciepła z oceanem przy bardzo dużych prędkościach nie jest do końca zrozumiana ale wpływa na dysypację silnika.  Zmiany prędkości z wysokością mogą wpływać na "silnik cyklonu tropikalnego". Krytycy badań zmian klimatu w Polsce wypowiadając się na temat różnic w ocenie zmian intensywności cyklonów tropiklanych przy globalnym ociepleniu zapominają o tym, że jest to temat który jest dość dokładnie badany, a rozwarstwienie w środowisku klimatycznym (przywoływany jest zawsze Chris Landsea) odbywa się nie na zasadzie wyrażania poglądów, ale na zasadzie badań naukowych. Analogia z silnikiem Carnot jest prostym pogladowym opisem. Istnieją zarówno bardziej skomplikowane modele numeryczne jak i próby zrozumienia zmian intensywności na podstawie badań w atmosferze.  

PS Blog jest tłumaczeniem rozdziału z książki fizyka atmosfery z MIT zajmującego się badaniem cyklonów tropiklanych: Kerry Emanuel, Divine Wind, The History and Science of Hurricanes, Oxford, 2005).  Rysunki pochodza z rozdziau 10 tej książki „Nature’s Steam Engine”.

niedziela, 11 lipca 2010

W  styczniu 1916 Charles Hatfield zatopił San Diego. W 1915 roku zasoby wody dla San Diego, po kilku latach suszy,  były niebezpiecznie obniżone. Rada miasta postanowiła wynająć  Hatfielda i zapłacić 10,000 dolarów gdyby wywołał deszcz.  Hatfield ustawił kilkunastometrową wieżę koło zbiornika na wschód od San Diego,  na niej umieścił "akcelerator wilgoci" składający się z  galwanizowanej beczki, do której wlał mieszaninę sobie tylko znanych 23 chemikaliów. Deszcz padał nieustannie przez 15 dni. Tamy zostały zalane,  kilkanaście osób zginęło, prawie wszystkie mosty w San Diego runęły. Nie tylko San Diego, ale cała południowa Kalifornia zostały zalane.  Straty oszacowano na kilka milionow dolarów. Procesy sądowe wytoczone przeciw miastu zostały oddalone a sąd orzekl, że deszcz był wywołany za "sprawa boską". Ponieważ, sąd orzekł o interwencji Boga -  Hatfield nigdy nie dostał przyrzeczonych pieniędzy.  Co by nie było, historia ta jest przykładem próby adaptacji do okresów suszy  przez radnych San Diego.

Przewijamy kliszę o prawie sto lat.  W 2007 roku powstał  Klimatyczny Związek Dostarczycieli Wody (Water Utility Climate Alliance)  zrzeszający firmy kontrolujące dystrybucję wody do 36 milionów użytkowników (m.in. Południowa Kaliforna, Nowy Jork, Portland, San Francisco, Seattle, Południowa Newada). 
http://www.wucaonline.org

W klimacie pustynnym i półpustynnym (np na  „dzikim zachodzie Ameryki”), źródłem wody są opady śniegu w  zimie; natomiast duże opady deszczu przychodzą raz na kilka lat i rozdzielone są długimi okresami suszy. Zmiany klimatu wpływają na zmiany sezonalnej pokrywy śniegu i częstotliwości przejść pomiędzy suszą i opadem. Instytucje publiczne kontrolujace dystrybucję wody zainteresowane są zmianami klimatu ze względu na budowę zbiorników retencyjnych – czym dłuższe okresy pomiędzy deszczem, tym większe powinny być zbiorniki, lub budowaniem zakładów odsalania wody z oceanu.  Niestety z punktu widzenia planowania rozdziału wody  obecne wyniki modelowania za pomocą globalnych modeli klimatu są marginalne. Modele te oceniają zmiany uśrednione po dość dużym obszarze i nie dają dobrego zrozumienia zmian wewnątrz dekadalnych  - czyli, prostym językiem, ile razy na dekadę coś się wydarzy. Obecne modele klimatu przewidują zmiany klimatu w skali dekad i koncentrują się na scenariuszach zmian gazów cieplarnianych. Dla celów ekonomiczych w skali Polski czy południowej Kaliforni potrzebne są regionalne wyniki modeli klimatu, wyniki symulacji numerycznych, w których  lepiej modelowana jest zmienność wewnątrz dekadalna, oraz modele,  których rezultaty wykorzystują istniejące dane klimatyczne. Do tej pory w globalnych modelach klimatu pogoda była "szumem" - teraz musi się stać "muzyką".  Dobrą ściągawką  do opracowania procesów adaptacyjnych w skali kraju (Polska) jest raport
http://www.wucaonline.org/assets/pdf/actions_whitepaper_120909.pdf

Natomiast modele klimatyczne nowej generacji będa rzeczywiście używane do oceny problemów klimatycznych w skali kilku lat. Klika dniu temu, w lipcu 2010, Narodowe Centrum Badań Atmosferycznych (NCAR) w USA udostępniło nowy system modelowania otoczenia Ziemi (Community Earth System Model), w którym badanie zmian klimatu atmosfery jest już tylko jednym elementem
http://www.cesm.ucar.edu/

PS Nowy model klimatyczny z NCAR to dobry temat na magisterium. Sa już wyniki z symulacji XX stulecia.

piątek, 09 lipca 2010

7 lipca został opublikowany raport  niezależnej komisji - raport Muira - badającej sprawę climategate.

http://www.cce-review.org/

Jest to piąty z serii raportów dotyczących badań klimatycznych związanych z wykradzionymi emailami z serwera  Grupy Badań Klimatu (CRU)  w Universytecie Wschodniej Anglii.  Raporty te wykazują na bezpodstawność wszystkich zarzutów dotyczących manipulowaniem danymi, wpływem na proces recenzowania prac naukowych i błędami w badaniach naukowych prowadzących do konkluzji o globalnym ociepleniu. Profesor Jones, który odszedł ze stanowiska dyrektora CRU kilka miesiecy temu został powołany na stanowisko dyrektora naukowego.  Jako słuszne uznano drugorzędne zarzuty dotyczące sposobu komunikacji z "blogosferą". Innymi słowy sprawa zakonczyła się kompletnym sukcesem naukowców zajmujących się zawodowo zmianami klimatu.  Jest to przypuszczalnie jeden z ostatnich raportów dotyczący climategate i sprawa powoli zaczyna być zamknięta. Sam raport jest długi, ma 160 stron i są w nim ciekawe uwagi wychodzące ponad badania klimatyczne. M.in. chodzi o sposoby komunikacji wyników naukowych, polityki dostępu do danych w dobie powszechnego dostepu do internetu i roli naukowców w sytuacjach gdzie istnieje olbrzymie zainteresowanie społeczne i polityczne rezultatami ich pracy.  Są trzy wątki sprawy climategate warte rozważenia w polskim kontekście:  potrzeba zrównoważonej dyskusji na temat badań klimatu. swobodny dostęp do danych klimatycznych, potrzeba rozwinięcia ilosciowych badań klimatycznych w Polsce. 

Obserwując dyskusję na temat climategate w Polsce w ostatnich 9 miesiącach łatwo zauważyć wątki typowe dla dyskursu na ten temat na Świecie – w końcu żyjemy w epoce błyskawicznej komunikacji, ale są też wątki specyficznie polskie wynikające z naszego rozwoju w ostatnich 15 latach i priorytetów rozwojowych. Polaryzacja poglądów na temat wyników badań klimatycznych jest procesem światowym. W Polsce dyskusja na temat badań klimatycznych odbywa się  na styku "szalonych ekologów" i równie "szalonych krytyków".  Jak na całym świecie grupa "szalonych krytyków" jest mała, ale dobrze zorganizowana.  Ale Polską specyfiką jest stosunkowo małe środowisko naukowe zajmujące się zawodowo zmianmi klimatu, a właśnie to środowisko daje możliwość wypośrodkowania krańcowych opinii.  W ostatnich 9 miesiącach krytycy badań klimatycznych kompletnie zdominowali media w Polsce ku ogromnemu zaskoczeniu środowiska klimatycznego i meteorologicznego - są też pewne oznaki, że climategate doprowadził do mobilizacji w tym środowisku.

Z potrzebą zrównoważonej dyskusji na temat zmian klimatu wiąże się wobec tego rozwój polskiego  środowiska klimatycznego. Zdumiewająca sprawą jest to, że rektorzy polskich uniwersytetów nie są w stanie ustawić priorytetów w naukach geofizycznych; dla przykładu w Uniwersytecie Warszawskim mamy tylko dwóch profesorow zajmujących się nowoczesnymi badaniami fizyki atmosfery, podczas gdy podobne wydziały fizyki atmosfery w Anglii (przykładem jest University of Reading) czy USA (np. University of Washington) ma ich 15. Rozwój tego środowiska jest potrzebny bo badania naukowe w tym kierunku są istotne w procesach integracyjnych z EU, są istotne dla polskiej ekonomii ze względu na ograniczanie emisji dwutlenku węgla i ze względu na opracowanie scenariuszy adaptacji do zmian klimatycznych.   Inna polską specyfiką jest traktowanie klimatu jako nauki jakościowej, czyli klimatografią, a nie badaniami fizyki i chemii atmosfery jak to się dzieje na Świecie.

Swobodny dostęp do danych klimatycznych ma swoje specyficznie polskie jak i światowe wątki. Jednym z  wniosków z ostatniego raportu Muira  jest, że dyskusja badań naukowych ważnych społecznie jest prowadzona także na "blogosferze". Wymusza to większą otwartość w sposobie dystrybucji wyników i danych naukowych. Z jednej strony mamy tutaj do czynienia z faktem, że badania fizyki atmosfery i zbieranie danych klimatycznych są opłacane z pieniędzy publicznych, wobec tego powinny być ogólnie i bezpłatnie dostępne. Z drugiej strony naturalną tendencją jest chęć zaklepania sobie pierszeństwa w odkryciach naukowych lub chęć ograniczania dostępu do danych ze względów ekonomicznych.  W Polsce znakomitym przykładem ograniczania dostępu do danych meteorologicznych jest Instytut Meteorologii i Gospodarki Wodnej,  pomimo tego że źródłem finansowania są fundusze publiczne - dla obrony IMGW warto powiedzieć, że jest to tendencja prawie wszystkich narodowych instytutów meteorolgicznych na Świecie.  Jest znamienne, że Polska była jednym z kilku krajów na Świecie które zabroniły Uniwersytetowi Wschodniej Anglii rozprowadzania swoich danych klimatycznych.  Być może nacisk na zmianę tej polityki przyjdzie ze Światowej Organizacji Meteorologicznej lub ze zmian legislacyjnych w Polsce dotyczących polityki swobodnego dostepu do informacji publicznej. Istnieją precedensy tego typu, dla przykładu, wszystkie publikacje medyczne w USA sponsorowane przez Narodowy Instytut Zdrowia muszą byc dostępne bezpłatnie, podobnie jest w USA z danymi meteorologicznymi i klimatycznymi.

03:02, pcirrus
Link Komentarze (2) »
sobota, 03 lipca 2010

Ostatnie przebłyski  sprawy “climategate” – raport dotyczący pracy naukowej profesora M. Manna (autora rekonstrukcji temperatury z ostatnich 1500 lat)  zostal opublikowany w lipcu 2010. Jeszcze jeden komitet ekspertów oczyścił  Manna ze wszystkich zarzutów. Przypomnijmy, że w Polsce na profesora Manna napadł  m.in. w  liście do Gazety Wyborczej profesor Łukasz Turski, który stwierdził że Mann manipulował danymi klimatycznymi.  Inne zarzuty podnoszone w Polsce dotyczyły emaili wymienianych przez naukowców z Uniwersyteteu we Wschodniej Anglii i m.in. M. Manna. Raport z Uniwersytetu Penn State

http://live.psu.edu/fullimg/userpics/10026/Final_Investigation_Report.pdf

stwierdza, że Mann postępował zgodnie z akceptowaną praktyką pisania artykułów, raportowania danych, pisania grantów naukowych, i innych działalności naukowych.  Raport jest szczegółowy i długi. W każdym razie żadna z wielokrotnie wysuwanych w Polsce krtytyk Manna nie została potwierdzona. Okazało się nieprawdą, że Mann nie pozwalał używać swoich danych (używał ogólnie dostępnych wyników);  nieprawdą jest, że uniemożliwiał korzystania ze swojego oprogramowania (jego programy były dostępne na sieci), nieprawdą jest, że manipulował metodami statystycznymi (inni uzyskali identyczne rezultaty).    

Warto przypatrzeć  się jednemu z zarzutów występującemu w dyskusji badań klimatu dotyczącemu dystrybucji środków naukowych.  Mann dostawał  pieniądze z kilku źródeł - w większości z Narodowej Fundacji Nauki i z Narodowej Administracji Oceanu i Atmosfery. Raport tak opisuje ten proces: Recenzje projektów naukowych do  amerykańskiej Narodowej Fundacji Nauki  mają dwa etapy. W pierwszym etapie propozycje naukowe wysyłane są do kilku niezależnych naukowców i oceniane są na podstawie dwóch kryteriów – wartości naukowej i  wartości oczekiwanych wyników.  Propozycje oceniane są w skali pięciostopniowej. W drugim etapie zbiera się grupa 8-15 niezależnych ekspertów, która ocenia wszystkie propozycje naukowe jakie zostały zgłoszone.  Propozycje naukowe Manna były wielokrotnie finansowane przez amerykańską Narodową Fundację Nauki, której kryteria są oparte na opisanym (selektywnym) mechaniźmie.

W Polsce podnoszono też inne zarzuty finansowania badań klimatycznych w USA.  M.in. takie, że istnieje klika naukowcow rozdzielających pieniądze na badania klimatyczne, której celem jest głoszenie alarmistycznych tez ("napad na kasę").  Patrząc jednak na to z perspektywy sposobu w jaki są wydawane środki naukowe w Stanach jest to dość absurdalny zarzut. Naukowcy w swoich recenzjach raczej krytykują się nawzajem - zwłaszcza, że recenzje są pisane anonimowo, a w artykułach chcą pokazać że ich pomysły są lepsze niż inne. W Polsce podnoszono też aspekt olbrzymich sum wydawanych na badania klimatyczne. Nie jest to tak do końca prawdą,  bo w te sumy wliczana jest działalność statutowa organizacji takich jak NASA czy NOAA (agencja kosmiczna i biuro pogody).  Innymi słowy całość budżetu zawiera fundusze np na zbieranie danych o pogodzie z satelitów meteorologicznych czy pomiarów pogody - działalność jaką i tak by prowadzono, niezaleznie od badań klimatycznych.

 

PS Niezależna komisja Muira Russela 7 lipca 2010 przedstawiła swoje wyniki.
http://www.cce-review.org/

oczyszczając naukowców z CRU ze wszystkich naukowych zarzutów.

 

 

wtorek, 29 czerwca 2010

Dyskusja o zmianach klimatu prawie zawsze zahacza o problem roli zmian naturalnych i zmian wywołanych przez człowieka. Naturalne zmiany klimatu w skali geologicznej związane są z wpływem planet i gwiazd  (astrometeorologia). Powiedzmy sobie od razu, że żaden z rozsądnych badaczy klimatu nie kwestionuje wpływu na klimat przez zmiany intensywności dochodzącego promieniowania słonecznego. Mimo to warto zrozumieć historię problemu i obecny stan wiedzy w tym zakresie. Istnieje kilka aspektów astrometeorologii

  • astrologia,
  • wpływ planet,
  • hipoteza cykli Milankowicza,
  • (inne aspekty to m.in. zmiany stałej słonecznej, pole magnetyczne słońca, pływy).

Do 17 wieku nie istniały instrumenty meteorologiczne. W związku z tym pogoda była wiązana z astrologicznym opisem wpływu planet. Astrometeorologiczne prognozy pogody tzw. "prognostica" były popularne zwłaszcza w 16 wieku wieku i nie różniły się specjalnie od horoskopów. Sytuacja zmieniła się w 17 wieku kiedy skonstruowano instrumenty meteorologiczne i stworzono pierwsze sieci stacji meteorologicznych.

Jedną z najsłynnieszych w tym czasie sieci meteorologicznych była  założona przez "grupę Mannheim".  Dzięki temu projektowi meteorologia zaczęła swoją drogę w stronę nauki i możliwe było rozwinięcie dziedziny wiedzy jaką jest klimatologia (David C. Cassidy, Meteorology in Mannaheim: The Palatine Meteorological Society, Sudhoffs Archiv, 1983; Cornelia Lüdecke, Astrometeorological Weather Prediction at the Time of the Societas Meteorologica Palatina). Po okresie wojny siedmioletniej (1756-1763) nastąpiła w Europie dekada lat z dużymi opadami i zimnym latem co spowodowało gwałtowne pogorszenie sytuacji ekonomicznej.   W związku z tym, a także ze względu na poprawę technologii pomiarowej 15 września 1780 roku Karl Theodor stworzył międzynarodową sieć obserwacji meteorologiczych  "Societas Meteorologica Palatina".  W najlepszym okresie w sieci uczestniczyło jednocześnie 31 stacji (m.in. Berlin, Bolonia, Bruksela, Budapeszt, Kopenhaga, Dusseldorf, Genewa, Mannheim, Moskwa, Padwa, Praga, Sagan (Żagań, Polska, klasztor augustianów), Sztokholm). Do każdej ze stacji, głównie w klasztorach i uniwersytetach, wysyłano paczkami identyczne i dobrze wykalibrowane instrumenty meteorologiczne - dwa termometry, barometr, hygrometr. Paczki przychodziły często otwarte a intrumenty uszkodzone. Pomiary wykonywano jednocześnie w tych samych godzinach 7, 14, 21 i wprowadzono ujednolicone symbole meteorologiczne i sposób opisu pomiarów.  Projekt skończył swoją działalność w roku 1795 ze względów politycznych. W czasie około 11 lat pomiarów opublikowano dodatkowe obserwacje m.in.  opis wybuchu wulkanu w 1783 roku na Islandii i "krwawe chmury" obserwowane w Europie tego lata. Pierwsza analiza danych polegała na próbie korelacji wyników z pływami i skończyła sie fiaskiem. Inne próby korelacji pogody z położeniem planet także skończyły się fiaskiem. Niezależnie, w 1780 roku, ufundowano specjalną nagrodę na rozwiązanie problemu czy zmiany ciśnienia atmosferycznego są losowe czy nie - pierwsze miejsce wygrał Eberhard Schröter za pracę czysto astrometeorologiczną. Okazało się, na podstawie pomiarów "Societas", że  jego prognoza na luty 1784 była zła.  Był to koniec koncepcji astrometeorologii jaką znano do 17 wieku.

Nie jest to jednak tak do końca koniec koncepcji astrometeorologicznych. Około 1920 roku serbski badacz  Milutin Milankowicz  zaproponował, że zmiany eliptyczności orbity Ziemi, nachylenie ekliptyki i precesja orbity Ziemi odpowiadają za cykle epok lodowcowych.  Milankowicz zauważył, że intensywności dochodzącego promieniowania słonecznego zależy od tych trzech zmiennych. Początkowo hipoteza nosiła nazwę hipotezy insolacji, ale teraz mówimy o "cyklach Milankowicza".  Hipoteza została eksperymentalnie potwierdzona dopiero w roku 1976 chociaż był też okres, kiedy została zarzucona. Obecnie cykle Milankowicza są powszechnie przyjętą teorią zmian natężenia dochodzącego promieniowania słonecznego do Ziemi w skali tysięcy lat,  mimo że istnieje kilka subtelnych problemów związanych z porównaniem danych z teorią (patrz J. Imbrie and K.P.Imbrie, Ice Ages: Solving the Mystery, 1979).

PS. Trudno sobie wyobrazić nowoczesy wykład z klimatologii bez opisu cykli Milankowicza. Nie oznacza to, że zmiany klimatu są (tylko) powodowane przez cykle w skali geologicznej.

PS. Opis cykli Milankowicza na polskiej Wikipedii jest bardzo powierzchowny. Jest to hasło, które powinno być rozbudowane, chociażby po to, żeby mogli je przeczytać profesorowie Komitetu Nauk Geologicznych PAN.

http://en.wikipedia.org/wiki/Milankovitch_cycles
http://www.sciencecourseware.org/eec/GlobalWarming/Tutorials/Milankovitch/

czwartek, 24 czerwca 2010

Historia badań nad naturalnym termostatem temperatury oceanu w tropikach jest pasjonująca. Ostatnio hipoteza ta „wpadła w ręce” przeciwnikom zmian klimatu, ale została zaproponowana przez V. Ramanathana (Ram) i Billa Collinsa, którzy z pewnością nie planowali, że ich pomysły będą teraz służyć przeciw badaniom klimatycznym.

W skrócie Ramanathan i Collins zaproponowali (Ramanathan, V., and W. Collins. 1991. Thermodynamic regulation of ocean warming by cirrus clouds deduced from observations of the 1987 El Niño. Nature 351:27-32), że temperatura w ocenie tropikalnym jest regulowana przez burze, a dokładniej przez kowadła chmurowe związane z burzami.  Kowadło chmurowe to górna część rozbudowanej chmury burzowej  (patrz rysunek) a nazywa się kowadło bo wyglada jak kowadło. W pasie szerokości geograficznych pomiędzy równikiem do 30 stopni szerokości (na obu półkulach) około 50%  pomiarów temperatury oceanu ma zadziwiające własności – utrzymuje się w bardzo wąskim przedziale od 27 do 30 stopni Celsiusza.  Tylko w 0.01% przypadków temperatura oceanu w tym rejonie świata jest większa niż 31 stopni Celsiusza. Pomysł Ramanathana i Collinsa polegał na tym,  że przy pewnej temperaturze oceanu powstają gwałtowne burze i z tych burz dużo pary wodnej jest transportowana bardzo wysoko i tworzy  chmury złożone z kryształów lodu.  Od chmur odbija się promieniowanie słoneczne i to powoduje oziębianie powierzchni Ziemi. Hipoteza Ramanathana i Collinsa nigdy nie doczekała się ostatecznego wyjaśnienia. Dla przykładu oceanografowie twierdzili, że kontrola temperatury oceanu jest związana z transportem ciepła z równika na bieguny. W 1993 roku odbył się eksperyment poświęcony termostatowi.
http://www-c4.ucsd.edu/cepex/

i miał za zadanie zweryfikowanie hipotezy termostatu przez wykorzystanie różnic zachmurzenia pomiędzy Zachodnim i Centralnym Pacyfikiem. Tyle tylko, że w 1993 różnice w zachmurzeniu były małe (przyszło El Nino).

 

Sam mechanizm jest teraz miodem na serce przeciwników zmian klimatycznych, którzy twierdzą że termostat powoduje stabilizację temperatury powierzchni Ziemi. Podczas gdy sam pomysł termostatu jest intrygujący to wykorzystanie go przez przeciwników zmian klimatu jest wątpliwe bo  chmury nie zmieniają koncentracji gazów cieplarnianych i przy wzroście temperatury, możemy mieć do czynienia z trudną do przewidzenia sytuacją równowagi.

PS Trochę tu trzeba uważać, bo od „normalnych”, czyli cienkich chmury cirrus promieniowanie słoneczne odbija się w małym stopniu i raczej ocieplają one powierzchnię Ziemi. Piszę "raczej" bo ocieplanie lub oziębianie powierzchni Ziemi przez cienkie chmury lodowe zależy od wielkości kryształków lodu. Termostat działa tylko dla bardzo grubych chmur. Tak przy okazji - chmury blisko powierzchni Ziemi powodują oziębianie.     

środa, 23 czerwca 2010

Ziemia jest jak patelnia. Podgrzewana przez słońce stygnie cały czas, zwłaszcza w nocy. Z drugiej strony ani powietrze ani chmury nie są silnie podgrzewane przez promieniowanie słoneczne, bo gdyby było silne pochłanianie promieniowania słonecznego to atmosfera byłaby czarna.  Innymi słowy atmosfera zarówno w dzień jak i w nocy stygnie. To stygnięcie nazywa się fachowo wypromieniowaniem cieplnym i wynosi około 1 stopnia na dzień i odbywa się wszędzie, na całej kuli ziemskiej.  90 dni zimy powinno dać zmianę temperatury o -90 stopni Celsiusza, a obserwuje się znacznie mniej.  

Deszcz pada po to, żeby zrównoważyć to nieustanne wyziębianie atmosfery. Skraplanie się pary wodnej, czyli deszcz, oddaje energię ciepła utajonego  („utajonego w parze” – fizycy nie lubią tego pojęcia, ale meterolodzy uwielbiają) do atmosfery i pogrzewa ją. Dokładniej – musi spaść około 3mm deszczu dziennie wszędzie na Ziemi, koło 1 metra na rok, żeby wyrównać to nieustanne wychładzanie atmosfery. Szybkie pytanie. Czy więcej deszczu pada w naszych szerokościach w zimie czy w lecie? Pada tyle samo (pytałem o pas szerokości geograficznych wokół Ziemi).  Atmosfera chłodzi się prawie identycznie w każdej porze roku. Jednak w zimie jest mniej deszczu nad lądem.  Z  tego wynika,  że w zimie musi padać znacznie więcej deszczu nad oceanami niż nad lądem.  

 

Reszta tylko dla meteorologów.  Jak powinna wyglądać ogólna cyrkulacja atmosfery w zimie, żeby nad oceanami padało dużo deszczu?  Sprzyjającym układem jest transport pary wodnej z obszarów tropikalnych nad oceanem i opad po wschodniej stronie oceanu. Żeby nastąpił opad musi następować ruch wstępujący co istotnie dzieje się w układzie ciśnienia (wiatr wieje wzdłuż izobar) takim jak na rysunku.  Nad lądem jest ruch zstępujący i stabilna sytuacja bez opadów. Gdyby cały przepływ był przesunięty w fazie (wyż po wschodniej stronie kontynentu) to deszcz musiałby padać w zimie nad lądem. Elegancja tych argumentów polega na tym,  że z tego gdzie  pada deszcz jesteśmy w stanie zgadnąć jaka musi być ogólna cyrkulacja atmosfery.

PS Wiele lat temu klimatologia była nudnym przedmiotem, bardziej "klimatokartografią" niż fizyką - opisem klimatu w poszczególnych miejscach na Ziemi.  Profesor Janusz Borkowski, który prowadził zajęcia z klimatologii na Wydziale Fizyki UW ostatnio mi opowiadał, że starał się temu zaradzić wprowadzając elementy statystyki. Obecnie wykłada się na UW "Fizykę pogody i klimatu".  Klimat można opisać na podstawie prostych fizycznych argumentów.  W końcu właśnie pokazaliśmy, że z termodynamiki (deszcz) i prawa Stefana-Boltzmana (wypromieniowanie cieplne) wynika gdzie w zimie pada deszcz.

PS2. Ten blog jest oparty na jednym z wykładów ogólnej cyrkulacji atmosfery (AT605) profesora Billa Gray z Colorado State University w Fort Collins.  

Tagi: deszcz
01:22, pcirrus
Link Dodaj komentarz »
poniedziałek, 21 czerwca 2010

Dziś o empirycznych funkacjach ortogonalnych i Oscylacji Arktycznej.  Wyobraźmy sobie szereg zdjęć twarzy tej samej osoby w czasie dnia, lub kilku tygodni.  Z pewnością pewne szczegóły w kolejnych zdjęciach będą podobne. Można sobie wyobrazić, że mamy jakieś podstawowe jedno zdjęcie a wszystkie inne wyrazy twarzy (płacz, zmartwienie, uśmiech) są modyfikacją tego podstawowego. Można to trochę skomplikować i założyć, że podstawowych zdjęc jest kilka (normalny wyraz, płacz, zmartwienie, uśmiech) a wszystkie inne sytuacje (przejście pomiędzy uśmiechem a zmartwieniem) to warianty tych kilku podstawowych. Stan atmosfery w danej chwili czasu, np. rozkład ciśnienia na Ziemi jest podobny do fotografii twarzy. Rozkład ciśnienia na Ziemi zmienia się w czasie dnia, miesiąca, czy lat. Ale istnieją podstawowe fotografie rozkładu ciśnienia na Ziemi, jest ich może kilka lub kilkanaście. Takie fotografie stanu atmosfery na Ziemi nazywają się fachowo empirycznymi fukcjami ortogonalnymi (w statystyce ta sama metoda nazywa się  analizą głównych składowych). Idea ortogonalnych funkcji empirycznych jest szalenie prosta, mając kilka podstawowych zdjęć, możemy z dobrą dokładnością odtworzyć wszystkie możliwe wyrazy twarzy czy stanu atmosfery.  Jak znaleźć te podstawowe zdjęcia?  Możemy je sobie wymyśleć, dla przkładu wziąć byle jaką fotografię.  Lepiej jednak wziąć sekwencję kilkunastu zdjęć intresującej nas osoby i przeanalizować korelację pomiedzy kolejnymi zdjęciami.

Zróbmy „fotografię” stanu  ciśnienia blisko powierzchni Ziemi na całym globie od bieguna do 20 stopni szerokości (czyli prawie całej półkuli pólnocnej Ziemi) za wyjątkiem pasa wokół równika.  Zbieramy te fotografie przez 30 lat co miesiąc i wyznaczamy jeden stan podstawowy. Każdy inny stan jest atmosfery jest identyczny do tego stanu podstawowego ale pomnożony przez jedną liczbę (dodatnią, zero, lub ujemną).  

  

 

Takie zdjęcie będzie wyglądało tak jak na rysunku powyżej. Na tym rysunku jest zdjęcie ciśnienia atmosferycznego, a  dokładniej fotografia typowego odchylenia tego ciśnienia od średniej z 30 lat. Niebieskimi kolorami zaznaczone jest ciśnienie mniejsze, a czerwonymi kolorami ciśnienie większe niż średnia.  Każda inna sytuacja jest kombinacją średniego ciśnienia na powierzchni Ziemi a do niego jest dodane lub odjęte zdjęcie takie jak powyżej. Liczba jaką trzeba użyć, żeby dostać ciśnienie w konkretnym dniu nazywa się indeksem Oscylacji Arktycznej (AO)  Ten indeks  zmienia się w czasie. Fizycznie indeks AO opisuje oscylację ciśnienia na prawie całej półkuli północnej pomiędzy obszarami biegunowymi i około tropikalnymi. Indeks Oscylacji Arktycznej może zależeć od wielu czynników - od tego jaki jest stan atmosfery w pasie blisko równika lub od tego co się dzieje bardzo wysoko w atmosferze (w stratosferze). Stan indeksu Oscylacji Arktycznej ciśnienia jest wyznaczany każdego dnia i jest dostępny tutaj

http://www.cpc.noaa.gov/products/precip/CWlink/daily_ao_index/ao.shtml

Można wyznaczyć inne indeksy, np indeks stanu atmosfery tropikalnej (tzw. indeks Oscylacji Maddena Juliana - MJO), lub indeks oscylacji antarktycznej (AAO), lub indeks oscylacji ciśnienia tylko na Atlantyku (tzw index oscylacji północnoatlantyckiej - NAO).  Obecnie wszystkie indeksy - MJO, AO, AAO, NAO liczone są na podstawie empirycznych funkcji ortogonalnych. Istnieją zależności pomiędzy indeksami. Mówimy wtedy o telekonekcjach - deszcz w Polsce (indeks AO)  może zależeć od stanu atmosfery tropikalnej (indeks MJO).

 

PS. Empiryczne funkcja ortogonalne są "w środku" kontrowersji dotyczących tzw. krzywej hokejowe (rekonstrukcji temperatury). Przeciwnicy zmian klimatu krytykują M. Manna za nieprawidłowe ich użycie. Bardzie ogólnie chodzi im o to, że klimatolodzy powinni konsultować oszacowania klimatyczne ze statystykami. Jednak duża ilość metod statystycznych została rozwinięta (czasami zapoczątkowana) przez naukowców zajmujących się naukami o Ziemi. Dla przykładu,  podstawowy podręcznik "Principal Component Analysis in Meteorology and Oceanography" został napisany przez Rudolpha  Preisendorfera, oceanografa z Instytutu Oceanografii imienia Scripps (sama metoda została zaproponowana w 1901 roku przez statystyka Karla Pearsona)
http://en.wikipedia.org/wiki/Karl_Pearson

PS. Jest więcej podobieństw pomiędzy cyfrową obróbką zdjęć  i "klimatem". Wszystkie indeksy meteorologiczne początkowo liczono na podstawie dwóch punktow - np. różnicy ciśnienia pomiedzy Islandią i Azorami, ale po wprowadzeniu globalnego systemu zbierania danych i po zbudowaniu klimatologii można było zrobić EOFy.  Fotografia przeszła z kliszy na zdjęcia cyfrowe i dało to możliwosc obrabiania cyfrowego zdjęć.  Od kilku lat obróbka zdjęć fotograficznych bardzo przypomina przetwarzanie danych satelitarnych - nie ma dużej różnicy pomiedzy "Photoshopem" i znalezieniem z danych satelitarych indeksu chlorofilu; ten indeks wyznacza się  jako proporcja koloru niebieskiego do zielonego. Podobnie kompresja (jpg, gif) zdjęć jest podobna do kompresji danych meteorologicznych.

Wstęp do PCA
http://neurobot.bio.auth.gr/Tutorials/Documents/pca_tut_3.pdf

poniedziałek, 14 czerwca 2010

Wiedźmy przygotowują wywar w celu sprowadzenia gradu.

 

W nowej książce Eli Kintich, “Majstruj Ziemią. Nadzieja lub zmora nauki - wszystko po to żeby nie doszło do katastrofy klimatycznej” ( “Hack the Planet: Science's Best Hope - or Worst Nightmare - for Averting Climate Catastrophe”, 2010, Willey)  i na stronie sieciowej
http://hacktheplanetbook.com/category/featured/opisuje

opisuje inżynierię klimatu i pogody. Dodam na początku, że wraz z dużą ilością naukowców, jestem bardzo sceptyczny, ale temat nie jest taki prosty –  część z pomysłów już realizujemy np. latając samolotami.  Hipoteza spowodowania opadu poprzez tajemnicze samoloty (ostatnio dyskutowana w Polsce) rozpylające tajemnicze substancje jest z pogranicza inżynierii pogody i teorii spiskowych - inną sprawą jest to czy jest realistyczna.  

Od 2007 roku Bill Gates, były szef Mikrosoftu,  inwestuje w metody inżynierii pogody i klimatu.  M.in. w projekt wprowadzenia małych cząstek do stratosfery - z firmą Intellectual Ventures. Z pomysłem tym wystąpił w 2006 roku laureat Nagrody Nobla Paul Crutzen (Paul bardzo lubi sałatkę z pomidorów) a o wiele lat wcześniej słynny klimatolog rosyjski Budyko. Gates inwestuje też w project Armanda Neukermansa zwiększający odbijalność słońca of chmur nad oceanami. Ten pomysł pochodzi m.in. od fizyka chmur Lathama, który pisał o wielkich rozpylaczach. Wiele z projektów inżynierii pogody i klimatu ma „analogie w naturze”. Np. zwiększenie odbijalności poprzez wprowadzenie aerozoli siarczanowych do stratosfery jest z swoim zamyśle podobne do procesu obserwowanego w czasie wybuchów wulkanów, stąd nazwa "opcja Pinatubo".  Pomysł ma też negatywne konsekwencje – zmniejszenie ozonu w stratosferze. Inną techniką inzynierii pogody jest zasiewanie żelaza w oceanie. Okazuje się, że w wielu miejscach w oceanie dodanie związków żelaza powoduje zakwity fitoplanktonu. Ma to obniżyć ilość dwutlenku węgla (fotosynteza). W ubiegłym roku grupa badaczy z Niemiec i Indii przeprowadziła taki eksperyment na oceanie południowym na dość dużą skalę. Nastąpił istotnie zakwit, ale innego rodzaju fitoplanktonu niż się spodziewano.  Inne pomysły geoinżynierii polegają na ustawienu luster lub parasoli w przestrzeni kosmicznej.

Mimo, że wszystko to jest traktowane przez pomysłodawców jako ostatnia deska ratunku, to pewna część zamysłów jest realizowanych - np zasiewanie oceanu żelazem. My sami już teraz realizujemy kilka metod geoinżynieryjnych - np smugi kondensacyjne za samolotami powstają w czasie komercyjnych lotów. Podobnie jest ze zwiększaniem odbijalności chmur  przez drobne cząstki zanieczyszczeń pozostawiane przez statki.

Przeglądowy artykuł na ten temat, napisany z pozycji sceptyka, napisał mój promotor – Bill Cotton (Weather and climate engeenering w J Heintzenberg, Robert J Charlson, Clouds in the perturbed climate system: their relationship to energy balance, atmospheric dynamics, and precipitation, Strüngmann Forum reports, 2009).

Napisałem o tym wszystkim na Wikipedii, ale jest tam jeszcze dużo do napisania (np całe hasło o modyfikacji pogody)
http://pl.wikipedia.org/wiki/Inżynieria_pogody_i_klimatu

Istnieją już próby (chyba słuszne) nałożenia embarga na eksperymenty tego typu.

 

Rozplylacze i autonomiczny statek oparty na efekcie Magnusa.

sobota, 12 czerwca 2010

Dziś o Billu Gates’ie, kondukcie pogrzebowym, cyklonach tropikalnych, i naściślej strzeżonej tajemnicy meteorologów tropikalnych. 

W lecie 2009 roku Bill Gates, były szef Mikrosoftu,  wystąpił o 5 patentów na kontrolę cyklonów tropikalnych poprzez obniżenie temperatury warstwy oceanu bliskiej powierzchni.  Idea tego pomysłu jest taka, ze cyklony tropikalne czerpią swoją energię z oceanu. Energia jednego dużego cyklonu tropikalnego jest równoważna bombie jądrowej (można to wyliczyć z ilości deszczu jaki spada)  i większość z tej energii pochodzi od oceanu.  Ta historia jest jednym z przykładów  aktywnie obecnie rozwijanej dziedziny inżynierii pogody i klimatu.

Zdradzę sekret. Istnieje tajemnicza lista, do której dostęp mają zawodowi meteorolodzy, która nazywa się "listą tropikalną".  Każdy email z tej listy ma informację "Nie przekazuj tej informacji do osób bez odpowiedniego wykształcenia" ("Please do not forward this message to non-qualified individuals"). Jej strona sieciowa to
http://www.tstorms.org/tropical-storms/

W Polsce jest tylko jedna osoba (nie ja), która jest członkiem tej listy. Oczywiście pomysł Gates’a zaraz był na tej liście omawiany - i skrytykowany. Ale jak dobrze pójdzie, Gates będzie miał kontrolę nad cyklonami tropikalnymi przez 18 lat.  Jak każdy dobry pomysł z inżynierii klimatu i pogody istnieją przesłanki fizyczne dlaczego może to działać. W przyrodzie obserwuje się ślad zimnej wody po przejściu cyklonu tropikalnego.   Co to jest zimny ślad cyklonu? Ze zdjęć satelitarnych widać, że temperatura oceanu po przejścu cyklonu obniża się. Ma to sens, bo energia cieplna pobierana przez cyklon wychładza ocean. Dość długo nie bardzo było wiadomo jak głęboko te zmiany sięgają - bo było trudno robić ze statku pomiary bezpośrednio pod cyklonem - trochę wieje.  W ostatnich dziesięciu latach opracowano specjalne techniki pomiarowe, m.in dryfujące swobodnie w oceanie boje z łańcuchem pomiarów temperatury na różnych głębokościach, które wrzuca się do wody z samolotów przed przejściem cyklonu tropikalnego. Takich pomiarow było do tej pory stosunkowo niewiele, może 3-4 pomiary w róznych cyklonach.  Z tych pomiarów udało się ocenić, że temperatura nie tylko powierzchni oceanu, ale też pod powierzchnią oceanu, nawet do 100 metrów jest oziębiana i tworzy dobrze wymieszaną warstwę. Istnieje anomalia i okazuje się, ze często po prawej stronie trajektorii cyklonu to wyziębienie jest większe.   

PS Bawi mnie tłumaczenie na polski angielskich terminów. Dość często się z tym borykam (i wielu innych wikipedystów) wpisując coś na Wikipedii.   W tym krótkim blogu są trzy nowe terminy, które przetłumaczyłem z angielskiego i warto napisać jak to się robi. Pierwszy termin to „cold wake” - bardzo chcieliśmy z moim magistrantem, Darkiem Baranowskim, żeby polskim odpowiednikiem była "procesja zimnej wody", bo "wake" ma też angielskie znaczenie "procesja (kondukt) pogrzebowa".  Wydawało nam sie, że nazwa jest fajna. Ale zostaliśmy zakrzyczeni (lekko) przez Szymona Malinowskiego i w końcu zostało "zimny ślad".  I taką nazwę wpisałem wczoraj do polskiej Wikipedii
http://pl.wikipedia.org/wiki/Zimny_ślad_cyklonu

Drugim terminem jest "geoengineering". To nowy dział badań klimatycznych i sam termin funkcjonuje w meteorologii dopiero od czterech lat.  Poprzednio używano nazwy "modyfikacja pogody", ale miało to głównie konotację wywoływania zmian w celu zwiększenia/zmniejszenia opadów deszczu. Obecny termin "geoinżynieria"  jest znacznie szerszy, ale z kolei jest ograniczany do zmian pogody w celu kontroli klimatu.  Termin "geoinżynieria" jest dobry, ale na polskiej Wikipedii istnieje już takie hasło w innym kontekście. Dlatego  wpisałem na Wikipedię "inżynieria klimatu"
http://pl.wikipedia.org/wiki/Inżynieria_pogody_i_klimatu

bo taki tytuł ma artykuł przeglądowy Billa Cottona z 2009 roku na ten temat. Trzeci nowy termin w tym blogu to ang. "drifters". Terminy oceaniczne tłumaczę często pytając się Jacka Piskozuba, z Instytutu Oceanologii PAN w Sopot, który wie wszystko.  Stąd zostało "dryftery" od "dryfować", to było proste.

czwartek, 10 czerwca 2010

Dziś prosty kawałek. Jak zostać biurem prognoz pogody dla żeglarzy regatowych, którzy podróżują w rózne miejsca Świata? Popatrzymy na trzy wybrane przykłady. Jednym jest słynna na wybrzeżu Willa Augustyna, gdzie można znaleźć prognozę wiatru, temperatury, zachmurzenia i opadu którą Andrzej Jóżwik pobiera z amerykańskiego narodowego serwisu meteorologicznego NCEP/NOAA
http://augustyna.pl/prognozy/jastarnia.php

Pan Andrzej ma też wiatromierz i kamerę, z której można ogladać przez cały rok zdjęcia. Kamera nazywa się malowniczo  “Widok na Zatokę Pucką z okien OW Augustyna w Jastarni na Półwyspie Helskim” i działa już 11 lat. Najfajniesze zdjęcia są po sezonie w zimie.
http://augustyna.pl/widok.php

Czasami dane pogodowe z jego serwisu używane są w zawodach deskarzy. 

Najbardziej znanym serwisem dla żeglarzy w Europie jest Windguru (zdradzę tajemnicę, że jest używany przez polska kadrę żeglarską)
http://www.windguru.cz/int/

Działa w Czechach. p. Vaclav także pobiera dane z narodowego centrum prognoz w USA, z modelu, który ma rozdzielczośc 50km. Innymi słowy prognozuje pogodę dla Warszawy a następnym punktem może być np Łódź. Natomiast nie daje dokładnej prognozy w skali poszczególnych dzielnic. Prognoza jest na 180 godzin i jest uaktualniana  4 razy dziennie. p. Vaclav wykorzystuje także model o lepszej rozdzielczości przestrzennej niż model z narodowego centrum prognoz w USA.  Te wyniki są udostępniane z rozdzielczością przestrzenną  9 kilometrów.  Model jest też amerykański i nazywa się WRF (wymawiaj „łorf”). Podobna prognozę w San Francisco można znależć na stronie
http://www.windfinder.com/forecast/san_francisco

używają jej wszyscy deskarze w Zatoce San Francisco i kiedyś używałem jej do prognoz na Mistrzostwach Świata w klasie 470.  Ten serwis różni się nieco od dwóch o jakich pisałem, że firma ma lokalne pomiary i uwzględnia je w modelu prognozy.

Dlaczego w Polsce, Europie, Stanach amatorzy używają amerykańskich danych pogodowych i amerykańskich modeli numerycznych?  Pisałem już o tym z okazji danych klimatycznych, ale napiszę jeszcze raz. W USA uważa się, że dane metorologiczne i oceaniczne, które są zbierane z pieniędzy podatników,  powinny być dostępne bezpłatnie. Narodowa służba meteorologiczna (NCEP) udostępnia zarówno dane  i wyniki prognoz numerycznych bezpłatnie na swoich stronach sieciowych. Przy okazji udostępnia wyniki prognoz na cały świat. Tę furtkę wykorzystuje się w Europie i w Stanach. Natomiast narodowe służby meteorologiczne w Europie wykorzystują możliwość blokady danych  jaką daje rezolucja Światowej Organizacji Meteorologicznej numer 40.  Dają wprawdzie swoje prognozy, ale staraja się uniemożliwić swobodny dostęp do danych.  Jest jednak subtelny problem z prognozami amatorskimi w tej skali kilku kilometrów. Otóż amatorskie modele wykorzystują tylko wyniki z modeli globalnych (nacisk w tym zdaniu jest na "tylko").  

Ciekawą historię ma też amerykański model mezoskalowy WRF.  Przez wiele lat w USA mezoskalowe modele pogody były rozwijane przez ośrodki uniwersyteckie: dwa najsłynniesze to MM5 z Uniwersytetu Penn State i model RAMS z Uniwersytetu Colorado State (nad tym drugim pracowałem jako student więc wiem co piszę).  Narodowe centrum prognoz USA miało  swoje własne modele przewidujące pogodę na obszarze USA.  Kilka lat temu tego typu modele prognoz przestały być  przedmiotem intesywnych badań naukowych i stały się bardziej narzędziem (już czuje, że za to zdanie dostanie mi się od zawodowych meteorologów). Wtedy postanowiono połączyć wiele istniejących modeli. Stąd powstał model WRF. Każdy może ten model uruchomić na swoim komputerze domowym.

PS. Pierwszy z prawdziwego zdarzenia model mezoskalowym (model UKMO) w Polsce ustwiony był w ICM przez Bogumiła Jakubiaka. Napisalem kiedyś o nim na polskiej wikipedii
http://pl.wikipedia.org/wiki/Bogumił_Jakubiak
Razem z Bogumiłem używaliśmy jednego z modeli używanych w ICMie (COAMPSa) do prognozy na regatach przedolimpijskich w Chinach w 2006. Napisałem kiedyś o tym w "Gazecie Wyborczej".  Obecnie w Polsce są inne modele mezoskalowe m.in. w  IMGW. Ta historia to inny świat, na inny wpis.

środa, 09 czerwca 2010

Blog o babim lecie i złotej jesieni jest na rozweselenie przy powodzi. Pytanie o mechanizm babiego lata zadałem ostatnio na egzaminie doktorskim swojego studenta (M.W.), a sam rozmawiałem o nim z Arntem Elliasenem, wybitnym norweskim meteorologiem, jadąc wiele lat temu - w czasie babiego lata - z Warszawy do Krakowa. Babie lato jest okresem  kiedy na jesieni występuje  kilkanaście letnich dni.  

Lśni pogody blask błękitnozłoty:
Zda się, jakby wiosna pełnej treści
Nie zużywszy, minąwszy niecała,
Swe ostatki w wrześniu przeżywała
I że lato oszczędzeń w dnie słoty
Czar swój w środku jesieni dziś mieści.
(Babie lato, Leopold Staff)

Związane jest ze zmianą  sposobu przepływu powietrza w zimie i lecie.  Te zmiany nazywają się wascylacjami (ang. vascillations).  Są dwa sposoby myślenia o przepływie powietrza w atmosferze, jeden polega na rozważaniu układów ciśnienia na powierzchni Ziemi (wyże, niże), a drugi na zrozumieniu co sie dzieje nad powierzchnią Ziemi, np. na wysokości gdzie ciśnienie jest około 500 mb (500mb to  około 5km ponad powierzchnią Ziemi). Rasowy synoptyk myśli najpierw o tym co sie dzieje wysoko nad Ziemią dlatego bo jej  skomplikowany wpływ - góry, ocean, nagrzewanie od lądu, drzewa – jest tam mały. Dzieki temu widać ogólny obraz tego co się dzieje i co się wydarzy. Podobnie jest ze zmianami klimatu. Efekt zmian klimatu jest mierzony najczęściej na powierzchni  Ziemi – poziom wody w oceanach, temperatura na powierzchni Ziemi – ale znacznie lepszy obraz daje zrozumienie tego co się może zdarzyć powyżej. A co się może zdarzyć? Jak przez kilka dni na jesieni dostać lato?  Wyobraźmy sobie płynącą rzekę powietrza z zachodu na wschód wysoko nad Ziemią.  Ta rzeka może płynąć bezpośrednio z Paryża przez Berlin do Warszawy – mówimy, że przepływ jest „strefowy” i taki przepływ jest typowy dla lata.  Ale powietrze może też popłynąć meandrami z Paryża najpierw do Włoch a dopiero wtedy do Warszawy, tak jak rzeka zataczająca półkola.  Meandry powietrza są potrzebne w zimie bardziej niż w lecie bo przynoszą ciepło i wilgoć z obszarów podtropikalnych,  ale są też związane  z gwałtowniejszą jesienną pogodą.  W lecie  meandry mają znacznie mniejszą amplitudę bo słońce i tak ociepla atmosferę nad Polską.  Babie lato to okres chwilowej cyrkulacji powietrza podobnej do letniej, w której meandry powietrza uspokajają się. Patrząc na ciśnienie na powierzchni (drugi sposób myślenia) babie lato to okres przeskoku pomiędzy sytuacją dominowaną przez Wyż Azorski w lecie i Wyż Syberyjski w zimie. W tym okresie tworzy sie wyż w Niemczech, który przynosi ciepłe powietrze do Polski. Ale to tak na marginesie.

Dla zmian klimatu wnioski  z babiego lata są takie.  W zmianach klimatu nie chodzi tylko o ocieplenie. Chodzi też o zmianę kontrastu temperatury pomiędzy obszarami tropiklanymi i biegunowymi i związane z tym zjawiska meteorologiczne.   

A tak przy okazji – powodzie związane są z sytuacją podobną do babiego lata. Okresu przejścia z cyrkulacji zimowej na letnią.

niedziela, 06 czerwca 2010

Dziś blog dla tych, których interesuje pogoda.  Bloguję o słynnym diagramie Wheelera-Kiladisa z roku 1999. 

Wyobraźmy sobie, że leżymy na leżaku na Mauritius lub na jednym z atoli na Malediwach. Słoneczko świeci, czasami spadnie deszczyk, czasami przyjdzie cyklon tropikalny, czasami jest burza (a my leżymy).  W ostatnich dekadach okazało się, że olbrzymia ilość zjawisk w atmosferze tropikalnej ma charakter falowy podobnie jak fale na wodzie.  Obserwując fale w wannie czy na jeziorze można zauważyć, że ich grzbiety przychodzą co jakiś czas, i że mogą mieć różny zasięg (fala może być krótka lub długa).  Pogoda w obszarze tropików, deszczyk, burza, zachmurzenie, cyklon tropikalny - to fale rozchodzące się w obszarze olbrzymiego pasa wzdłuż równika. Fale wędrują wokół równika, wracają w to samo miejsce, i tak w kółko.  Wyobraźmy sobie, że  poruszyliśmy delikatnie napiętym sznurkiem. Powstanie wtedy  fala z jedną doliną i jednym wybrzuszeniem - fala numer 1.  W pasie wokół równika fala numer 1 wygląda identycznie; w połowie długości równika są (dla przykładu) chmury, a w drugiej połowie długości równika niebo jest bezchmurne.  Fala numer 2 ma dwa wybrzuszenia i doliny wzdłuż całego równika – np dwa obszary gdzie pada deszcz  i dwa obszary gdzie jest sucho. Fala numer zero to taka, w której pogoda wzdłuż równika jest wszędzie taka sama, tak jak płaskie jezioro.   Fale mogą się przesuwać na zachód lub na wschód i mogą płynąć wolno lub szybko. Innymi słowy mogą obleciec kulę ziemską z różnym okresem.  Fale można zaobserwować na zdjęciach chmur. Takie obserwacje prowadzi się z satelitów położonych nad kilkoma miejscami nad równikiem. Zdjęcia wykonuje się co kilka godzin i z kolejnych zdjęć można zaobserwowac jak fale przesuwają się w pasie równikowym.  Analizę fal tropikalnych ze zdjęć satelitarnych przeprowadzili po raz pierwszy Wheeler i Kiladis w 1999 roku. Użyli zdjęć chmur z kilkunastu lat a wyniki pokazali na jednym diagramie.  Na rysunku na osi horyzontalnej jest zaznaczona liczba fal wokół równika.  Po prawej stronie są fale rozchodzące się na wschód, a po lewej stronie fale rozchodzące się na zachód. W środku osi są fale najdłuższe, o liczbie falowej bliskiej zero a dalej są fale krótkie, które maja wiele wybrzuszeń wzdłuż równika, czyli dużą liczbę falową. Na osi pionowej jest  zaznaczone jak szybko te fale przychodzą. Z  rysunku widać, że w atmosferze tropikalnej występują zjawiska falowe o różnych okresach i długościach. Zdumiewające jest jednak to, że  nie wszystkie kombinacje okresu i długości fal są możliwe. Z niektórymi falami związane są bardzo dobrze znane zjawiska. Dla przykładu – fale Rossbiego, które na diagramie widać po lewej stronie osi poziomej, zaznaczone są grubą czarną linią, to cyklony tropikalne, które przemieszczają się zawsze na zachód. Widać, że mają długi okres czyli pojawiaja się rzadko. Fale wędrujące na wschód (zaznaczone zieloną linią) to tzw. fale Kelvina, czasami szybko przemieszczające się wzdłuż równika.  Niebieską linią  zaznaczone są fale Maddena-Juliana. Przychodzą co 60-90 dni.  Fale te zapoczątkowują zjawisko El Nino i mają znaczenie w początkach Monsunu Indyjskiego.

 

Podsumowując: (1) Fale w tropikach  mają kolosalne znaczenie w zjawiskach pogodowych – opadach, powstawaniu cyklonów tropikalnych, zapoczątkowaniu monsunu.  Prognoza pogody oparta na pracach Wheelera i Kiladisa znajduje sie na stronie sieciowej
http://www.cawcr.gov.au/bmrc/clfor/cfstaff/matw/maproom/OLR_modes/

i jest obiecującą techniką przewidywania pogody w tropikach.

(2) Diagram Wheelera-Kiladisa jest używany w ocenie globalnych modeli pogody i klimatu. Podobny diagram można stworzyć na podstawie modeli numerycznych, które są niezależne od obserwacji satelitarnych.  Jeżeli wyniki są podobne, to znaczy że model dobrze prognozuje zjawiska w tropikach. Jest to jeden z testów diagnostycznych globalnych modeli. Warto o tym pamiętać,  słuchając wypowiedzi przeciwników zmian klimatu, którzy krytykują modele numeryczne klimatu nie zdając sobie sprawy z tego, że są one sprawdzane z istniejącymi danymi o pogodzie. 

(3) Uwaga tylko dla studentów fizyki atmosfery. Podstawowym artykułem dotyczącym fal w atmosferze tropikalnej jest praca T. Matsuno z roku 1966: Quasi-geostrophic motions in the equatorial area. J. Meteorol. Soc. Jpn. Ser. II., 44, 2341–2348. Bez zrozumienia tego artykuł nie można zrozumieć dynamiki tropikalnej.

PS.  A na koniec trochę krytyki ignorancji na polskiej Wikipedii. Myśląc o tym blogu dodałem link do strony Wheelera dotyczącej prognozy oscylacji Maddena-Juliana  na wikipedii (zresztą sam to hasło kiedyś napisałem)
http://pl.wikipedia.org/wiki/Oscylacje_Maddena-Juliana

Ten link do strony twórcy prognoz oscylacji Maddena-Juliana został usunięty z dopiskiem, że to „angielska strona, nic praktycznie nie wnosząca do artykułu”.

piątek, 28 maja 2010

Z punktu widzenia klimatu pewne zjawiska atmosferyczne nie mają znaczenia. Dla przykładu - tęcza, halo, miraże. Mimo to kiedy uczę o fizyce chmur czy o efekcie cieplarnianym wspominam o zjawiskach optycznych w atmosferze ponieważ daja one dobre wprowadzenie do metodologii używanej w wymianie promieniowania i rozpraszaniu światła w atmosferze. Monte Carlo to jedna z najbardziej intuicyjnych metod w fizyce.  Metoda jest bajecznie prosta do wytłumaczenia. Tutaj opiszę tylko jedno z wielu zastosowan Monte Carlo (sama technika została opracowana m.in. przez polskiego matematyka Stanisława Ulama). Światło od Słonca potraktujmy jako strumień cząstek (myśl o drobinach piasku, chociaż fachowo chodzi o fotony) czy o strumieniu promieni (myśl o aureoli na obrazkach świętych, chociaż fachowo chodzi o przybliżenie optyki geometrycznej). Postarajmy się prześledzić jedną taką cząstkę, która przedziera się do powierzchni Ziemi.  Po drodze ma przed sobą różne niespodzianki. Np może się zderzyć z kropelka chmurowa i odskoczyć w jakimś kierunku tak jak kula bilardowa, albo może się zderzyć z cząstką sadzy i wpaść do niej trochę tak jak mucha do beczki ze smołą. Każdemu z tych zdarzeń możemy nadać pewne prawdopodobieństwo.  Śledząc tylko jedną cząstkę nie mamy dobrej statystyki, musimy prześledzić ich bardzo wiele. To tak jak w grze w ruletkę. Z jednego obrotu kołem nic nie można wywnioskować, ale śledząc grę przez noc, możemy się zorientować czy większe szanse ma gracz czy kasyno.

Przykładem obliczeń opartych częściowo na technice Monte Carlo jest program HaloSim, który jest bezpłatny i działa pod Windowsami. Program został  napisany przez  Lesa Cowleya i Michaela Schroedera.  Na znakomitej stronie sieciowej Cowleya można znależć wyjaśnienie zjawisk rozpraszania światła takich jak słońca poboczne, halo, górny łuk styczny, łuk okołozenitalny, kręg parheliczny.
http://www.atoptics.co.uk/halosim.htm

W HaloSim od słońca wysyłane są promienie światła, które następnie oddziaływują z kryształkami lodu. Każdy z promieni pada na kryształ lodu pod nieco innym kątem i na różne powierzchnie. Kryształy mogą mieć rózne kształty – np płatki lub kolumny i w zależności od wielkości mogą opadać i odchylać się od pionu, tak jak liśce, które spadając w dół, oscylują. Uruchamiając HaloSim łatwo zobaczyć jak indywidulane promienie tworzą obraz końcowego zjawiska.

Zjawiska optyczne nie są same w sobie ważne w badaniach klimatu. Mimo to obeserwując halo czy tęczę można zorientować się o wielkości czy ułożeniu kropel i kryształów w chmurach. Łatwo powiedzieć czy chmura składa się z kropel czy z  kryształów lodu. Zrozumienie zjawisk optycznych w atmosferze to wstęp do zrozumienia technik teledetekcyjnych takich jak pomiary satelitarne. Pomimo tego, że techniki Monte Carlo są stosunkowo wolne obliczeniowo, często są niezastąpione zwłaszcza w analizie rozchodzenia się światła w skomplikowanych sytuacjach - np w analizie instrumentów optycznych lub w ocenie intensywności światła dla niejednorodnych sytuacji, np cienia od małych chmur.   

czwartek, 27 maja 2010

Właśnie spakowałem radar, który mierzy charakterystykę kropli deszczowych
http://www.metek.de/produkte_mrr.htm

i przyszło mi do głowy, żeby napisać o deszczu. Najwieksze deszczowe krople na świecie wyglądały jak parasolki lub meduzy i były całkiem spłaszczone (Peter Hobbs i A. Rangne, Super-large raindrops, Geophysical Research Letters, 31, L13102, doi:10.1029/2004GL020167, 2004). Duże krople nie są podobne do łez, ani nie są kuliste.  W pomiarach laboratoryjnych bardzo duże krople o wielkości 10 mm rozpadają się same na klika mniejszych. Rzadko nawet osiągają tę wielkość ponieważ  wcześniej zaczynają się rozpadać podczas zderzeń pomiędzy sobą.  W 1986 roku odkryto krople o wielkości 8mm w chmurach blisko wysp Hawajskich. W 1995 roku na północ od Brazylii odkryto największe na świecie krople deszczowe o wielkości pomiędzy 8.8mm – 10mm.  Pomiary dokonano w atmosferze, w której było dużo dymów z pożarów w  obszarze Amazonki. Przypuszczalnie pożary przyczyniły się też do rozwoju intesywnych chmur – takie chmury mają nazwę pyrocumulus.  Pomiary rozmiarów kropli dokonuje się z samolotow za pomocą bardzo małych i szybkich diod, które robią zdjęcia cienia jaki rzuca kropla na diodę przelatując blisko niej - no taki szybki aparat fotograficzny.  Krople deszczowe  występują w chmurach stosunkowo rzadko. Chmury „są zrobione” głównie ze znacznie mniejszych i liczniejszych  kropli chmurowych.  W tych samych pomiarach samolotowych w Amazonii,  zmierzono około 900 kropli na centymetr sześcienny,  a największa miała tylko około 28 mikrometrow (mikrometr to 1/1000 część centymetra). Małe krople deszczowe nie chcą się zderzać ze sobą bo zaczynają opływać się nawzajem. Sytuacja jest trochę  podobna do jazdy samochodem w padającym śniegu. Większość płatków opływa samochód.  Dlaczego znaleziono takie olbrzymie krople skoro było tyle kropli chmurowych niechętnych, żeby tworzyć większe?  Dymy w pożarach powodują, że para wodna w atmosferze skrapla się na bardzo wielu małych zarodkach; te  początkowe kropelki nie tworzą deszczu. Jeżeli jednak w jakiś cudowny sposób powstanie kropla deszczowa, to może  bardzo szybko urosnąć przez oddziaływanie z wieloma kroplami chmurowymi.  Pomysł, że kilka dużych kropli, może spowodować opad z chmur, jest wykorzystywany w technikach sztucznego wywoływania deszczu zwłaszcza w chmurach nad kontynentami. Można posypać taką chmurę piaskiem, albo jodkiem srebra, albo polać je rozpyloną wodą. W opisywanych powyżej chmurach z Amazonii, mechanizmem tworzenia się kilku szczęśliwych kropelch deszczowych, mogło być oddziaływanie z wybranymi bardzo dużymi cząstkami dymów. Są jeszcze inne pomysły dlaczego tworzą się wybrane wielkie krople. Jednym  z nich jest  hipoteza,  że pierwsze duże krople deszczu  powstają w wybranych obszarach chmur (ze względu na niejednorodności w prędkości pionowej  powietrza czy lokalnego przesycenia pary wodnej).

poniedziałek, 24 maja 2010

19 lutego 1600 rozpoczął się największy w Andach wybuch wulkanu Huaynaputina, który częściowo wpłynął na historię Rosji i Polski i przyczynił się  (też w pewnym stopniu) do okresu „wielkiej smuty” w Rosji.  Na podstawie pomiarów paleoklimatycznych stwierdzono, że  w roku 1601 temperatura na półkuli północnej była najzimniejsza od 600 lat.   Pomiędzy 1601-1603 w Rosji zmarło z głodu około kikaset tysięcy osób.  Reformy Borisa Godunowa zostały zniwelowane przez wielką suszę co spowodowało głód w wielu rejonach Rosji; zresztą niepokoje wzmagały pogłoski o tym, że Dymitr, młodszy syn Iwana Groźnego żyje i należy mu się dziedzictwo. W 1604 roku rozpoczęły się tzw. Dimitriady z udziałem części polskiej szlachty
http://pl.wikipedia.org/wiki/Dymitriady

We Francji początek winobrania w roku 1601 był jednym z najpóźniejszych pomiędzy 1500-1700.  W Szwecji wystąpiły rekordowe opady śniegu w zimie 1601 roku a na wiosnę zanotowano olbrzymie powodzie.  Zbiory w Szwecji były bardzo małe co spowodowało głód i choroby (K. L. Versosub oraz  J. Lippman, Global Impacts of the 1600 Eruption of Peru’s Huaynaputina Volcano, EOS Transactions, 89, 141-142, 2008). Ocenia się, że globalna zmiana temperatury związana z wybuchem Huaynaputina wyniosla około 0.8°C i była znacznie większa niż jakikolwiek efekt wulkaniczny dwudziestego wieku (David H. Pyle, How did the summer go? Nature, 393, 1998).

W 1815, po wybuchu wulkanu Tambora we wschodniej Indonezji pyły, które przedostały się do stratosfery spowodowały tworzenie się zawiesiny aerozoli odbijających promieniowanie słoneczne. Mechanizm jest czasami nazywany globalnym zaciemnieniem
http://pl.wikipedia.org/wiki/Globalne_zaciemnienie

a następny rok 1816 nazwano „rokiem bez słońca”.  15 lipca 1991 wybuchł wulkan Pinatubo i jego wpływ na globalną temperaturę był obserwowany z danych satelitarnych. Ocenia się na podstawie bezpośrednich lub satelitarnych pomiarów, że wpływ wulkanów Mount Pinatubo na Filipinach i El Chichón w Meksyku zmiejszył globalną temperaturę o około  0.3°C.   Jednak większość wybuchów wulkanów jest za słabych, żeby mieć znaczący wpływ na klimat. Np wybuch wulkanu Laki na Islandii w 1783, mimo że zbliżony do intensywności wulkanu Tambora spowodował w północnej Europie gęstą mgłę,  ale nie wpłynął  znacząco na temperaturę globu - ponieważ większość materiału nie przedostała się do stratosfery. Mechanizm wzmożonych  powodzi w Szwecji po wybuchu Huaynaputina związany był  raczej z dużymi opadami śniegu w zimie i topnieniem na wiosnę.  

Innym mechanizmem oddziaływania zanieczyszczeń i pyłów wulkanicznych może być wpływ na tworzenie się kropel chmurowych. Tutaj jednak duża ilość małych cząstek aerozolowych raczej ogranicza opad deszczu a nie odwrotnie (przykładem jest mgła lub smog).  Wiadomo też, że pyły są  szybko wymywane przez padający deszcz.  Z obserwacji lidarowych (taka duża i szybko migająca latarka) na satelicie Calypso wynika, że ostatnie wybuchy wulkaniczne na Islandii wynosiły zanieczyszczenia głównie do stosunkowo niskich warstw atmosfery (około 8 kilometrów).

Zdjęcie z 7 maja 2008 pokazujące przekrój pionowy małych cząstek zawieszonych w powietrzu zaznaczonych kolorami czerwonym, zielonym i żółtym podczas wybuchu wulkanu Chaiten. Pomiary dokonano z satelity Calypso (instrument Caliop). Aerozol sięga do 16 kilometrów ponad powierzchnię Ziemi. Tylko wybuchy wulkaniczne w obszarach równikowych powodują obserwowalne efekty na obu półkulach. Małe (poniżej 1 mikrona) cząstki w stratosferze mogą spowodować istotną zmianę globalnej temperatury.

Zdjęcie z 7 maja 2008 pokazujące przekrój pionowy małych cząstek zawieszonych w powietrzu zaznaczonych kolorami czerwonym, zielonym i żółtym podczas wybuchu wulkanu Chaiten. Pomiary dokonano z satelity Calypso (instrument Caliop). Aerozol sięga do 16 kilometrów ponad powierzchnię Ziemi. Tylko wybuchy wulkaniczne w obszarach równikowych powodują obserwowalne efekty na obu półkulach. Małe (poniżej 1 mikrona) cząstki w stratosferze mogą spowodować istotną zmianę globalnej temperatury.

 

Wpływ wybuchów na Islandii na globalną temperaturę będzie przypuszczalnie bardzo mały. Podobnie, wpływ wulkanu na opady deszczu w Polsce w maju 2010 jest prawdopodobnie znikomy w porównaniu z  deszczem wywołanym przez transport pary wodnej z obszaru Morza Śródziemnego w obszarach ruchu wstępującego (powodującego opad) na frontach atmosferycznych.

PS.  Podziękowania dla Sashy Gershunova za informacje na temat  wybuchu Huaynaputina w 1600 i mozliwych korelacji z Polsko - Rosyjską polityką.

piątek, 21 maja 2010

22 czerwca 1918 roku w Buenos Aires spadł śnieg.  Pianista Agustin Bardi , zwany też “Chińczykiem”, Francisco Castello i Pedro Fiorito wybrali się na wyścigi koni w La Plata.  Potem poszli coś zjeść i wsiedli do Forda, żeby wrócic do domu. Samochód zepsuł się koło Parque Pereyra Iraola.  Trudno było znaleźć mechanika,  a w tym samym momencie zaczął padać śnieg.   Bardi zaczął nucić jakąś nową melodię tanga,  początek kompozycji. Niedługo potem spotkał się z  Eduardo Arolas  w kawiarni T.V.O.,  w pobliżu Barracas. To Arolas,  nazywany też “Tygrysem Bandoneonu”,  wymyślił nazwę “Co za noc!".  I tak powstało nowe tango.  Tę historię opowiada się do tej pory w Argentynie. Ostatni raz 9 lipca 2007 roku, kiedy po prawie 100 latach znowu padał snieg w Buenos Aires.  Wtedy meteorolog Hector Ciappesoni wypowiedział się dla gazety „La Nacion” , że śnieg w BsAs „jest bardzo trudno przewidzieć”.

PS W Polsce powódź. W Zatoce Meksykanskiej leje się ropa.

W 2006 roku byłem głównym meteorologiem polskiego zespołu  olimpijskiego przygotowującego się na olimpiadę w Chinach. Pojechałem z nimi do Quingdao (czytaj „czingdao”), żeby rozpracować akwen Zatoki Fushan gdzie odbyły się regaty żeglarskie w czasie letnich igrzysk w 2008. Z tym wyjazdem związana była masa roboty.  Powoli zaczynam zapominać tę przygodę, ale warto to opisać. 

Wciągnął mnie do prognoz żeglarskich Robert Jarecki, trener główny klasy 470.  Dla Roberta robiłem różnego rodzaju prognozy. Czasami na odległośc, kiedy oni się bujali na wodzie w rozmaitych krajach – w Palma Majorka, Cascais i w innych miejscach gdzie odbywają się regaty pucharu świata, których wyniki używane są do klasyfikacji olimpijskich.  Jedną z najbardziej spektakularnych wpadek miałem kiedy nad Balatonem przyszła komórka burzowa a ja przewidywałem słabe wiatry. Od tego czasu zacząłem sprawdzać mapy radarowe.

Robert skontaktował mnie z dyrektorem sportu PZŻ Tomkiem Chamerą. Ale pierwszy kontakt z PZŻ to był Zbyszek Kusznierewicz, ojciec słynnego polskiego olimpijczyka,  który jest naukowcem i inżynierem.  Zbyszek opowiadał wtedy w pokoju polskiego związku żeglarskiego w Warszawie na Chocimskiej  jak trenował Mateusza w rozpoznawaniu zmian wiatru.  Nie mam specjalnie wątpliwości, że inżynierskie wykształcenie Zbyszka pomogło Mateuszowi w osiąganiu światowych wyników w klasie Finn a teraz w klasie Star. Razem ze Zbyszkiem Kusznierewiczem staraliśmy się zbudować system, który byłby w stanie zbierać informacje o kierunku wiatru i statystyce zmian kierunku i prędkości przed zawodami z kołyszącej się i małej łódki trenerskiej. Tego typu pomiary turbulencji, zawirowań, rzeczywiście robi się meteorologii badając tzw. warstwę graniczną.  Pomiary turbulencji umożliwiają zrozumienie procesów wymiany momentu (wpływ wiatru) i ciepła (wpływ różnic temperatury) pomiędzy atmosferą i oceanem. W żeglarstwie wykorzystywane są  do oceny w jaki sposób optymalnie żeglować, w badaniach klimatu używane są do parametryzacji oddziaływania pomiędzy atmosferą i oceanem. Mała dygresja  - do tej pory nie bardzo wiadomo jak wiatr wpływa na ocean przy bardzo dużych, huraganowych prędkościach.

Prognozy pogody wykorzystywane są w żeglarstwie w trzech skalach. W klasie regat transoceanicznych ważne jest prowadzenie jachtu (ang. routing), tutaj istotna jest informacja o globalnych systemach pogodowych. Napiszę kiedyś o tym dokładniej bo to ciekawy dział meteorologii stosowanej.  Drugą skalą jest klasa Pucharu Ameryki  - tutaj prognoza mezoskalowa w skali kilkunastu kilometrów jest ważna, czasami wygrywa się przy pierwszej, dobrze przewidzianej, zmianie wiatru. W klasie olimpijskiej,  gdzie zawody sa krótkie, prognozy w skali globalnej są mniej ważne. Prognozuje się "na teraz", a istotną informacją jest rozwój bryzy morskiej, statystyka zmian wiatru, i pływy.

Mimo to prognozy pogody w klasach olimpijskich rozpoczyna się od zrozumienia ogólnej klimatologii akwenu.  Zaczęto to robić na poważnie od zawodów olimpijskich w Savannah w Georgia i pojawiły się pierwsze publikacje naukowe na ten temat.  Potem były prognozy bryzy morskiej w Sydney w Australii,  w Atenach w Grecji,  i ostatnio w Quingdao w Chinach. Każdy z tych akwenów ma swoją specyfikę.  Do prognoz początkowo używano modeli statystycznych, ale szybko zaczęto używać także mezoskalowych modeli numerycznych.   David Houghton i Fiona Campbell, którzy prognozowali pogodę dla zespołu brytyjskiego na olimpiadzie w Atenach mieli niezła zabawę, bo trzeba było prognozowac nie tylko wiatry bryzowe, ale też wiatry górskie – meltemi.   W Quingdao wiadomo było, że wiatry będą słabe. To było  istotne w przygotowaniach bo faworyzuje lekkich żeglarzy, zwłaszcza na małych jachtach i deskach. Wiedzieliśmy też, że są silne pływy zmieniające kierunek po południu -  to było ważne bo zmiany występowały w czasie trwania regat.  Wiadomo było, że Quingdao mogło być pod marginalnym wpływem cyklonów tropikalnych.  Miasto jest położone na tyle na północ od równika, że trajektorie cyklonów tropiklanych (tajfunów) zakrzywiają się już na wschód i zaczynają łaczyć się z przepływem w średnich szerokościach. Ten rejon nazywa się w meteorologii tropikalnej "obszarem przejściowym", podczas gdy obszary równikowe to obszary "genezy cyklonów". Z klimatologii wiadomo było, że będzie gorąco i wilgotnie. Wiedzieliśmy też, że powietrze będzie zamglone ze względu na wilgotoność i duże zanieczyszczenia w Chinach.

I to by było na tyle. Obiecuję jeszcze jeden blog - detale o prognozie w czasie regat.

PS Dobrą książką dla żeglarzy regatowych w klasach olimpijskich jest „Strategia Wiatrowa” (ang. Wind Strategy),  napisana przez  Fionę Campbell i Davida Houghtona. Rozmawiałem z Fioną, żeby tę książkę przetłumaczyć na polski – była tym zainteresowana, ale chyba do tej pory nikt jej nie przetłumaczył.

wtorek, 18 maja 2010

To jest blog dla fizyków. Dla mnie fizyka atmosfery i badania klimatu są dziedzinami podobnymi do astrofizyki jeżeli chodzi o metodologię nauki. Dlaczego?  Zarówno astrofizyka i fizyka atmosfery (meteorologia, badania klimatu) używają fizyki i matematyki stosowanej w podobny sposób.  W astrofizyce jest to olbrzymi zakres klasycznej i nowoczesnej fizyki oparty na mechanice klasycznej - ruch planet,  równaniu transferu - rozchodzenie się światła w chmurach pyłu kosmicznego, klasycznej optyce - obserwacje teleskopami, i wielu innych działów fizyki.  W fizyce atmosfery stosuje się podobnie szeroki zakres fizyki stosowanej. Mechanika cieczy opisuje ruch powietrza, równanie transferu promieniowania opisuje podstawy obliczeń efektu cieplarnianego,  elektrodynamika opisuje jak rozprasza się światło na kroplach wody i kryształach lodu. Niektóre analogie są zaskakujące. Dla przykładu zarówno zderzenie się kropel wody w chmurach jak i zwiększanie się pewnych obiektów astronomicznych opisywane jest tym samym równaniem Smoluchowskiego.  Oczywiście krople wody są znacznie mniejsze niż powiedzmy planety, ale procesy prowadzące do zderzeń mają podobną charakterystykę, są to głównie zderzenia dwóch obiektów w jednej chwili. Innym zdumiewającym przykładem jest zrozumienie efektów cieplarnianych czyli tego jak rozprzestrzenia się promieniowanie słoneczne i podczerwone w atmosferze. Podstawy teorii opracowało dwóch astrofizyków  Sir Arthur  Schuster i Sir Arthur  Eddington. Teraz przybliżenie dwustrumieniowe opisujące rozchodzenie się promieniowania słonecznego w atmosferze  jest używane w modelach klimatu i prognozach pogody. Inną zdumiewajaca analogią są zjawiska rozpraszania światła na małych obiektach. W astrofizyce istnieją pasy pyłu kosmicznego, którego cząstki są podobne do cząstek piasku, często nie są sferyczne. W sposób w jaki rozprasza się światło na takich cząstkach opisuję się podobnymi technikami zarówno w astrofizyce jak i w fizyce atmosfery  – np. przybliżeniem dyskretnych dipoli. 

W modelach klimatu używa się wielu zdobyczy klasycznej fizyki ale i technik rozwiniętych na potrzeby meteorologii. Wielokrotnie to właśnie obserwacje atmosferyczne doprowadzały do nowych hipotez fizycznych.  Dobrym przykładem jest wiele aspektow klasycznej termodynamiki. Mało kto wie, że początkowy rozwój komputerów był związany z prognozami pogody - pierwsze komputery służyły do prognoz pogody (John von Neuman w Princeton). Znany teraz każdemu fizykowi "efekt skrzydeł motyla",  czyli teoria chaosu, został opracowany przez meteorologa - Edwarda Lorenza, żeby zrozumieć przewidywalność pogody.
http://pl.wikipedia.org/wiki/Edward_Lorenz

Po co to piszę? Parafrazując powiedzenie Stefana Banacha - dobrzy fizycy dostrzegają analogie.  Tak na marginesie, Banach uważał także, że wielcy [matematycy] dostrzegają analogie pomiędzy analogiami; stąd tytuł bloga.

piątek, 14 maja 2010

7 maja 2010 w czasopiśmie Science  255 członków Amerykańskiej Akademii Nauk podpisało list oceniający, że obecne ataki na naukowców i badaczy klimatu są politycznie motywowane.
http://www.pacinst.org/climate/climate_statement.pdf

W liście naukowcy zwracają uwagę, że obecne ataki są dogmatyczne, robione przez ludzi, którzy chcą opóźnić działania związane z występującym globalnym ociepleniem. Wspomniany jest neomakkartyzm
http://takiklimat.blox.pl/tagi_b/42013/marcin-Bosacki.html

W Science akademicy  zwracają uwagę, że zawsze jest pewna niewiadoma związana z badaniami naukowymi, ale brak działania jest potencjalnie katastroficzny dla Ziemi. Kolejne komisje w sprawie "Climategate" (ostatnia  14 kwietnia 2010)  w sposób nie ulegający wątpliwości, stwierdzają że nie ma żadnych dowodów na jakiekolwiek umyślne i nieprawidłowe działania klimatologów.
http://pl.wikipedia.org/wiki/Climategate

W Stanach i w Europie Zachodniej, gdzie badania zmian klimatu są rozwijane,  sprawa Climategate sparaliżowała środowisko naukowe. List w Science jest pierwszą zorganizowaną odpowiedzią.  Do tej pory nie ma stanowiska Amerykańskiej Unii Geofizycznej i Amerykańskiego Stowarzyszenia Meteorologicznego.  

W Polsce potrzebny jest instytut czy grupa badawcza zajmująca się badaniem zmian klimatu. Zacząć należy od kształcenia uniwersyteckiego.  Teraz jako środowisko mamy stosunkowo mało siły, żeby odpowiadać na ataki pseudonaukowców. Ale  część działań jest optymistyczna – mieliśmy odpowiedź Komitetu Nauk Geofizycznych PAN na bezsensowne stanowisko Komitetu Nauk Geologicznych PAN,  jest troche dobrych blogów klimatycznych, rozwijana jest popularyzacja badan klimatycznych.  

Dziś blog dla eksperymentatorów, czyli jak zbudować kamerę poklatkową,  która mierzy zachmurzenie.  To będzie techniczne, tylko dla wariatów-meteorologów.  Na koncu jest pomysł na  magisterium. Całość jest trochę rozwinięciem artykułu jaki napisałem na wikipedii
http://pl.wikipedia.org/wiki/Kamera_całego_nieba

 

 

Zacznijmy od tego, że kamerę całego nieba można zbudować z dwóch garnków,  kołpaku (przykrywki)  na koła, i dość taniego aparatu fotograficznego (patrz zdjęcie).  Zwykłym aparatem można zrobić fotografię nieba.  Jest tu jednak kilka problemów: (1) żeby ocenić zachmurzenie w czasie dnia trzeba zdjęcia robić co kilkanaście minut, (2) zwykłą kamerą daje się zrobić fotografię tylko części nieba, (3) słońce świeci na tyle mocno, że prześwietla część fotografii blisko słońca, (4) kontrast pomiędzy chmurami a niebem może być mały. Wszystkie te problemy daje się stosunkowo prosto rozwiązać.  Zdjęcia co kilka minut daje się zrobić automatycznie cyfrowymi aparatami fotograficznymi, a dokładniej – prawie wszyscy amatorzy używają do tego kamer Canona. 

 

 

Najtańszym rozwiązaniem jest zainstalowanie programu obsługującego kamerę na karcie pamięci – tej gdzie normalnie są gromadzone zdjęcia.  Działa to niezwykle, kamera staje się swojego rodzaju minikomputerem i można ją automatycznie ustawić tak, żeby robiła zdjęcia co kilka lub kilkanaście minut.  To oprogramowanie nic nie kosztuje i nazywa się CHDK – czyli, w bardzo wolnym tłumaczeniu,  „Programy do obsługi aparatu Canona” 

http://chdk.wikia.com/wiki/CHDK

Następny problem to zrobienie zdjęć całego nieba.  Najłatwiej "wywrócić problem do góry nogami" i skierować kamerę w dół na objekt, który skupia w sobie całe niebo.  Świetnie się do tego nadają metalowe kołpaki (ang. hubcap) na koła TIRów.  Mają średnicę kilkunastu centymetrów, świetnie odbijają, i są wypukłe.    Nazywają się „baby moons” czyli „małe księżyce”.

 

Następnym problemem jest słońce, które może prześwietlić cześć zdjęcia jeżeli kamerę ustawimy na "automatyczne".  Rozwiązanie jest szalenie proste i zarazem sprytne i opiera się na technice cyfrowej.   Wystarczy zrobić szybko kilka zdjęć z różnym czasem lub przesłoną  i złożyć te zdjęcia w jedno.  Metoda daje fotografię o dużej dynamice (HDR)
http://pl.wikipedia.org/wiki/High_dynamic_range_imaging  

Ostatni problem jest trudny ale nie jest konieczny do wykonania.  Opisuje go, bo to ciekawy problem optyki atmosfery.  Ze względu na rozpraszanie światła niebo jest często „mleczne”  („zamglone”) w świetle widzialnym i kontrast pomiędzy chmurami i  czystym niebem jest mały. Można zwiększyć kontrast poprzez robienie zdjęć w podczerwieni.  Nieprawdopodobne przykłady zmiany kontrastu chmur pokazane są tutaj
http://ghonis2.ho8.com/rebelmoddaytime.html 

Można kupić odpowiednie filtry fotograficzne, które pozwalają robić fotografie tylko w podczerwieni. Niestety cyfrowe aparaty fotograficzne Canona mają wbudowane filtry (tzw „gorący filtr”), które przesłaniają obszar podczerwieni. Tutaj trzeba się pogimnastykować i wymienić filtr wewnątrz kamery na kawałek szkła typu „pyrex” (czyli przepuszczającego zarówno w świetle widzialnym jak i w podczerwieni).

Ostatni problem jest już algorytmiczny – jak ze zdjęcia zmierzyć zachmurzenie?   Wiele programów do manipulacji zdjęciami fotograficznymi ma możliwość znalezienia obszarów o pewnym zakresie kolorów. Podobną technikę można zastosować do oceny odcieni szarości (chmury) względem niebieskiego nieba.

A teraz obiecany pomysł na magisterium. Można technicznie zrobić sieć kamer cyfrowych i połączyć zdjęcia poprzez ich „zszywanie” - istnieją techniki panoramiczne tego typu. Dzieki temu dałoby się ocenić zachmurzenie na obszarze „mezoskalowym” (kilkanaście kilometrów)  i porównać z ocenami satelitarnymi lub modelami mezoskalowymi.  Nie znam za wiele prób tego typu.

sobota, 08 maja 2010

Ten blog mi chodzi po głowie bo przygotowuję się do eksperymentu na Florydzie na Przylądku Canaveral. Mam zamiar napisac o tym jak się mierzy ilość chmur i dlaczego to jest ważne.

Na początek trochę motywacji. Z punktu widzenia zmian klimatu zachmurzene jest ważnym parametrem bo chmury odbijają duże ilości promieniowania słoneczngo.  Każdy z nas dobrze wie, że w Polsce, w zimie, kiedy powyżej są chmury na dworze jest ponuro. Chmury odbijają około 50-70%  przychodzącego promieniowania słonecznego. Jest to olbrzymia ilość w porównaniu  z efektem cieplarnianym – około 100 razy większa. Czasami  nie zdajemy sobie nawet sprawy jak jest ciemno poniżej chmur, bo nasze oko ma nieprawdopodobną zdolność do adaptacji, ale pomiary pyranometrami
http://pl.wikipedia.org/wiki/Pyranometr

pokazują duży spadek natężenia.  Pomimo adaptacji reagujemy na zmianę natężenia promieniowania słonecznego – m.in. jest więcej depresji (psychicznych) w Polsce w zimie.  Wpływ na klimat poprzez  zmiany pokrywy chmur  jest jednym z wielu proponowanych mechanizmów. Jest  kilka proponowanych mechanizmów tego typu wpływu - regulacja temperatury w obszarach tropikalnych przez efekt termostatu, zmiany pokrywy chmur poprzez promieniowanie kosmiczne,  zmiany pokrywy chmur poprzez zmiany wilgotności w atmosferze.

Ale pomiary zachmurzenia są trudne. Przez kilka dziesiątków lat był to pomiar subiektywny, opierający się na ocenie zachmurzenia przez obserwatorów na stacjach meteorolgicznych. Robiło się to poprzez ocenę  zachmurzenia na trzech wysokościach  w jednostkach co 1/8; 0/8 – czyste niebo, 8/8 – całkowite zachmurzenie. Od czasu pomiarów satelitarnych ocenę pokrywy chmur można robić z przestrzeni kosmicznej. Nie jest to łatwe, zwłaszcza nad obszarami gdzie leży śnieg i ze względu na trudności oceny wysokości podstawy chmur, a także ze względu na  trudności technologiczne. Zmieniające się i coraz lepsze sposoby pomiarów satelitarnych powodowały, że inaczej oceniano zachmurzenie w kolejnych latach.  W końcu powstał projekt satelitarny ISCCP (wymawiaj  „iskip”), który miał za zadanie uniformizację wyników
http://isccp.giss.nasa.gov/

Projekt był prowadzony przez Billa Rossowa (uwielbia operetki) w ośrodku NASA GISS w Nowym Jorku, w tym samym miejscu gdzie pracuje znienawidzony przez przeciwników zmian klimatycznych Jim Hansen.   Wyniki projektu były bajecznie popularne i doprowadziły do tego, że zaczęto używać danych chmurowych ISCCP do oceny zmian klimatu. Bill Rossow łapał się za głowę, bo wiedział jak trudno jest zuniformizowć dane satelitarne z kilkunastu lat i używać je dla ocen klimatycznych; identyczny problem pojawil sie ostatnio w ocenie intensywności cyklonów tropikalnych tzw. metodą Dvoraka. Mimo to,  pojawiło się wiele (problematycznych) artykułów korelujących klimatologię zachmurzenia z różnymi procesami – np. aktywnością słońca; cześć z nich, m.in. hipoteza Svensmarka,  jest trudna do zweryfikowania.

czwartek, 06 maja 2010

A tutaj sprawozdzanie z pierwszysch dni z pomiarów na japonskim statku Mirai. Warto może zorientować jak są robione pomiary na morzu. część z tych pomiarów dotyczy badań klimatycznych oceanu - w tym przypadku sieci pomiarowej Argo. Ten email pokazuje troche "kuchni" - jak sie robi pomiary, które po jakimś czasie są używane do oceny zmian klimatycznych.

Dzien Dobry,
 
Nie mam tu stałego dostępu do internetu. Nawiązują polączenie raz na godzinę zeby odebrać i wysłać dane i maila, wiec skype ani nawet żaden chat nie zadziała. Dopoki tu jestem mam jednak adres mailowy na Mirai dopisany do mojej kajuty.
 
Wczoraj wypłyneliśmy. Dzisiaj umieścilismy pierwsze Argo w oceanie. Oni [na statku MIRAI] używaja urządzeń zrobionych przez niemiecka firme Optimal, choć sama sonda jest ze Scripps. Wcześniej umieścili już jeden instrument i były z nim problemy. Parkowal na 200dbar, zamiast na 500, robił zły profil, bo od 100dbar lecial od razu do powierzchni i do tego nie przekazywał pozycji. Słowem spory problem. Jest tu inżynier z Niemiec który próbuje rozwiazac ten problem. Zmienił czujnik GPS, dodał balastu (smiesznie to brzmi zważając że dorzucil tam 15 kuleczek 10g wagi każda), zresetowal firmware. Profilator dzisiaj wypuszczony powinien jutro rano skomunikować sie po raz pierwszy. Jutro też wypuszczamy drugie urzadzenie. Jezeli te nie zadziałaja to projekt wypuszczenia kolejnych zostanie wstrzymany.

Zanim wypuszczamy Argo sa jeszcze 2 pomiary. Robią CTD do 500m i wypuszczaja coś co się nazywa micro structure profiler. Póki co dopiero testuja to urzdzenie. Za jego pomocą można mierzyć turbulencję w oceanie. Ma rodzielczość rzedu 1cm (tak mi powiedzial Yamada, choć nie był tego do końca pewny).  Mają też kilka innych projektów,  które tu realizują. Mają radar dopplerowski, radar chmurowy (95GHz +/- 5MHz modulacji), lidar mikroimpulsowy (chyba 532nm czy jakoś tak). No i standardy czyli wiatr, temperatura i wilgotność powietrza, promieniowanie – słoneczne i podczerwone, pomiar AOT (automatyczny, mają sun tracker, choć nie wiem jak sobie radzą z chmurami). Robią też 4 razy na dzien sondaż aerologiczny.
Jest tez grupa która coś robi z jakimiś insektami i napięciem powierzchniowym. Generalnie są bardzo mili więc mogę wciskać nos praktycznie wszędzie tam gdzie się coś dzieje, choć jest pewna bariera językowa – słabo raczej mówia po angielsku. Nie wszyscy naturalnie, choć swobodna komunikacja z większościią jest dość ciężka.
 
Jest tu tez gość – Masaki Katsumata. On bedzie PI na Mirai w czasie DYNAMO. 

Ogólnie jest miło. Bardzo nie buja (mają też taki wielki stabilizator na najwyzszym pokladzie, który porusza sie przeciw fali – można go obserwować na telewizorze) i jedzenie jest bardzo dobre (choc poslugiwanie sie paleczkami sprawia mi jeszcze nie jaki problem, ale sie ucze).
 
Pozdrawiam
 
Darek

PS Trochę wyjaśnień o co tutaj chodzi dla osób, które nie są oceanografami lub meteorologami. Email używa wielu  akronimów i wyrażeń typowych dla naukowego żargonu. 

AOT - atmosferyczna grubość optyczna to jest pomiar ile jest cząstek zawieszonych w atmosferze. Wykonywany jest instrumentem, który śledzi słońce. Jest to trudne na statku, który się cały czas "kiwa". Łatwiej taki pomiar zrobić na lądzie, ale i tutaj chmury są czasami problemem, bo wtedy nie widać słońca.  Z drugiej strony jak jest duża pokrywa chmur to i tak taki pomiar nie ma sensu bo chmury maskują efekt cząstek zanieczyszczeń.

CTD  (conductivity, denisty, temperature) - to jest pomiar temperatury, ciśnienia  i zasolenia wody, który robi się z instrumentów opuszczanych ze statku na linie. Podobne pomiary z instrumentów, które opadają i juz nie są wybierane z wody nazywa się XBT.  Dla meteorologów: CTD, XBT są odpowiednikiem sondaży aerologicznych.

dbar - decybar, czyli jednostka ciśnienia. 1dbar odpowiada około 1m słupa wody.

Sondaż aerologiczny - pomiar temperatury, ciśnienia, wilgotności, prędkości i kierunku wiatru za pomocą balonów w atmosferze. Odpowiednikiem sondażu aerologicznego jest CTD. Odpowiednikiem wilgotności w atmosferze jest zasolenie w wodzie.

Lidar - to taka duża latarka, bardzo szybko migocacą  (no, w rzeczywistości pulsujace światło laserowe). W tym przypadku w kolorze zielonym (czyli w długości fali świetlnej ok. około 520 nanometra). Używany jest do oceny grubości warstwy dobrze wymieszanej w atmosferze, do oceny położenia chmur  i rozkładu zanieczyszczeń w atmosferze.

Radar chmurowy - mierzy wielkość i rozkład kropli wody w chmurach. 95GHz to częstotliowść wysyłanej fali w mikrofalach, natomiast modulacja  5MHz daje możliwość oceny rozkładu kropli wody z wysokością nad poziomem oceanu.

Balast sondy Argo i dodawanie małych ciężarków. Chodzi o to, że ta sonda ma neutralną wyporność (myśl o prawie Archimedesa). Tak, że dodanie małego nawet obciążenia powoduje, że sonda się zanurza. Własnienie ta neutralna wyporność sondy daje możliwość zmniejszania i zwiększania jej wyporności i automatyczne zanurzanie i wyniurzanie (patrz poprzedni wpis o sondach Argo).

poniedziałek, 03 maja 2010

Dziś na japoński statek MIRAI
http://www.jamstec.go.jp/e/about/equipment/ships/mirai.html

ma zaokrętować mój doktorant - Darek Baranowski.  Rejs jest z Guam na Palau, czyli odbywa się w tropikalnym rejonie Pacyfiku. W czasie pierwszej części rejsu planowane jest umieszczenie 8 specjalnych sond Argo, które będą mierzyły temperaturę i zasolenie w górnych 500 metrach oceanu. Dlatego dziś będzie o Argo i o tym jak się mierzy temperaturę w głębi oceanu. W tamtym roku napisaliśmy artykuł o Argo na polskiej Wikipedii. Darek robił wtedy magisterium na temat sieci Argo, i między innymi w ten sposób, przez pisanie artykułu na Wikipedii, wymienialiśmy informację co trzeba zrobić i przeczytać i gdzie są dane.  Moim zdaniem artykuł wyszedł całkiem encyklopedycznie
http://pl.wikipedia.org/wiki/Argo_(oceanografia)

Argo ma ciekawą  historię. W mitologii greckiej 52 bohaterów greckich wyruszyło na statku  Argo pod wodzą Jazona po Złote runo.  Argo to sieć około 3000 sond, które są umieszczane w oceanie ze statków, a następnie są już autonomiczne. Pierwsze wersje zostały skonstruowane w Instytucie Oceanografii imienia Scripps przez Russa Davisa.  Jego kolega z piętra niżej Dean Roemmich, wymyślił, że można wykorzystać takie sondy do skonstruowania światowej sieci pomiarowej. Było to ważne,  ponieważ do końca lat 1990 większość pomiarów oceanicznych odbywało się ze statków.  Do pomiarów temperatury na powierzchni można wykorzystać satelity, ale pomiary w głębi oceanu muszą być robione bezpośrednio (dla oceanografów - m.in. ze względu na to, że zdalne metody akustyczne były krytykowane ze względu na możliwy wpływ na wieloryby).  Na lądzie stacje meteorologiczne są w jednym miejscu przez lata. W przypadku sond, które poruszają się wraz z prądami oceanicznymi sytuacja nie jest taka prosta.  Jednak Dean Roemmich wiedział, że jeżeli większość czasu sondy będę spędzać głęboko pod wodą, to wtedy będą mniej więcej wypływać w tym samym miejscu. Dzieje się tak dlatego, bo przepływ głęboko w oceanie nie powoduje gromadzenia się sond w jednym miejscu; przepływ jest bezdywergencyjny. Z tego powodu sondy muszą przebywać na powierzchni bardzo krótko.  Sonda sama się wynurza i zanurza co kilka dni. Sondy sa tak skonstruowane, że mogą zmieniać swoją wyporność poprzez bardzo małą zmianę swojej objętości - robi się to gumowym pęcherzem.  Podczas kilku godzin na powierzchni oceanu sondy wysyłają dane do satelity, które następnie są transmitowane na Ziemię.  W czasie cyklu wynurzania sondy wykonują pomiary temperatury i zasolenia. Pierwsza sonda sieci Argo zaczęła pomiary pod koniec 1999 roku.  Sondy mają czas życia 3-5 lat głównie ze względu na to, że  wykorzystują baterie. Istnieją  teraz nowe technologie, które pozwalają na ładowanie baterii za pomocą efektu różnic temperatur w czasie wynurzania się sondy. Na początku cyklu sondy zanurzają się do głębokość około 1 kilometra, na której pozostają około 9 dni. Następnie zanurzają się do głębokości 2 kilomterów i zaczynają powracać na powierzchnię. Pomiary są wyłączane przed osiągnięciem powierzchni ze względu na możliwe problemy z zanieczyszczeniami znajdującymi się na powierzchni oceanu. Nowe techniki komunikacji z sondami wykorzystują system telefoniczny Iridium co umożliwia szybkie przesyłanie danych po wynurzeniu ponieważ sondy nie muszą czekać na przelot satelity nad danym miejscem. Dzięki temu można wysłac sondzie rozkaz, żeby zmieniła zmianę sposobu profilowania. Jest to ważne w szczególnych przypadkach, np kiedy sonda jest w okolicy cyklonu tropikalnego i warto mierzyć profil temperatury z większą dokładnością.

Do momentu stworzenia systemu Argo większość pomiarów temperatury w głębi oceanu odbywało się za pomocą statków badawczych lub statków handlowych, czasami za pomocą pomiarów z zakotwiczonych boi oceanicznych. Sieć Argo to kompletnie nowa jakość w pomiarach oceanicznych. A wszystko wydarzyło się w przeciągu ostatnich kilku lat.