Blog poświęcony popularyzacji badań klimatycznych
środa, 07 listopada 2012

Dzisiaj będzie  esej o emigracji,  współpracy i  polskich sukcesach naukowych. Pisze to rozmyślnie bo Polska ma potencjał emigracji pierwszej Solidarności (lata 1980, ponad milion ludzi), który może być wykorzystany, ale do końca nie jest.  Za kilka lat ustabilizuje się (będzie wpływowa)   „emigracja angielska”  z ostatnich lat i warto już teraz zastanowić się jak ją wykorzystać.  Poza tym czytam jak to Polska nauka jest do bani, a uczelnie w niczym nie kształcą, przemysł nie może dostać odpowiednio  wykształconych ludzi,  granty  europejskie dostają inni,  i  nic w polskiej nauce nie jest na światowym poziomie.  W moim małym wycinku – badań fizyki atmosfery - obserwuję akurat coś odwrotnego. Najlepiej  opisać to na konkretnym przykładzie.  Jest projekt,  który jest na światowym poziomie, w którym pracują dobrze wykształceni   młodzi  Polscy naukowcy, projekt w którym jest synergia pomiędzy polskimi naukowcami, którzy wyemigrowali  i naukowcami w Polsce.  Projekt nazywa sie EULAG i działa w ramach europejskiego projektu COSMO. Polega na zbudowaniu rdzenia dynamicznego do nowoczesnej prognozy pogody. Taki rdzeń dynamiczny to nie walec  metalu czy długi rdzeń  lodu używany do badania zmian klimatycznych, ale program komputerowy, który opisuje dynamikę powietrza w atmosferze, czyli przepływ powietrza liczony na podstawie pierwszych zasad fizyki (równania Newtona, ale dla bardzo wielu cząstek). Chodzi o to, że prognozy pogody są teraz liczone programami komputerowymi, w których zaczyna się rozróżniać sąsiednie ulice w mieście, albo sąsiednie stoki górskie i nawet niewiele od siebie oddalone cząstki powietrza zaczynają oddziaływać.  Stwarza to specyficzne problemy bo należy uwzględnić efekty takie jak zmiany ciśnienia, wywołane przez przyśpieszenie powietrza, a nie tylko przez jego ciężar a nawet efekty fal akustycznych.  Specem od pisania taki rdzeni jest Piotrek Smolarkiewicz  - naukowiec  z bardzo wpływowego ośrodka amerykańskiego - Narodowego Centrum  Badań Atmosferycznych (NCAR).  Piotrek wyjechał   do USA w okolicach 1980 roku na fali emigracji pierwszej Solidarności i powoli robił karierę w USA.  Z czasem wokół niego stworzyła się grupa młodych polskich naukowców, którzy przyjeżdżają i wyjeżdżają do Stanów  i uczą się nowoczesnych technik numerycznych - a na stałe współpracują z  Uniwersytetem Warszawskim  a teraz pracują w Instytucie Meteorologii i Gospodarki Wodnej.   Inną osobą zaangażowaną  w ten projekt w jego początkach w 2008 roku był Leszek Łobocki,  który pracował przez kilka lat w Narodowej Administracji Oceanów i Atmosfery (NOAA) – to ten ośrodek, który w USA prognozuje cyklony tropikalne takie jak ostatnio "Sandy". Projektem dowodzi  w Instytucie Meteorologi i Gospodarki Wodnej  Michał Ziemiański, który zrobił doktorat w Uniwersytecie w Reading w Anglii u gościa, który jest teraz szefem najlepszego ośrodka prognoz na świecie – Alana Thorpea z Europejskiego Centrum Prognoz Średnioterminowych (to taki odpowiednik CERNu).  W grupie polskiej kodującej   „rdzeń dynamiczny” jest kilkoro młodych ludzi, m.in.  -  Marcin Kurowski, promotorem jego doktoratu był polski emigrant pracujący w NCAR/USA – Wojtek Grabowski.  Zbyszek Piotrowski, którego promotorem był wspomniany emigrant Piotr Smolarkiewicz z NCAR/USA. Bogdan Rosa, który był przez 3 lata  na Uniwersytecie w  Delaware. Kluczową rolę, odgrywał  Instytut Geofizyki Uniwersytetu Warszawskiego skąd pochodzi większość młodych naukowców o jakich piszę. Kluczową bo - po pierwsze wszyscy młodzi ludzie robili doktoraty w Instytucie Geofizyki UW,  po drugie emigranci, którzy byli ich promotorami, sami kiedyś tam pracowali, po trzecie Instytut tworzy atmosferę współpracy z emigrantami – poprzez prowadzenie wspólnych doktoratów, częste wizyty, wspólne granty naukowe.  Była rektor Uniwersytetu Warszawskiego (prof.  Kasia Macukow),  sama z Instytutu Geofizyki UW,  pomagała w stworzeniu tytuł profesora afiliowanego przy Uniwersytecie Warszawskiem – a impuls do tego dali m.in. emigranci współpracujący z IGf; nota bene jest rzeczą zdumiewającą, że polskie Uniwersytety często nie mają takich pozycji.  Dlaczego młodzi studenci z Polski są poszukiwani w USA?  Dlatego bo są dobrze wykształceni w naukach podstawowych – fizyka i matematyka. Poza tym, jeżeli robią doktoraty będąc  w Polsce i w USA to mniej kosztują niż studenci amerykańscy. Innymi słowy obie strony są zadowolone.   Naukowcy amerykańscy polskiego pochodzenia  mają dobrych studentów, których, co tu ukrywać wykorzystują,  a Polscy studenci dają się wykorzystywać bo  mają dostęp do światowej nauki, a po skończeniu doktoratów mogą dostać pracę gdzie chcą (także w Polsce). Warto może dodać, że wszystkie nacje robią to samo. Dla przykładu Chińscy profesorowie na uniwerytetach amerykańskich mają prawie wyłącznie chińskich studentów. Taki mieszany układ – częściowego studiowania w Polsce i w USA ma zalety, bo doktoranci nadal prowadzą zajęcia w Polsce i nie zrywają  więzi z krajem.  A jednocześnie poprzez układ promotor-student więzi z instytucjami naukowymi w Polsce utrzymują też polscy emigranci. Nowy zespół, który powstał   w Instytucie Meteorologii i Gospodarki Wodnej w styczniu 2009 pracował nad projektem  COSMO "Conservative Dynamical Core" od 2009 do 2012 roku. Projekt został dobrze oceniony przez europejskich partnerów i teraz zaczyna pracę nad następną fazą. Od września 2012 roku Politechnika Częstochowska realizuje grant, którego celem jest optymalizacja kodu EULAGA dla nowych architektur komputerowych  - np nowych procesorów opartych na kartach graficznych (w ten sposób gry komputerowe pomagają w rozwoju nauki).

 

Cosmo Eulag

wtorek, 02 października 2012

Dziś omawiam najpiękniejszy artykuł dotyczący pomiarów satelitarnych chmur z ostatnich lat. Artykuł pojawił się dwa tygodnie temu.  Napisał go Steve Miller, który ma nieprawdopodobny talent do znajdowania rzeczy, których nikt inny nie dostrzegł (w 2005 odkrył wielkie obszary świecącego oceanu – co opisywano uprzednio tylko w historiach o piratach). Otóż Steve tym razem odkrył, że można z  satelity ... rozpoznać chmury w świetle widzialnym nocą. Proszę przeczytać poprzednie zdanie jeszcze raz. Dodam, że można to zrobić bez światła księżyca. Intesywność nocnego światła - poświaty niebieskiej, światła zodiakalnego, gwiazd, aurory jest miliard razy mniejsza niż intesywność światła w czasie dnia (Słońce). Mimo to obecnie jest możliwe badanie chmur w świetle widzialnym w nocy. Jest tak dzięki nowym instrumentom pomiarowym z przestrzeni kosmicznej na satelicie NPP, który jest  na orbicie od 28 października 2011 roku.   Ten satelita nazywany jest też „Suomi” od nazwiska Vernera Suomi, który jest powszechnie uznawany za "ojca"  meteorologii satelitarnej.  Na Suomi jest instrument,  mierzący światło o bardzo małej intensywności.   Samo odkrycie było kompletnie przypadkowe i nieoczekiwane. Steve starał się zrobić kalibrację  instrumentu i patrzył na zdjęcia,  które powinny być idealnie czarne, ale cały czas były jakieś szumy. Wobec tego zaczął się przyglądać wynikom i zauważył że jest pewna regularność. Po analizie okazało się, że obeserwuje chmury nocą. Okazało się, że instrument jaki skonstruowano miał nieco przesuniętą długość fali w jakiej były prowadzone obserwacje  w stosunku do poprzednich instrumentów tego typu.  Dzieki temu przypadkowi dokonano odkrycia.  Dlaczego to jest  ważne? Do tej pory, mówimy tu o dziesiątkach lat,  obserwacje chmur w nocy w świetle widzialnym były bardzo sporadyczne.  Jest jednak wiele zjawisk atmosferycznych, które w nocy mogą zachodzić nieco inaczej.   Np intensywność burz jest inna w dzień a inna w nocy.  W tropikach – co przypuszczalnie będzie zaskoczeniem dla większości czytelników z Polski – intesywność burz jest największa nad ranem, a nie jak na Mazurach czy w Warszawie  po południu.  Do tej pory tak do końca nie wiadomo dlaczego (chociaż pomysły są). Poniżej jest nieprawdopodobne zdjęcie w świetle widzialnym.

Zdjęcie chmur z Suomi

 

Po prawej, górnej stronie widać światła miast w Stanach Zjednoczonych nocą i jednocześnie widać chmury w świetle widzialnym. To zdjęcie będzie uznane kiedyś za jedno z najbardziej spektakularnych zdjęć meteorologii satelitarnej. Okazuje się, że największym źródłem światła nocą jest bardzo słaba emisja, której źródłem jest atmosfera Ziemi – tzw poświata niebieska.  Poświata niebieska może być dostrzeżona z Ziemi i z przestrzeni kosmicznej. Poniżej jest zdjęcie z międzynarodowej stacji kosmicznej gdzie widać różne elementy nocnych źródeł światła.



 zdjęcie  różnych źródeł swiatła z ISS



Dla ekspertów

Suomi satellite brings to light a unique frontier of nighttime environmental sensing capabilitie, 2012, PNAS,  September 10, 2012, doi:10.1073/pnas.1207034109

http://www.pnas.org/content/early/2012/09/05/1207034109.full.pdf+html?with-ds=yes

 

 

wtorek, 18 września 2012

No dziś reklama, ale Ci goście się znają na klimacie - Krzysiek Markowicz był moim doktorantem, z Jackiem Piskozubem (z Instytutu Oceanologii PAN w Sopot) pracowałem nad problemem instrumentów oceanicznych i nad rozpraszaniem światła na pęcherzkach powietrza w wodzie (to takie chmury w oceanie) a z Szymonem Malinowskim prowadzę razem teraz doktoranta zajmującego się atmosferą tropikalną.  Nawet kilka miesięcy temu słuchałem ich wszystkich trzech w Polskim Radio z dużą przyjemnością. Markowicz będzie mówić o instrumentach meteorologicznych - a zna się na tym najlepiej w Polsce  bo zbudował swoją własną stację meteorologiczną w Strzyżowie.  Szymon Malinowski zajmuje się fizyką chmur. Piotrowski jest "numerykiem" współpracuje z polskim naukowcami z Narodowego Centrum Badań Atmosfery w USA.

 

 

 

Fizycy Atmosfery z Wydziału Fizyki Uniwersytetu Warszawskiego
i ich goście zapraszają na
„DZIEŃ Z ATMOSFERĄ”,
który odbędzie się w ramach XVI Festiwalu Nauki
w sobotę 22 września 2012

Miejsce:

 

Instytut Geofizyki Wydziału Fizyki Uniwersytetu Warszawskiego,

Warszawa, Stara Ochota, ul. Pasteura 7 (wejście od ul. Banacha)

 

Czas imprezy: od godz. 10:00 do 14:30.

 

Warsztaty, rozmowy, zwiedzanie laboratoriów:

 

Teledetekcyjne metody badań atmosfery (impreza 289):
godz. 10:00, 10:30, 11:00, 11:30, 12:00, 12:30
Pokażemy naukowe techniki pomiarowe służące do badania atmosfery i pokażemy jak niektóre z nich można zastosować w trakcie uczniowskiej kampanii klimatycznej, która odbędzie się w latach 2013-2014 w ramach międzynarodowego projektu GLOBE koordynowanego przez NASA (http://globe.gridw.pl/, http://science-edu.larc.nasa.gov/GLOBE/).
Prowadzi dr Krzysztof Markowicz z UW oraz studenci i doktoranci.

 

Jak geofizycy mierzą i obserwują zjawiska i procesy atmosferyczne? (impreza 290):
godz. 10:00, 10:30, 11:00, 11:30, 12:00, 12:30, 13:00,13:30,14:00, 14:30

Pomiary lotnicze dostarczają ważnych danych naukowych o procesach zachodzących w atmosferze. Pokażemy działanie ultraszybkiego termometru UFT do pomiarów temperatury w chmurach, jedynego tego rodzaju przyrządu na świecie i opowiemy
o pomiarach lotniczych w chmurach i o tym jak konstruujemy podobny przyrząd nowej generacji.
Prowadzi dr inż. Wojciech Kumala z UW oraz studenci i doktoranci.

 

Zapytajnia Atmosferyczna (impreza 292):
godz. 10:00-14:30 (impreza otwarta o charakterze ciągłym)
Do Państwa dyspozycji będą wykładowcy dnia (prof. Szymon Malinowski, dr Krzysztof Markowicz, dr Zbigniew Piotrowski,  prof. Jacek Piskozub). Niepowtarzalna okazja, żeby przy herbacie zadać specjalistom pytania na temat pogody, klimatu, zjawisk  i procesów zachodzących w atmosferze Ziemi, sposobów ich badania i modelowania.

 

Wykłady:

 

Krótka historia naukowa globalnego ocieplenia (impreza 291):
godz. 10:00-10:50
Pojęcie efektu cieplarnianego ma już niemal 200 lat. Kto i kiedy je wprowadził? Kto i kiedy okazał, że dwutlenek węgla i para wodna to gazy cieplarniane? Kto i kiedy udowodnił że spalanie paliw kopalnych prowadzi do znacznego wzrostu stężenia CO2 i wzrostu temperatury powierzchni naszej planety? Po prezentacji będzie można porozmawiać z wykładowcą w ramach Zapytajni Atmosferycznej.
Prowadzi: prof. Szymon Malinowski z UW (fizyk atmosfery, prowadzi pomiary z pokładu samolotu i symulacje numeryczne procesów atmosferycznych, publikuje m.in. w Journal of the Atmospheric Sciences, Atmospheric Reserch, Journal of the Atmospheric and Oceanic Technology, Quarterly Journal of the Royal Meteorological Society).

 

Superkomputerowe symulacje atmosfery (impreza 293):
godz. 11:00-11:50
Superkomputery i modele numeryczne są dziś podstawowymi narzędziami fizyki atmosfery. Pomagają zrozumieć, jakie prawa rządzące kropelkami wody w chmurach, co determinuje pogodę i klimat i do czego prowadzą procesy magnetyczne w atmosferze Słońca. Przed i po prezentacji będzie można porozmawiać z wykładowcą w ramach Zapytajni Atmosferycznej.
Prowadzi: dr Zbigniew Piotrowski z IMGW (fizyk atmosfery z wieloletnim doświadczeniem w obliczeniach superkomputerowych procesów atmosferycznych zdobytym w National Center for Atmospheric Research - USA, publikuje m.in. w Journal of Computational Physics, Acta Geophysica).

 

Rola oceanu w procesach klimatycznych (impreza 294):
godz. 12:00-12:50
Bliskość oceanu wpływa na złagodzenie klimatu: nad morzem są chłodniejsze lata i cieplejsze zimy. Gdyby nie istniał Ocean Atlantycki, Warszawa miałaby klimat podobny do syberyjskiego Irkucka. Jak ocean, pokrywający ponad 2/3 globu, wpływa na klimat planety? Dlaczego ostatniej zimy mieliśmy okres siarczystych mrozów podczas gdy na Svalbardzie (Spitsbergenie) i Nowej Ziemi pobite zostały rekordy ciepła? Jak lody na Oceanie Arktycznym wpływają na klimat? Przed i po prezentacji będzie można porozmawiać z wykładowcą w ramach Zapytajni Atmosferycznej.
Prowadzi: prof. Jacek Piskozub z Instytutu Oceanologii PAN (fizyk-optyk i geofizyk, zajmuje się oddziaływaniem ocean-atmosfera, publikuje m.in. w Journal of Geophysical Research, Optics Express, Applied Optics, Oceanologia).

 

Badamy zmiany klimatu Ziemi. Uczniowska kampania klimatyczna 2013-2014 (impreza 295):
godz. 13:00-13:50
Wykład będzie poświęcony uczniowskiej kampanii klimatycznej, która odbędzie się w latach 2013-2014 w ramach międzynarodowego projektu GLOBE koordynowanego przez NASA (http://globe.gridw.pl/, http://science-edu.larc.nasa.gov/GLOBE/). Jej głównym celem jest badanie procesów klimatycznych związanych z obecnością aerozolu atmosferycznego poprzez włączenie szkół w monitoring zanieczyszczania powietrza na terenie Polski. Przedstawiony będzie zakres prowadzonych pomiarów oraz przykłady analizy danych jak również informacje jak dołączyć do projektu. Przed i po prezentacji będzie można porozmawiać
z wykładowcą w ramach Zapytajni Atmosferycznej.
Prowadzi: dr Krzysztof Markowicz z UW (fizyk atmosfery, zajmuje się bilansem radiacyjnym i transferem promieniowania, publikuje m.in. w Journal of Geophysical Research, Geophysical Research Letters, Atmospheric Environment, Acta Geophysica).


piątek, 20 lipca 2012

Ten odcinek będzie o sukcesach europejskiej nauki i organizacji.

Zacznijmy od tego, że numeryczne prognozy pogody są teraz znakomite, postęp w prognozowaniu pogody w ostatniej dekadzie jest olbrzymi,  a najlepszym centrum prognoz na świecie jest ECMWF, czyli Europejskie Centrum Średnioterminowych Prognoz Pogody.  Tego typu postęp sprawdza się  ilościowo przez porównanie prognozy pogody z tym co się naprawdę zdarzyło.  Wszystkie ważne ośrodki prognoz pogody na świecie robią codziennie weryfikacje prognozy i ECMWF jest prawie zawsze najlepsze we wszystkich porównywanych parametrach na całym globie.  ECMWF specjalizuje się w średnioterminowych prognozach pogody, pozostawiając lokalnym ośrodkom meteorologicznym prognozę krótkoterminową (jednak powszechnie wiadomo, że krótkoterminowe prognozy ECMWF są bardzo dobre).  ECMWF jest obiektem zazdrości wszystkich innych ośrodków prognoz pogody na świecie – amerykańskich, kanadyjskich, japońskich.   Operuje podobnie jak CERN (gdzie niedawno odkryto boską cząstkę)  a ma sukcesy zbliżone do tych w CERNie. Szefem  ECMWF jest teraz Alan Thorpe,  który zaczął tam pracować w 2011 roku. Alan jest z pewnością przyjacielem Polski, był promotorem doktoranta z Polski kiedy jeszcze pracował w Uniwersytecie w Reading w Anglii, pamięta dobrze Instytut Geofizyki Uniwersytetu Warszawskiego, który wizytował w przeszłości.  Napisał  mi ostatnio, że
próbował skłonić Polskę do przystąpienia do ECMWF, ale ze względu na kryzys finansowy, Polska nie jest obecnie zainteresowana przestąpieniem do ECMWF. Sukcesy ECMWF  polegają na dużym wspólnym wysiłku organizacyjnym wielu europejskich krajów.  Podczas gdy w USA istnieje silny nacisk na indywidualizm i badania podstawowe,  ECMWF jest przykładem przewagi wspólnych działań w naukach o Ziemi. Sukcesy ECWMF były budowane stopniowo od 1975 roku.  Jednym z nich jest asymilacja danych meteorologicznych, projekt w którym było zaangażowanych wielu matematyków.   Drugim ważnym elementem sukcesu ECMWF jest ośrodek numeryczny (komputery). Dzięki wspólnej polityce ponad 30 krajów w Europie, ECMWF ma środki finansowe  na zakup dużych systemów komputerowych. Dzięki temu rozdzielczość  modeli numerycznych, opartych na pierwszych zasadach fizyki,   przewyższa zazwyczaj inne ośrodki tego typu.  Innym elementem sukcesu ECMWF jest wiara w to, że podstawowe prawa fizyki używane do opisu przepływu powietrza na Ziemi  spowodują, że prognoza będzie lepsza.  Dlatego ECMWF używa w swoich modelach prognostycznych nowatorskie programy (moduły) opisujące procesy fizyczne w atmosferze. Czasami, takie które początkowo były opracowane dla badan klimatycznych. Przykładem są schematy wymiany promieniowania podczerwonego i słonecznego. Z tego samego powodu ECMWF uczestniczy często w dużych projektach badawczych badających bezpośrednio atmosferę dostarczając prognozy numeryczne, które są sprawdzane i wykorzystywane przez zespoły badawcze także spoza ośrodka.  Tu nie chodzi tylko o to czy spadł deszcz lub jaki był wiatr. Tego typu pomiary samolotowe czy na statkach  w atmosferze i w oceanie są sprawdzane z setkami parametrów meteorologicznych jakie przewiduje model prognozy ECMWF – np ze strumieniami ciepła na powierzchni Ziemi. Dla przykładu,  prognozy w atmosferze tropikalnej były używane ostatnio w bardzo dużym projekcie badawczym DYNAMO (zresztą w tym projekcie uczestniczyła też Polska) co pozwoli ECMWF na weryfikację opisu procesów fizycznych w tropikach.   ECMWF dostarcza  także reanalizę danych meteorologicznych, która wykorzystuje modele opracowane w tym ośrodku. Te dane są z wielu lat i ich weryfikacja, poprzez studiowanie klimatu opartego na tych danych,  pozwala na poprawę sposobu w jakim dane meteorologiczne są używane w prognozach. 

Sukcesy w meteorologii  i badaniach klimatu dokonywane są obecnie dzięki akumulacji  środków i wspólnym działaniom. 

http://ecmwf.int/

piątek, 01 czerwca 2012

Dziś reklamuję artykuł, którego jestem współautorem, zresztą wraz z kilkoma osobami, m.in. ze swoim studentem z Instytutu Geofizyki Uniwersytetu Warszawskiego - Darkiem Baranowskim.  Artykuł ukazał się dwie godziny temu w Proceedings of the National Academy of Sciences – prestiżowym czasopiśmie naukowym a sprawa dotyczy kropli deszczowych.   Pomiary teledetekcyjne w atmosferze są coraz częściej wykorzystywane w reprezentacji procesów chmurowych w numerycznych modelach prognozy pogody. Publikacja pokazuje, że możliwe jest połączenie pomiaru wielkoskalowych własności chmury z pomiarem własności pojedynczych kropelek opadu.  Opisujemy obserwacje chmury burzowej w czasie jej przejścia nad radarem patrzącym do góry w dniu 27 sierpnia 2010 na Florydzie  koło Centrum Badań Kosmicznych. Możliwość takich unikalnych obserwacji daje specyficzna kombinacja własności radaru: 3 MW mocy skupione w bardzo wąskiej wiązce. Ten radar, o bardzo dużej mocy wiązki,
był poprzednio wykorzystywany przez NASA  w czasie startów promów kosmicznych na Przylądku Canaveral. Można nim obserwować obiekt o wielkości trochę większej niż piłeczka golfowa, ale zrobiona z metalu,  w przestrzeni kosmicznej. Zresztą tak się kalibruje ten radar.

krople radarem

Na rysunku na osi pionowej jest wysokość a na osi poziomej czas. Mniejszy kolorowy wykres prezentuje strukturę chmury w znacznie większej skali uzyskaną z wiązki radarowej o gorszej rozdzielczości, podczas gdy główny wykres prezentuje strukturę pozostawioną przez pojedyncze kropelki deszczu przecinające wiązkę radarową o wysokiej rozdzielczości. Na rysunku pokazujemy radarowe ślady pojedynczych
kropli. Krople daje się zauważyć jako maksima odbijalności.
Na wykresie pokazującym strukturę chmury w większej skali widać cząstki lodu powstałe w górnej warstwie chmury, które następnie opadają poniżej poziomu topnienia przekształcając się w krople deszczu.  Ślady na głównym wykresie, pod pewnym kątem do pionu, świadczą o ruchu cząstek w kierunku powierzchni Ziemi. Z wartości odbicia, dopplerowskiego przesunięcia fazy oraz kąta nachylenia pojedynczego śladu można wyliczyć koncentrację i rozmiar wielu kropli. To chyba pierwsze obserwacje tego typu.

Tagi: chmury
03:20, pcirrus , Chmury
Link Dodaj komentarz »
wtorek, 13 marca 2012

10 marca zmarł  Frank Sherwood Rowland, który pracował na Uniwersytecie  Kalifornijskim w Irvine, trochę na południe od Los Angeles.  Rowland pokazał, że freony (chlorofluorowęglowodory - CFC) wpływają na destrukcję ozonu. Praca Rowlanda z Mario Moliną w 1974 roku była początkowo krytykowana przez przemysł. Szef jednej z największych firm chemicznych DuPont powiedział, że to "fantastyka naukowa, bzdury i kompletny nonsens"). W 1976 roku Narodowa Akademia Nauk USA opublikowała raport potwierdzający konkluzje Rowlanda i Moliny. W 1978 roku  aerozole (cząstki zawieszone w powietrzu) freonowe zostały zakazane w USA a w 1987 podpisano światowy Montreal Protocol on Substances that Deplete Ozon Hole (Protokół w Montrealu na Temat Substancji Jakie Zmiejszają Ozon).  W 1995 roku Crutzen, Molina, i Rowland dostali Nobla za to odkrycie. Świetnie pamiętam radość fizyków atmosfery  - chodziło o to, że nie ma nagrody Nobla w dziedzinie fizyki atmosfery,  a to był pierwszy "Nobel atmosferyczny".

Dla większości fizyków atmosfery istnieje analogia pomiędzy obecną sytuacją (2012) gdzie przemysł krytykuje badania wskazujące na globalne ocieplenie a Narodowa Akademia Nauk USA i wiele innych akademii potwierdza te badania. 

PS. A teraz anegdota.  Jeden z moich studentów - Krzysztof Markowicz bronił doktoratu kilka lat temu. Poprosiłem wtedy Paula Crutzena, wtedy już Noblistę za odkrycie CFC, żeby był recenzentem pracy Markowicza (Crutzen dobrze wiedział co robił Markowicz bo razem pracowali w Grecji nad badaniem pyłów zawieszonych). Paul się trochę zastanowił i powiedział OK. Bardzo zadowolony napisałem email do Wydziału Fizyki Uniwersytetu Warszawskiego, że mam wybornego recenzenta. Niestety. Paul Crutzen nie ma habilitacji, w związku z tym nie mógł być w Polsce recenzentem doktoratu. Przysięgam, że prawdziwe.

wtorek, 28 lutego 2012

Badania klimatu mają czasami komiczne elementy. Peter Gleik, który był do niedawna szefem komisji etyki Amerykańskiego Stowarzyszenia Geofizyków (AGU) dostał dokumenty z Instytutu Hartland podszywając się za członka rady nadzorczej tego instytutu. Hartland Instytut zajmuje się polityką przeciwną badaniom klimatycznym i w swoich raportach podważa raporty IPCC.  Prezydent AGU wydał dziś (27 luty, 2012) oświadczenie, że AGU przyjęło rezygnację  Gleika "z przyczyn osobistych".

 

Podobnie wczoraj,  na poczatku ceremonii rozdawania Oskarów aktor Sacha Baron Cohen  przebrał się za Generała Aladeena mimo, że Akademia Filmowa zabroniła mu początkowo przebierania się za cokolwiek. Cohen przyjechał na Oskary najdłuższą limuzyną  i chodził po czerwonym dywanie z urną.  Udzielając wywiadu rozsypał prochy urny na frak jednego z komentatorów telewizyjnych.

piątek, 24 lutego 2012

Dziś (24 luty 2012), odbyła się dyskusja radiowa o klimacie. To jest nowość, bo usłyszeliśmy co robią polscy  badacze zajmujacy się zmianami klimatu. Poprzednio mieliśmy głównie dyskusje polskich przeciwników badań zmian klimatu. Program był - słuchałem - bardzo dobry.


WIECZÓR ODKRYWCÓW. Następny odcinek audycji dnia 24.02.2012 o godzinie 21:00, aut. Krzysztof Michalski. Klimatyczne dylemay - (we wtorek odbyło się Forum Klimatyczne Centrum GeoPlanet).

Co się dzieje z ziemskim klimatem, jaki jest wpływ działalności człowieka na zmiany klimatu, czy grozi nam roztopienie lodowców, czy dziura ozonowa powiększa się, jakie badania związane z klimatem prowadzą polscy naukowcy i co z tych badań wynika?
Między innymi o tym dyskutowali naukowcy na zorganizowanym w tym tygodniu Forum Klimatycznym Centrum GeoPlanet.  Udział: profesorowie: Szymon Malinowski z Uniwersytetu Warszawskiego, Piotr Głowacki z Instytutu Geofizyki PAN, Doktor Krzysztof Markowicz z Instytutu Geofizyki UW, a w studiu w Gdańsku przedstawiciel Instytutu Oceanologii PAN: profesor Jacek Piskozub.

http://www.polskieradio.pl/7/Audycja/7239

Tagi: klimat
18:29, pcirrus , Polityka
Link Dodaj komentarz »
wtorek, 21 lutego 2012

Dziękuje za ofertę pomocy w znalezieniu informacji o rejonie nieco na południe od obszarów polarnych. Staram się znaleźć naukowców, którzy wiedzą jakie są warunki na powierzchni oceanu i warunki pogodowe w rejonie Cieśniny Beringa. Jest na ten temat trochę publikacji, ale staram się zrozumieć jakie będą warunki pogodowe w lecie. Chciałabym tez zorientować się czy obecne złe warunki pogodowe w tym rejonie są związane z jakimiś telekonekcjami pogodowymi (przyjście wiosny, efekt La Nina). Należę do międzynarodowej grupy, która stara się zorganizować sztafetę pływacką w cieśninie Beringa pomiędzy Przylądkiem Dieżniowa (najdalej na wschód wysunięty punkt Azji) i Przylądkiem Księcia Walii na Alasce. Chcielibyśmy wiedzieć jakie warunki panują tam w lipcu i sierpniu. Będziemy płynąć z prędkością około 1.5 do 2 mil nautycznych na godzinę i nawet małe prądy morskie w tym obszarze są dla nas utrudnieniem. Płyniemy z Rosji do Stanów w kierunku południowo wschodnim (około 124 stopnie). Niektóre mapy pokazują teraz przepływ północny, a inne bardziej ENE. Mam nadzieję, że ktoś mi pomoże zrozumieć jakie prądy napotka tam pływak lub mała łódź - pomoże nam to w decyzji skąd i gdzie płynąć. Chciałabym też zorientować się czy warunki w zimie są podobne do warunków w lecie? Do emailu dodaję PDF proponowanej trasy. Jeżeli coś jeszcze przyjdzie Ci do głowy to daj mi znać. Oczekuję, że temperatura wody będzie pomiędzy 2-13 stopni Celsiusza, silne sztormy i meduzy po drodze. Jeżeli znasz naukowców zajmujących się hipertermią to daj mi znać. Będziemy mieli kilku lekarzy, którzy chcą badać ten temat, ale wydaje mi się, że nie wiem jeszcze wszystkiego co powinnam wiedzieć. Rozwiązaliśmy już większość spraw biurokratycznych związanych z wizami, eskortą, zgodami. Ale nie bardzo wiemy jakich oczekiwać warunków pogodowych. Grupa Rosjan, która dołączy się do nas pływała już koło Wyspy Ratmanowa, ale nikt nie wie nic poza tym. Każdy kontakt i informacja będą mile widziane.

Dziękuję


Claudia Rose
telefon +1 (619) 997-5492
claudiarose22@gmail.com 

wtorek, 14 lutego 2012

Niedawno utworzono organizację  "klimatyczny zespół szybkiego reagowania"  (Climate Science Rapid Response Team).  Zespół liczy 135 członków, głównie z uniwersytetów, NASA,  amerykańskiego instytutu meteorologii.  Do członków tego zespołu można wysłać pytanie dotyczace badań zmian klimatu. Początkowo pytanie jest  wysyłane do czterech osób. Następnie te cztery osoby (redaktorzy) znajdują naukowca lub naukowców, którzy są specjalistami w danej dziedzinie badań klimatu. Pytania dotyczą m.in. artykułów opublikowanych w gazetach, komentarzy prasowych. Grupa, oprócz naukowców, ma także historyków i publicystów.  Ich działalność jest opisana w ostatnim wydaniu czasopisma "Physics Today" (warto zwrócić uwagę, że to czasopismo fizyków zaczyna brać czynny udział w popularyzacji badań klimatycznych).  W Polsce istnieją początki tego typu struktury.  Dla przykładu w ostatnim numerze "Pismo Uczelni" Uniwersytetu Warszawskiego ukazała się opinia, moim zdaniem nieodpowiedzialna, profesorów Leszka Marksa i Lucjana Piela. Dowiedziałem się o tym od Hanny Pawłowskiej - szefowej Instytutu Geofizyki Uniwersytetu Warszawskiego, w którym pracują naukowcy zajmujący się zawodowo zmianami klimatu, i napisałem krótka odpowiedź w poprzednim blogu. Wiem,  że przygotowywane jest też odpowiedź pisana przez Krzysztofa Hamana. Polska ma dokładnie takie same problemy z popularyzacją nauki o klimacie co w USA.  Stosunkowo mała grupa przeciwników badań klimatycznych potrafiła zdominować dyskusję przez publikację opinii, wypowiedzi w mediach, bombardowanie polityków emailami.  Jeden z przeciwników badań zmian klimatycznych wysyłał swoje opinie emailem do kilkuset polskich polityków, redaktorów gazet, telewizji.  Naukowcy są tym zaskakiwani, często ich odpowiedzi i sprostowania nie są publikowane lub publikowane z opóźnieniem.  Rezultaty działalności przeciwników zmian klimatycznych są wymierne – próby ograniczenia emisji gazów cieplarnianych zostały zablokowane, nowe umowy międzynarodowe są podejmowane z trudnością,  w zeszłym roku Kanada jako pierwszy kraj, wycofała się z istniejącego protokołu klimatycznego z Kyoto.

Być może w Polsce warto stworzyć taką grupę szybkiego reagowania na przekłamania w popularyzacji wiedzy dotyczącej klimatu?

Dla ekspertów:

Strona sieciowa Climate Science Rapid Response Team
http://www.climaterapidresponse.org/

Zespół "Reagowania Klimatycznego" jest opisany w ostatnim numerze Physics Today (Toni Feder, Climate scientists not cowed by relentless climate change deniers, luty 2012, strona 22). 

Tagi: klimat
20:05, pcirrus , Polityka
Link Komentarze (3) »
sobota, 11 lutego 2012

W lutowym numerze wydawnictwa "Pismo Uczelni" Uniwersytetu Warszawskiego ukazała się opinia profesorów Leszka Marksa i Lucjana Piela „Walka ze zmianami klimatu czyli czarna przegrywa, czerwona wygrywa” ((UW Pismo Uczelni, Nr 1 (56), luty 2012, strona 52). Ten kompromitujący przyczynek zaczyna się od uświadomienia wszystkim naukowcom zajmującym się badaniami klimatu, że są oszustami. Zwolennicy badań zmian klimatyczny to „dworzanie, którzy mieli nieść tren, schylili się do ziemi i czynili takie ruchy rękami, jakby ów tren podnosili; a potem udawali, że coś niosą w powietrzu; nie ośmielali się okazać, że nic nie widzą”. Okazuje się, ze rozwiązania proponowane przez zwolenników badań klimatycznych są inspirowane „nienawiścią do rodzaju ludzkiego jako takiego”, dalej dowiadujemy się, że organizacje polityczne „wykorzystują ekologię jako broń ofensywną” i że prawdziwym problemem zanieczyszczeń atmosferycznych w atmosferze nikt się nie zajmuje, co jest oczywiście nieprawdą. Mimo, że każdy student fizyki atmosfery na Wydziale Fizyki UW jest uczony o tym, że para wodna stanowi dominujący gaz cieplarniany w atmosferze profesorowie twierdzą, że jest to ukrywane przez środowisko naukowe. Reszta artykułu obala wszystkie inne osiągnięcia badań klimatycznych i pokazuje wyższość autorów. Profesorowie z tą samą swadą rozprawiają się z proponowanymi ograniczeniami emisji dwutlenku węgla dając przy tym za przykład trzech grubych facetów A, B, C.

niedziela, 29 stycznia 2012

Polska dostosowała swoje prawo do dyrektyw unijnych dotyczących dostępu do informacji publicznej. Ustawa z dnia 16 września 2011 o zmianie ustawy o dostępie do informacji publicznej oraz niektórych innych ustaw okreśła, że Instytut Meteorologii i Gospodarki Wodnej jest obowiązany udostępniać nieodpłatnie informacje o stanie atmosfery i hydrosfery, przetwarzane w wyniku realizacji standardowych procedur, organom władzy publicznej oraz właścicielom wód lub działającym w ich imieniu zarządcom, jak również uczelniom, instytutom naukowobadawczym dla potrzeb badań naukowych i dydaktycznych. To jest ważne ze względu na to, że Polska jest jedynym krajem w Europie, który zablokował dostęp do swoich danych klimatycznych. 

http://www.uea.ac.uk/mac/comm/media/press/2011/July/crutem3

Podobnie, IMGW blokuje dostęp do danych dla celów mezosokalowych prognoz pogody, które wymagaja lokalnych danych (tak jest w przypadku modeli z Uniwersytetu Warszawskiego - ICM).  IMGW  udostępnia dane radarowe bez opóźnień tylko gdy występują groźne  zjawiska atmosferyczne. Oczywiście groźne z  punktu widzenia IMGW. Często jest tak, że  IMGW nie wydaje ostrzeżeń,  i wtedy dane radarowe są opóźnione.


Dla ekspertów:

http://prawo.legeo.pl/prawo/ustawa-z-dnia-16-wrzesnia-2011-r-o-zmianie-ustawy-o-dostepie-do-informacji-publicznej-oraz-niektorych-innych-ustaw/?on=29.12.2011

czwartek, 19 stycznia 2012

Rozwijany jest polski program do pogody i nawigacji morskiej "Naviweather". Szef tej firmy, Jacek Pietraszkiewicz, poprosił mnie, żeby opisać wzory jakie są wykorzystywane do oceny szkwałów; chodziło o  niedawny rejs Romana Paszke, ale sprawa jest bardziej złożona. W czasie rejsów transoceanicznych problem wiatrów, które nie są prognozowane bezpośrednio przez modele globalne pojawia się w kilku sytuacjach - m.in. w strefie konwergencji tropikalnej oraz na frontach. Tam modele numeryczne, nawet mezoskalowe, mają problemy. Zacząłem pisać odpowiedż na tym blogu, ale ten tekst lepiej się nadaje na Wikipedię. M. in. opisuje tam różnego rodzaje szkwały (tarcie, warstwy granicznej, konwekcyjne, linii frontalnych).  Hasło jest napisane trochę "pod żeglarzy". Nawet sam byłem ciekaw niektórych pomysłów, bo pamietam z kursów żeglarskich i z książek o meteo dla żeglarstwa, że wytłumaczenia zachowań szkwałów - tak często obserwowanych na Mazurach - nie zgadzały się z praktyką. Np czytałem, że szkwały na powierzchni wody skręcają zgodnie ze wskazówkami zegara - ale to chyba nie jest tak do końca. To dość typowe w nauce, że różne grupy - np optycy i fizycy atmosfery - mają różne opisy i nie czytają swoich prac.

 

Tutaj jest link

http://pl.wikipedia.org/wiki/Szkwał

 

burza

wtorek, 10 stycznia 2012

W dniu 5 stycznia 2012 o godzinie 19:57UTC na pozycji (50.715S, 64.8961W) Gemini3, jacht Romana Paszke żeglujący na południe w stronę  Cieśniny Drake’a i przylądka Horn.  znalazł się w strefie sztormowych wiatrów, których  maksymalna prędkość wyniosła 57.5 węzłów  z kierunku 197 stopni.  Silne wiatry przyszły w czasie dnia. Tutaj jest opis sytuacji meteorologicznej.

 Gemini 3 wiatr

Rysunek. Prędkość  w węzłach mierzona na jachcie  Gemini3  w dniu 5 stycznia 2012 (copyright Flatau/Janecki).

Wiatry o  prędkości większej niż 40 węzłów  utrzymywały się przez około godzinę pomiędzy 19:30UTC  a 20:34UTC.  Wiatry o prędkości około i powyżej 50kt były obserwowane przez 10 minut  pomiędzy godziną 19:47UTC a 19:59UTC.

Pokazana tutaj mapa pogody oparta jest na analizie danych powierzchniowych z  Centrum Hydrografii Marynarki Wojennej Brazylii, Serwis Meterorologii Morskiej z 5 stycznia 2012 o godzinie 12UTC. Poniżej 50S widoczne są trzy systemy niżowe. W centrum rysunku jest niż (oznaczony literą B) z minimum 964mb z centrum na pozycji (47S, 40W) oraz mniejszy system koło Falklandów z centrum niżu 994mb.   Front chłodny rozciąga się od centrum niżów aż do wybrzeża Argentyny gdzie kończy się na lądzie na (50S, 68W).  Na szerokości 35S (Buenos Aires) widoczny jest wyż koło wybrzeża Argentyny.  Jacht Paszke był pod wpływem niżu pomiędzy Falklandami i Argentyną.

 

 mapa synoptyczna

W czasie rejsu do prognozy pogody używaliśmy m.in. modeli ECMWF, GFS, CMC i modeli mezoskalowych. Prognozę można przeanalizować m.in. na podstawie Antarktycznego Systemu Prognoz Mezoskalowych (ang. Antarctic Mesoscale Prediction System - AMPS).  Model prognozuje wiatry do około 25 węzłów koło Falklandów dla godziny 21UTC. Koło Falklandów model prognozował chmury i opady.

 

 

 amps wiatr

 

Rysunek. Kierunek i prędkość wiatru [m/s]  na powierzchni.  Koło Falklandów prognoza wiatrów nie przekraczała 25 węzłów. Model Antarktycznego Systemu Prognoz Mezoskalowych, siatka Palmer 1-way nest.  Wyniki po 9 godzinach prognozy;  5 styczeń 2012 o godzinie 21UTC, model inicjalizowany dla 5 stycznia 2012, 12UTC.

 

 

 amps pseudosatelita

Rysunek.  Całkowita zawartość wody w kolumnie atmosferycznej oraz prognoza temperatury wierzchołków chmur w podczerwieni („pseudochmury”).  Model Antarktycznego Systemu Prognoz Mezoskalowych, siatka Palmer 1-way nest.  Wyniki po 6 godzinach prognozy;  5 styczeń 2012 o godzinie 18UTC, model inicjalizowany dla 5 stycznia 2012, 12UTC.

 

Meteogram dla pozycji Gemini3 w czasie sztormu na podstawie modelu globalnego modelu prognozy pogody GFS opracowanej przez Narodową Administracje Oceanów i Amosfery (NOAA)  jest przedstawiony na rysunku. Model był incjalizowany na podstawie danych GFS z 5 stycznia 2012 o godzinie 12UTC. Prognoza pogody obejmuje 192 godziny. Maksymalna prędkość wiatru prognozowana na 5 stycznia wynosiła około 30 węzłów z kierunków południowych z możliowsciami szkwałów.   Progozowane ciśnienie wzrasta aż do piątku 6 stycznia, 2012 o godzinie 12UTC.  Na jachcie Gemini3 mierzone ciśnienie atmosferyczne wynosiło 998mb  5 stycznia 2012  o godzinie 12UTC i wzrosło  do  1013 mb 6 stycznia  2012 o godzinie 12UTC. Innymi słowy gradient ciśnienia wynosił 15mb przez 24 godziny i wzrastał w czasie największego wiatru.  Model GFS prognozował wzrost ciśnienia o mnie więcej tę samą wartość co obserwowana na jachcie.

 

 

 meteogram

 

Podsumowanie. Jacht Gemini3 znalazł sie w strefie frontalnej pomiędzy Falklandami i wybrzeżem Ameryki Południowej. Prędkości wiatrów ponad 40 węzłów  - 9 w skali Beauforta - były obserwowane przez około godzinę pomiędzy 19:30UTC  a 20:34UTC. Maksymalne zmierzone wiatry wynosiły przez kilka minut około 57.5 węzła (ok. 106.5km/godzinę,  11 w skali Beauforta).  Wiatry o prędkości około i powyżej 50kt były obserwowane przez 10 minut  pomiędzy godziną 19:47UTC a 19:59UTC. Progozy pogody z modelu wielkoskalowego GFS (z rozdzielczością około 60km)  oraz z modelu  AMPS o większej rozdzielczości (15km), uwzględniającego dodatkowe dane meteorologiczne, były podobne i przewidywały wiatry do 30 węzłów z możliwością szkwałów do 40kt.   Analiza powierzchni 500mb (nie pokazana) pokazuje na przemieszczającą się na wschód zatokę niskiego ciśnienia koło Falklandów, adwekcję wirowości  i związane z tym opady, przemieszczanie się zimnego frontu i możliwość lokalnych burz i silnych wiatrów. Zarówno pomiary na jachcie jak i prognozy wskazują, że silne wiatry wystąpiły podczas rosnącego ciśnienia atmosferycznego o 15mb (hPa) na dzień.  

 

Prognozy pogody wykorzystywane w kierowaniu jachtów w żeglarstwie pełnormorskim przez nawigatorów opierają się na wynikach z modeli globalnych i czasami na modelach mezoskalowych prognoz pogody. Zwłaszcza w okolicach lądów, gdzie są dodakowe dane meteorologiczne i ukształtowanie terenu wypływa na wiatry, prognozy mezoskalowe mają zalety. W odległych rejonach morskich, jak to jest w południowym stożku Ameryki Południowej koło przylądka Horn i Cieśniny Drake’a,  ilość pomiarów meteorologicznych jest ograniczona.  Tutaj używamy Model Antarktycznego Systemu Prognoz Mezoskalowych, który wykorzystuje dodatkowe dane m.in. z pomiarów wiatrów ze śledzenia prędkości chmur i danych z automatycznych stacji pogodowych w Antarktydzie.   Inne modele wykorzystywane operacyjnie do prognozy w czasie sztormu to model Europejskiego Centrum Prognoz Średnioterminowych (ECMWF), model kanadyjski CMC, i model amerykański GFS.

 

Dla ekspertów:

Na stronie sieciowej
htttp://gemini3meteo.wikidot.com
jest więcej informacji na temat materiałów używanych do prognozy w czasie rejsu Gemini3.

 

środa, 04 stycznia 2012

Roman Paszke na swoim jachcie Gemini 3 po wyjściu z obszarów podtropikalnych był pod wpływem bardzo typowego na Półkuli Południowej systemu niżowego, który tworzy się po wschodniej stronie Andów na wysokości około 42S. Żeglarze mówią na to pasmo szerokości geograficznych "ryczące czterdziestki". Niże atmosferyczne można śledzić na kilka sposobów a ich droga na mapie to trajektorie. Na całym świecie są pewne wybrane miejsca gdzie niże się tworzą i umierają. Fachowo mówimy o tym cyklogeneza i cykloliza.

trajektorie niżów

Na rysunku są zaznaczone wszystkie niże, obserwowane przez kilkanaście lat, ale tylko z obszaru po wschodniej stronie Andów koło 42S.  Widać obszar cyklogenezy po wschodniej stronie Andów. Przepływ nad górami wiru (niż jest wirem) powoduje efekt podobny do tego co robi łyżwiarz na lodzie wirując. Rozkładając ramiona zmniejsza wirowanie,  a składając je do siebie zwiększa szybkość obrotów. Podobnie oddziałują góry na niże. Niże „rozkładając ręce” nad górami, bo kolumna atmosfery się „spłaszcza” i „składają ręce” po wschodniej części gór bo kolumna atmosfery jest po tej stronie dłuższa. Przy okazji przechodzenia przez góry pada deszcz – dlatego zawsze wschodnie stoki Andów są deszczowe a po wschodniej stronie jest sucho (myśl stepy Patagonii). Cykloliza tych systemów zachodzi na Atlantyku w kierunku Afryki na południe od Przylądka Dobrej Nadziei oraz przy wybrzeżach Antarktydy (na środku rysunku). Długość trajektorii definiuje okres istnienia cyklonu, natomiast kolor określa intensywność.

Niże się śledzi na podstawie modeli numerycznych pogody lub danych z analizy pomiarów meteorologicznych. Poniżej jest wczorajsza prognoza wszystkich trajektorii na Południowej Półkuli. Kropkami zaznaczone są godziny 0 i 12 (samo południe w Greenwich), a krzyżykami 6 i 18. Na początku każdej trajektorii jest opisane kiedy się ten niż zaczyna. Prognozy na więcej niż 5 dni są obarczone dużym błędem dlatego prognozy trajektorii czasami się nazywa "wykresem spaghetti". Dla zespołu nawigacyjnego grupy Paszke jest istotne, żeby okno pomiędzy przejściem niżów w Cieśninie Drake’a pomiędzy Ameryką Południową i Przylądkiem Antarktydy wynosiło około 2-3 dni. Dlatego patrzymy się m.in. na trajektorie. Widać, że niże przechodzące koło Przylądka Horn mają swoją cyklogenezę na Pacyfiku.

 trajektorie niże

Dla ekspertów

1. Pierwszy rysunek jest z 2005 roku "A New Perspective on Southern Hemisphere Storm Tracks", B. J. Hoskins, K. I. Hodges, J. Climate, 18, 4108

2. Rysunek drugi jest ze strony prognozy trajektorii cyklonów tropikalnych i niżów http://www.emc.ncep.noaa.gov/mmb/gplou/emchurr/glblgen/

3. Mezoskalowe systemy wirowe powstają też blisko brzegu lodu koło Antraktydy i czasami nie są identyfikowane przez modele globalne. Są dostępne dzienne przebiegi modelu mezoskalowego WRF w obszarze Antarktydy  (patrz link na stronie http://gemini3meteo.wikidot.com)

piątek, 30 grudnia 2011

Roman Paszke jest teraz (12/30/2011 o godzinie 00GMT), około 1500 mil od Hornu. Tak, że dziś będzie o prognozach pogody dla żeglarzy i jak to robi nasz zespół.

Istnieje kilka niezależnych modeli prognoz pogody w skali globu, dla przykładu: Model Europejskiego Centrum Prognoz Średnioterminowych (ECMWF), model Marynarki Wojennej USA (NOGAPS), model Narodowej Administracji Oceanów i Atmosfery (GFS), czy model kanadyjski (CMC). Nasza grupa, zajmująca się prognozą dla Paszke, ma dostęp do tych danych. Modele wielkoskalowe prognozują pogodę do 14 dni, z tym że prognozy powyżej tygodnia obarczone są dużym błędem.  Globalne prognozy zależą od pomiarów pogody na całym świecie w określonym czasie. Mówimy o takich pomiarach synoptyczne, bo po grecku „syn” oznacza razem, a „opsis” oznacza „ogląd”. Czyli „ogląd w tym samym czasie”. Wyniki są przedstawiane co około 30-60km na całym świecie i przesyłane są z centrów prognoz zazwyczaj 2-4 razy dziennie. My patrzymy na m.in. prędkość i kierunek wiatru na 10m nad powierzchnią Ziemi, ciśnienie na powierzchni Ziemi, opad deszczu, wysokość i kierunek fal. Modele przewidują falowanie na podstawie m.in. prędkości wiatru, jeden z tych modeli to Wavewatch III.  W niektórych odcinkach trasy mamy dostęp do tzw. modeli mezoskalowych, które prognozują z większą rozdzielczością przestrzenną, np na siatce punktów na Ziemi rozmieszczonych co 10km. Dzięki temu można uwzględnić efekty lokalne, takie jak góry. Dla przylądka Horn, Cieśniny Drake'a, Brazylijska Marynarka Wojenna umożliwia dostęp na sieci do wyników z modelu mezoskalowego HRM. Wyniki z modeli rozprowadzane są w różnych formach. M.in. dostępne są dane w formacie GRIB opracowanym przez Światową Organizację Meteorologiczną.

Ważnym elementem jest wyświetlanie danych. Robi się to za pomocą programów do wyświetlania graficznego danych GRIB połączonych z możliwościami wybierania najlepszej drogi, nakładania map czy tez nakładania kilku pół meteorologicznych i oceanograficznych na siebie. Można robić filmy zmian pogody i znając możliwości jachtu starać się wybrać odpowiednią trasę i strategię.

 

Przed trudnym zadaniem żeglarsko-meteorologicznym określa się podstawowe założenia. Dla przykładu w przypadku jachtu Gemini 3, dla przejścia Hornu chcielibyśmy mieć wiatry poniżej 35 węzłów w Cieśninie Drake'a przez około dwa dni, chcemy być daleko od strefy lodów ze względu na możliwość zderzenia z „growlerami” (fragmentami lodu). Chcielibyśmy mieć wiatry spoza kierunków zachodnich z pewną składową z północy, przynajmniej na wschodnim odcinku Cieśniny Drake'a.

Dla ekspertów:

1. Dla rejsu Paszke jachtem Gemini3 część linków jest gromadzona na stronie
http://gemini3meteo.wikidot.com/

2. Jest teraz kilka dobry wyświetlarek danych w formacie GRIB. Jedną z nich jest „naviweather” opracowana przez polską firmę z Bolesławca. Inne linki są na stronie http://gemini3meteo.wikidot.com/routing 

wtorek, 27 grudnia 2011

Problem z przejściem jachtem Przylądka Horn ze wschodu na zachód polega na tym, że silne wiatry są z zachodu i są one związane są z niżami, które przechodzą przez Cieśninę Drake’a raz na 2-5 dni. Ale ...  W lecie australijskim, które na Półkuli Południowej jest teraz, sztormy są rzadsze, ale ilość i intensywność sztormów jest zależna także od ogólnej różnicy ciśnienia pomiędzy szerokościami Cieśniny Drake’s (pomiędzy 55-60S) a ciśnieniem w szerokościach około 40S. Ta różnica średniego ciśnienia w dwóch pasmach wokół równoleżników na Ziemi (40S oraz 65S) jest po prostu jedną liczbą i zmienia się w czasie w skali 10 dni. Czasami jest dodatnia, a czasami jest ujemna. Dodatnia jest wtedy kiedy ciśnienie w pasie około 65S wokół ziemi jest niższe niż zazwyczaj, lub gdy wyż koło wybrzeży Chile na 40S, tzw. Wyż Południowego Pacyfiku, jest silniejszy niż zazwyczaj. Różnica ciśnienia powoduje kilka innych efektów. Jednym z nich są silniejsze wiatry kiedy różnica ciśnień jest większa. Ponieważ te zmiany ciśnienia zależą od czasu – mówimy o oscylacjach. Ponieważ są opisywane za pomocą jednej liczby, to nazywamy je „indeksem”. Stąd nazwa „Indeks Oscylacji Antarktycznej” (AAO). W modelach numerycznych prognozy jak i z pomiarów ciśnienia na Ziemi można policzyć Indeks Oscylacji Antarktycznej. Innymi słowy można zrobić prognozę jakie będę ogólne, w skali globu, warunki rozkładu ciśnienia. Na te stosunkowo wolne w skali czasowej oscylacje nakładają się przejściowe zaburzenia, czyli układy niżowe, których częstotliwość wzrasta kiedy indeks AAO jest większy.

Obecnie indeks AAO jest dodatni i przewidywania na początek stycznia są, że będzie się zmniejszał, ale zostanie dodatni. To oznacza, że średnia ilość systemów frontalnych i ich intensywność koło Przylądka Horn może być większa. Warto podkreślić, że indeksy tego typu pokazują prawdopodobieństwo zajścia pewnego zdarzenia. W rzeczywistości może być różnie i do tego wykorzystuje się modele numeryczne prognoz pogody. Indeks AAO ma także wpływ na wiatry koło Nowej Zelandii i Australii.

 aao

Prognoza Indeksu Oscylacji Antarktycznej z kilkunastu przebiegów modelu globalnej prognozy pogody (tzw wiązki prognoz). Prognoza na początek stycznia 2012 utrzymuje dodatni indeks AAO. Na osi x jest czas na osi y indeks AAO. Czerwone kreski na górnym diagramie pokazują zakres możliwych indeksów dla róznych przebiegów modelu (wiązki modelu).

Dla ekspertów:

1. Indeks AAO ma także nazwę SAM (Southern Annular Mode) i jest coraz częściej liczony za pomocą empirycznych funkcji ortogonalnych (odchodzi się od indeksów liczonych na podstawie różnic ciśnień w wybranych stacjach).

2. Indeks AAO ma znaczenie dla zmian klimatu bo istnieje korelacja pomiędzy temperaturą Przylądka Antarktycznego i AAO.

wtorek, 20 grudnia 2011

Dziś korespondowałem z Jabesem (Robertem Janeckim) na temat burz w strefie konwergencji. Robert jest nawigatorem w czasie Rejsu Romana Paszke. Paszke właśnie wpływa do strefy konwergencji i jest wyczulony na temat porywistych wiatrów bo kiedyś na jachcie Warta doświadczył szkwałów o prędkości do 40 węzłów w podobnej sytuacji.  Ma w tej strefie ustawione budzenie na co 15 minut i płynie skoncentrowany. Robert chciał wiedzieć czy widać komórki burzowe i czy można ocienić jakoś siłę wiatru. Problem jest ciekawy meteorologiczne. Jacht Gemini 3 jest w momencie kiedy pisze ten blog, czyli o godzinie 2011-12-20:15GMT, na pozycji 5.54W, 23.62W i wpływa w strefę konwergencji, która ma około dwa stopnie szerokości geograficznej, płynie w stronę równika na południe. Wiatr jest słabszy, bo jest już w strefie ciszy strefy konwergencji. Do prognozy mieliśmy informację głównie ze zdjęć satelitarnych, bo modele numeryczne w tych obszarach nie są najlepsze. Kilka parametrów otrzymanych ze zdjęć satelitarnych można wykorzystać do prognozy burz w tropikach. Po pierwsze zdjęcia pokazują gdzie są chmury; bez chmur nie ma burz. Innym parametrem jest struktura chmur, czym bardziej niejednorodna – tym bardzie przypomina to burze. O takich chmurach mówi się, że maja strukturę popcornu bo wyglądają jak prażona kukurydza tyle, że są biało-szare. Jasność chmury na zdjęciu satelitarnym (w podczerwieni) określa temperaturę jej wierzchołków. Jest tak dlatego, bo chmury mają temperaturę otoczenia a temperatura otoczenia jest związana z wysokością - czym wyżej tym zimniej. Wysokie wierzchołki chmur konwekcyjnych pokazują na potencjalnie silne wiatry na powierzchni Ziemi, bo z prądami wstępującymi, wynoszącymi wierzchołki chmur, związane są też prądy zstępujące, tworzące szkwały. Burze występują w tropikach dość niechętnie same z siebie i trzeba je jakoś wymusić. Albo przez naprawdę dużą temperaturę oceanu, około 31 stopnia C – mówimy wtedy o wymuszaniu termodynamicznym. Albo przez konwergencję powietrza w dolnych warstwach atmosfery lub przez "zassanie powietrza od góry" – mówimy wtedy o wymuszaniu dynamicznym. Wierzchołki chmur są teraz w strefie konwergencji na około 10-12km. W Polsce to byłoby bardzo wysoko. Ale w atmosferze tropikalnej tropopauza – czyli koniec troposfery jest znacznie wyżej niż w Polsce, nawet na 16 kilometrach, więc naprawdę wysoka konwekcja byłaby jeszcze wyżej. Jednym z ciekawych sposobów oceny wysokości chmur są dane radarowe.

cloudsat

Dane z radaru CloudSat dla obszaru dzie jest jacht Gemini 3. CloudSat oblatuje ziemię w kosmosie i obserwuje wąski pas atmosfery patrząc w dół. Ponieważ jest to radar - jego wiązka mikrofalowa jest w stanie przeniknąć przez atmosferę (tak jak kuchenka mikrofalowa przenika przez kartofel) i pokazać przekrój pionowy odbijalności atmosfery. Ponieważ krople wody i kryształy odbijają w pewnym stopniu promieniowanie mikrofalowe to służy to do oceny intensywności chmur. M.in. dzięki tego typu danym można ocenić potencjał szkwałów na powierzchni Ziemi. Na dole po lewej stronie pokazane są dane dla obszaru na Ziemi w strefie konwergencji wiatrów pasatowych.

Na środku oceanu radarów nie ma, ale jest radar umieszczony na satelicie CloudSat, który od czasu do czasu leci nad konkretnym punktem w tropikach. Radar jest w przestrzeni kosmicznej więc świetnie widzi wierzchołki chmur, ale ma trudności z chmurami blisko Ziemi. Na zdjęciu jakie dodaję widać trajektorię lotu CloudSat nad Ziemią. W szczególności satelita przelatuje blisko równika koło Afryki, tam gdzie dziś jest Paszke. Widać strefę konwergencji tropikalnej koło 4N. Przekrój przez atmosferę (dolny rysunek po lewej)pokazuje rozległe wierzchołki chmur, przypominające kowadło – ze skoncentrowanym obszarem opadu przy powierzchni Ziemi i rozpływającą się chmurą na około 12km. Najwyższa część atmosfery na tym rysunku to około 30km. Opisuję tutaj tę część rysunku, która jest na szarym tle. Kolorowa linia pokazuje trajektorię Cloudsata.

 

Dla ekspertów:

Ucząc wstępu do fizyki atmosfery warto wykorzystywać CloudSat. Można pokazać podstawowe elementy modelu norweskiego cyklonów (chmury), przekroje przez cyklony tropikalne, ITCZ, itd. Dane są na
http://cloudsat.cira.colostate.edu/dpcstatusQL.php

niedziela, 18 grudnia 2011

Roman Paszke, który stara się pobić rekord opłynięcia Ziemi na jachcie, jest teraz (18 grudzień 2011, godzina 00GMT) na szerokości 12.3N i długości 23.15W na Atlantyku i płynie w kierunku równika. Pod koniec przyszłego dnia zacznie dopływać do strefy konwergencji powietrza pomiędzy półkulą północną i południową. W tych szerokościach spotykają się wiatry pasatowe i powodują wypychanie powietrza do góry. Dlatego jest to obszar gdzie zdarzają się burze tropikalne a więc i szybkie porywy wiatry (szkwały). Burze w tropikach mają większe prawdopodobieństwo do powstawania we wczesnych godzinach rannych. Koło strefy konwergencji są, ogólnie mówiąc,  słabe wiatry (ang. doldrums). Strefa zbieżności ma angielska nazwę Intertropical Convergence Zone a skrót ITCZ jest bardzo często używany wśród meteorologów.

 

itcz1

ITCZ jest na na 6N pomiędzy dłygością 15W a 50W. Ale widać też inne chmury koło 40W na północ od strefy ITCZ.

 

Paszke będzie musiał uważać na sporadyczne gwałtowne wiatry a jednocześnie starać się przepłynąć pas ciszy tropikalnej w najwęższym miejscu. Jak to prognozować? Modele numeryczne nie są tutaj najbardziej pomocne, bo burze często powstają "podskalowo", innymi słowy globalne model prognozy nie maja dostatecznie dobrej rozdzielczości. Przychodzą tu z pomocą techniki obserwacji satelitarnych. Popatrzmy na zdjęcie poniżej. Widać chmury, jest strefa konwergencji około 6N, ale nie bardzo wiadomo co się z tymi chmurami stanie. Z pomocą przychodzi tutaj diagram Hovmöllera, który wykorzystuje kilka zdjęć z różnych godzin ułożonych blisko siebie. Widać, że chmury na 40W powoli wędrują sobie na wschód. Natomiast chmury na 6N są dość stacjonarne. Dzięki temu można postawić prognozę co się stanie z chmurami. Jeżeli do tego dodać opad, co też można ocenić z danych satelitarnych, to możemy wywnioskować gdzie jest konwekcja i gdzie trzeba uważać, i w jakim miejscu starać się przekraczać strefę konwergencji.

 

itcz2

Diagram Hovmöllera. Ostatni dzień jest na samej górze. Kilka zdjęć tego samego obszaru dobrze pokazuje ruch chmur. Trochę tak jak na poklatkowym filmie. Widać grupę chmur wędrujących na wschód. Ale na 5-6N widać też  dobrze ITCZ.

 

Dla ekspertów

1. Storna sieciowa rejsu Paszke
http://paszke360.com/550/

2. Diagram Hovmöllera został zaproponowany przez Ernest Aabo Hovmöllera (1912-2008) w czasopiśmie Tellus w 1949 roku.

3. Diagramy Hovmöllera pochodzą ze strony w Colorado State University z wydziału fizyki atmosfery w Kolorado, który mieści się u podstawy Gór Skalistych. Dlaczego zajmują się tam meteorologią tropikalną (to chyba najlepszy wydział meteorologii tropikalnej na świecie) do końca nie wiem.

sobota, 17 grudnia 2011

Kilka dni temu, 12 grudnia 2011, Roman Paszke zaczął rejs dookoła świata na katamaranie Gemini 3.

"Dzień 3. Nareszcie płynę tak jak planowaliśmy przez ostatnie 3 lata. W nocy był pewien kłopot co zrobić z piaskiem pustynnym z Zachodniej Sahary. Mimo, że do brzegu było ponad 100 mil nawiało sporo piaskowego pyłu i jest wszędzie na pokładzie. Zmywam najpierw słoną, potem słodką wodą. Nie mam niestety odkurzacza i muszę poczekać aż pierwszy tropikalny deszcz zmyje wszystko do czysta. Póki co mam namiastkę brązowej plaży w każdym miejscu na pokładach…. Pozdrawiam wszystkich. Roman Paszke."

Trzeci dzień rejsu Paszke to 16 grudnia 2011 roku. Był wtedy w nocy na szerokości geograficznej 20.4N i długości geograficznej 18.4W koło wybrzeży Północno-Zachodniej Afryki. Jak pisze z pokładu - piasek jest przywiewany z zachodniej Afryki, ale popatrzmy dokładniej skąd i jak się to bada. Otóż do prognozy piasku w atmosferze potrzebne są dane meteorologiczne i geofizyczne. Pierwsza grupa danych jest potrzebna do oceny mobilizacji piasku – czyli tego czy można na tyle wzruszyć piasek, żeby mógł się dostać do atmosfery. Do tego trzeba znać gdzie piasek jest, mówimy o tym "źródła emisji". Są to pustynie ale też wyschnięte jeziora, ważna jest znajomość roślinności i jej sezonowej zmiany. Druga grupa danych to informacja o warunkach meteorologicznych w dniach poprzedzających mobilizację piasku - prędkość wiatru przy ziemi jest najbardziej istotna. Ale innymi parametrami są opad i pokrywa śniegu; dla przykładu mobilizacja piasku na pustyni Gobi w Mongolii jest mała w czasie zimy ze względu na śnieg i niską temperaturę.  Następnym elementem jest  emisja i unoszenie piasku do atmosfery. Tutaj ważny jest rozkład temperatury w atmosferze bo prądy wstępujące mogą piasek unieść do wyższych warstw atmosfery - co jest ważne dla transportu. Istotna jest też geografia.  Dla przykładu - olbrzymia pustynia Taklimakan w Chinach otoczona jest górami i dlatego zachowuje się jak olbrzymia piaskownica. Bardzo często piasek się wzbija do góry i opada na dół. Następnym elementem prognozy jest znajomość rozkładu wiatru na wszystkich wysokościach w powietrzu i to na całym świecie. Dzięki temu można ocenić transport piasku na duże odległości.

naaps dust on google earth

Wyniki z modelu transportu pyłu piaskowego. Rozkład grubości optycznej (koncentracji pyłu) nałożone na Google Earth. Jacht Paszke był w zasiegu piasku emitowanego w północno zachodniej Afryce.

Na rysunku  jest wykres grubości optycznej (skrót AOD- ang. Aerosol Optical Depth) na podstawie modelu transportu piasku dla 16 grudnia 2011 dla północnej Afryki. Skala jest logarytmiczna i żółto zielone kolory pokazują olbrzymie zawartości piasku w atmosferze – grubość optyczną ponad 3.2. Przy takiej grubości optycznej pył prawie zakrywa słońce na niebie. Najmniejsze wartości to ciemno zielony kolor. Piasek z Sahary jest łatwo mobilizowany i ma kilka dróg transportu – na zachód, na północny-wschód przez Morze Śródziemne gdzie czasami dochodzi do Europy i na wschód gdzie czasami dochodzi do Ameryki Północnej. Piasek, który spadł na jacht Paszke pochodził z północno-zachodniej Afryki. Pewnie słońce zachodziło na czerwono. Można też popatrzeć na trajektorie wsteczne – jest to fachowe określenie na to skąd wiał wiatr. Trajektorie wsteczne i trajektorie "do przodu" używane są w ocenie niebezpieczeństwa związanego z transportem zanieczyszczeń w powietrzu – np podczas katastrof reaktorów jądrowych.

Dla ekspertów:

1. Dane transportu pyłu piasku w atmosferze można znależć na stronie NRL. W części "model NAAPS" są wyniki dla 5 dniowej prognozy transportu pyłu piaskowego. Model globalny opiera się na danych z modelu NOGAPS. Fajna jest opcja wyświetlania filmu z prognozy na Google Earth.
http://www.nrlmry.navy.mil/aerosol/

2. AOD raportowane przez model NAAPS jest w 500nm w świetle widzialnym.

3. Trajektorie wsteczne dla danego położenia na świecie można dostać z modelu Hysplit.
http://ready.arl.noaa.gov/HYSPLIT.php

 hysplit

Trajektorie wsteczne (72 godziny) z Hysplit dla pozycji jachtu Gemini 3 w dniu 16 grudnia 2011 na powierzchni oceanu.  

środa, 14 grudnia 2011

Kilka dni temu odbyło się spotkanie w San Francisco Amerykanskiej Unii Geofizycznej, w którym uczestniczyło ponad 20,000 geofizyków.  Część z nich zajmuje się zmianami klimatu, ale są też sejsmolodzy, geodeci, oceanografowie, itp.   Na tych spotkaniach pokazuje się ostatnie wyniki naukowe, ale są też wygłaszane retrospektywne, przeglądowe seminaria. Jednym z takich seminariów było wystąpienie Graeme Stephensa.  Graeme Stephens zajmuje się wpływem promieniowania słonecznego  i podczerwonego na chmury, czyli  fizyką zmian klimatu.  Dla wyjaśnienia - w modelach symulujących klimat na podstawie równań opisujących zjawiska fizyczne w atmosferze i oceanie można, używając obliczeń komputerowych, przewidzieć zmiany klimatu powodowane,  dla przykładu, podwojeniem koncentracji dwutlenku węgla.  Modele takie  są przedmiotem krytyki ze strony przeciwników  badań zmian klimatycznych. Stephens nie jest przeciwnikiem badań  zmian klimatu. Mimo to,  wygłosił seminarium jakie można uznać za nieco heretyczne, jeżeli jest się bezkrytycznie po stronie zwolenników tezy o tym, że zmiany klimatu są już do końca wyjaśnione.   Przetłumaczyłem, z pewnymi zmianami,  wstęp wystąpienia Stephensa.  Warto powiedzieć, że krytyka Stephensa ma też receptę na wyjście z pewnego kryzysu badań zmian klimatu. Uważa on, że należy skoncentrować się na badaniach satelitarnych procesów  chmurowych w skali kuli ziemskiej, za pomoca aktywnych pomiarów – czyli  pomiarów radarowych lub lidarowych (patrz zdjęcie).

 

A-TRAIN

"Pociąg-A" - zestaw satelitów, które przylatują nad danym punktem nad Ziemią, w krótkim okresie czasu po sobie. Cześć z pomiarów odbywa się za pomocą radaru (CloudSat) i lidaru (CALIPSO), czyli aktywnych pomiarów teledetekcyjnych, dzięki którym można dostać informację o globalnej strukturze chmur i ich własnościach fizycznych takich jak wielkość kropel, opad, czy całkowita ilość wody (wodność chmur). Rezultaty "Pociągu-A" są wykorzytywane w eksperymentalnych wersjach modeli prognoz pogody do lepszego zrozumienia procesów chmurowych.

"Tematyką o jakiej będę mówił zajmuję się przez około 40 lat, od momentu kiedy byłem doktorantem. Zacząłem kiedy  oddziaływanie pomiędzy chmurami i promieniowaniem nie było ważnym przedmiotem badań w fizyce atmosfery. Związane było to z faktem, że modelowanie klimatu zaczęło się od numerycznych prognoz pogody.  W numerycznych prognozach pogody oddziaływanie pomiędzy chmurami i promieniowaniem słonecznym i podczerwonym nie jest aż tak istotne.  Kiedy zaczynałem swoje badania większość modeli klimatu miało wbudowane założenie, że pokrywa chmur zależy od szerokości geograficznej ale nie zależy od długości geograficznej.  Chmury  wpływały na promieniowanie słoneczne ale tak, żeby ogólny bilans energii  promieniowania słonecznego i podczerwonego był prawidłowy.   Innymi słowy,  nie było żadnych mechanizmów sprzężeń zwrotnych.  Miałem olbrzymie trudności, żeby przekonać modelarzy klimatu, że oddziaływanie promieniowania słonecznego z chmurami jest ważne.  Już na początku lat 1970 pokazałem w swoich pracach, że grubość optyczna chmur jest istotna. Wskazywałem też na fakt, że grubość optyczna chmur zależy od ilości wody w chmurach i dlatego musi to być ważny parametr.   Odpowiadano mi wtedy, że grubość optyczna chmur nie będzie używana w modelach klimatu.    Podobne uwagi dotyczyły opisu mikrofizyki chmur.   W roku 2011 widać dramatyczne przemiany -zarówno mikrofizyka chmur jak i grubość optyczna chmur są  używane jako parametry w modelach klimatu.  W moim referacie chciałbym  opowiedzieć o  postępie jaki nastąpił w opisie wpływu chmur na klimat.    Chciałbym się też zastanowić co jest powodem,  że badania zmian klimatycznych stanęły obecnie jakby w miejscu.  Czy jest recepta na to, żeby znowu nastąpił postęp?

 

Moim zdaniem  powodem dlaczego zmiany średniej temperatury na powierzchni Ziemi są trudne do oceny jest to, że oddziaływanie klimatu (ruchu powietrza i innych procesów zachodzacych w atmosferze) z chmurami jest skomplikowane, ma wiele różnych  aspektów,  jest zmienne w przestrzeni i w czasie, i  po prostu nie może zależeć od jednego parametru jakim jest średnia globalna temperatura na Ziemi. Skomplikowany  charakter oddziaływania klimatu z chmurami powoduje, że różne modele w różny sposób przewidują  te sprzężenia zwrotne.  Jeżeli  nie zmienimy myślenia to za dziesięć,  dwadzieścia lat nadal będziemy w tej samej sytuacji.  Mimo tych uwag uważam, że nastąpił ostatnio postęp w zrozumieniu procesów chmurowych.  Dla przykładu, jesteśmy bardzo blisko pełnego zrozumienia  w jaki sposób zachodzi transport wody i pary wodnej.  Moim  zdaniem fundamentalnym sposobem polepszenia modeli  klimatu jest zrozumienie  procesów fizycznych chmur w skali globalnej..."

Dla ekspertów:

1. Całość  wystąpienia Stephensa, łącznie z kilkoma referencjami,  jest na stronie AGU
http://vimeo.com/33321693

2. G. L. Stephens  był szefem projektu CloudSat.

3. CALIPSO z początku nazywał się PICASSO ale ze względu na znanego malarza zmieniono nazwę.  

 

sobota, 10 grudnia 2011

John Tyndall był naukowcem, opublikował 17 książek, i dzięki temu drobił się dużej forsy. Czego nie można powiedzieć o wszystkich naukowcach. 

W jednej, z nich (koło 1861) opisuje aparaturę do pomiaru efektu absorpcji energii cieplnej przez gazy. Tyndall użył galwanometru i termoelementów. W termoelemencie, z powodu różnicy pochłaniania promieniowania wytwarza się różnica temperatur. Ta różnica temperatur między końcami termobaterii wytwarza siłę elektromotoryczną powodująca wychylanie się wskazówki galwanometru.

aparatura 1861

Na rysunku widać tubę, to najdłuższy element, o wielkości około 1 metra. Za tubą stoi na stole po lewej stronie termoelement (takie jakby dwa lejki złączone czubkami), od którego wychodzą dwa druty, które idą do galwanometru na mniejszym i niższym stoliku obok. Za termoelementem jest ekran cieplny, trochę tylko pochłaniający ciepło. Ten ekran można przesuwać i dzięki temu regulować ilość ciepła padającego na termoelement z lewej strony. Za długą tubą po prawej stronie też jest źródło promieniowania cieplnego. Ono jest oddalone trochę dalej niż źródło ciepła po lewej stronie. Źródło promieniowania cieplnego to może być ogrzana kostka lub patelnia, no coś ciepłego. Tuba była w środku wypolerowana i zrobiona z mosiądzu dzięki czemu odbijała i nie absorbowała promieniowania podczerwonego (długofalowego, cieplnego – to wszystko to samo). Wyobraźmy sobie, ze termoelement jest ocieplany z prawej i lewej strony jednakowo. Wtedy nie ma różnicy temperatur i galwanometr nie powinien zmierzyć żadnego prądu. Jeżeli z tuby usunąć całe powietrze to można wtedy tak przesunąć ekran cieplny, żeby wskazówka galwanometru nie wychylała się. Następnie możemy przesłonić koniec tuby wypolerowanym metalem, który odbija promieniowanie podczerwone, wtedy całe ciepło przychodzące z prawej strony zostanie zasłonięte przez tę przesłonę i galwanometr pokaże różnicę związana z maksymalną różnicą temperatur po prawej stronie i lewej stronie termoelementu. Teraz najważniejsze. Do tuby wpuszczamy gaz, który absorbuje promieniowanie cieplne a oba końce tuby są zakończone szybkami, które przepuszczają promieniowanie cieplne, np sól kuchenna, myśl Wieliczka, ma takie właściwości. Termoelement po prawej stronie będzie inaczej ogrzewany niż po lewej stronie a odczyt galwanometru będzie proporcjonalny do absorpcji promieniowania cieplnego przez gaz. W ten sposób zmierzono po raz pierwszy efekt cieplarniany dwutlenku węgla.

Następnie pomysł, że dwutlenek węgla jest istotnym gazem cieplarniany nie był szeroko akceptowany,  aż do gdzieś tak lat 1960. 

 

Dla ekspertów

1. W 1951 roku w autorytatywnej książce o grubości cegły "Compendium of Meteorology"  ekspert od spraw zmian klimatu C. E. P. Brooks zaobserwował, że pomysł, że CO2 wpływa na zmiany klimatu popularyzowany przez Arrheniusa i Chamberlina, "nigdy nie był szeroko zaakceptowany wśród naukowców i został porzucony kiedy zorientowano się, że promieniowanie długofalowe absobowane przez CO2 jest także absorbowane przez parę wodną". Brooks uważał wyniki Callendara, korelujące CO2 z globalnymi zmianami klimatu za "przypadek". Uwaga dla przeciwników badań zmian klimatu: obecnie wiemy, że jest inaczej.

2. Pomysł na ten blog przeszedł mi do głowy po wykładzie Richarda Somervilla w czasie spotkania Amerykańskiej Unii Geofizycznej w grudniu 2011 w San Francisco. Podobny wykład Ryszard wygłosił w Dublinie w tym samym roku

http://www.youtube.com/watch?v=5maT2CunT08

środa, 07 grudnia 2011

Nowe rozporządzenie Ministra Nauki i Szkolnictwa Wyższego (22 września 2011) określa, że do wniosku o habilitację należy podać informację o działalności popularyzującej naukę. Ja robię tę popularyzację przez wpisy na tym blogu, które z kolei są najczęściej popularnonaukowym omówieniami artykułów jakie piszę na podobne tematy na Wikipedii (WP). Stan haseł naukowych na polskiej WP jest słaby dlatego, bo naukowcy nie mają specjalnej motywacji. Nie wydaje mi się, że nowa ustawa to zmieni. W pewnych dziedzinach – dla przykładu – zmianach klimatu, brak popularyzacji nauki prowadzi do katastrofalnych problemów - stąd zresztą ten blog. Oczywiście polskie środowisko naukowe jest płytkie w porównaniu do obszaru anglojęzycznego. Dlatego hasła naukowe na angielskiej Wikipedii są obszerniejsze. Jednak jednym ze sposobów pisania artykułów na WP jest tworzenie „stubów”, krótkich tekstów, w których zlinkowane są odnośniki do haseł angielskich - tzw. interwiki. Takie początkowe artykuły są ważne bo ustalają słownictwo. Bardzo często wymyślam nowe terminy naukowe, co jest pewnego rodzaju przyjemnością. Ostatnio tłumaczyłem na polski „rip current” i „undertow”. Ciekawe jak by „rip current” przetłumaczyli moi Czytelnicy - proszę sprawdzić jak ja to zrobiłem na WP. Wikipedię można też traktować jako duży notatnik naukowy. Wprawdzie istnieje nakaz „braku twórczości własnej”, ale nie trzeba od razu wpisywać swoich pomysłów naukowych, ale to co zrobiono do tej pory. Jeżeli pracuję nad nowym tematem, to wpisuję to na Wikipedię i potem mam spis odnośników jaki potrzebuję. Czasami wykorzystuję to jako sposób pracy ze studentem. Tak prowadziłem jedno magisterium z fizyki atmosfery i oceanografii. A czasami zadaję studentom pracę domową – wpis nowego hasła na Wikipedii. Pewien problem polega na tym, że prace magisterskie i doktorskie mają w Polsce nikomu niepotrzebne „wstępy”.  No i jak student wpisze coś na Wikipedię, to nie bardzo wiadomo czy to co ma w pracy magisterskiej jest jego czy nie – wprawdzie można to prześledzić przez historię wpisów - ale pojawia się sprawa „samoplagiatu”. Na WP są głosowania nad hasłami „na medal” i wtedy wymienia się kto jest autorem. A może zamiast nieznośnych „przeglądów literatury” w polskich pracach magisterskich i doktorskich nakazać ich wpisywanie na WP i przestać opowiadać o „samoplagiatach”? Inną metodą rozszerzania WP jest dokumentacja do stron sieciowych. Dla przykładu, od lat gromadzę na sieci programy do obliczeń rozpraszania światła na małych cząstkach, ale ostatnio dokumentację do tej strony sieciowej prowadzę prawie wyłącznie na WP

http://code.google.com/p/scatterlib/


Innym problemem z jakim borykają się naukowcy jest problem poprawek, jakie może na WP wprowadzić każdy. Mimo to, hasła wpisane przez specjalistów w naukach ścisłych zazwyczaj nie są modyfikowane. Wyjątkiem są hasła o dużym zabarwieniu społecznym - dla przykładu hasło o efekcie cieplarnianym. Innym problemem jest jakość haseł. Ale na poziomie studiów wyższych, gdzie studenci powinni samodzielnie myśleć, nie ma moim zdaniem problemu. Innymi słowy, Wikipedia jest tylko początkiem wyszukiwania informacji a zasada „weryfikowalności”, przestrzegana coraz bardziej na WP powoduje, że dobre hasło ma odnośniki do literatury naukowej. Innym sposobem pisania artykułów na Wikipedii, pewnie najlepszym, jest napisanie hasła, które jest na medal. Jest ich procentowo mało, ale satysfakcja czasami jest ze względu na dużą „czytalność”.  Tak, że jak popularyzować naukę to tylko na Wikipedii.

„Katastrofa zaczyna się wtedy kiedy chmura zniża się do Ziemi z wielkim hałasem często opisywanym jakby jechało tysiąc wagonów kolejowych na raz, albo jakby strzelało działo armatnie tylko, że jego dźwięk pozostawał słyszany w powietrzu przez kilka minut. Osoby, które były blisko tornada opisują czasami jego dźwięk, jak jakiś szczególny świszczący odgłos milionów pszczół, odgłos który zazwyczaj dochodzi wtedy kiedy chmury są wysoko nad powierzchnią Ziemi. Zazwyczaj ten dźwięk jest zagłuszony kiedy chmura dotyka Ziemi i kiedy zaczyna się zniszczenie ...”

 

tornado muzyka

 

Z powyższego opisu wydaje się, że dźwięki związane z tornadem mają dwojakie źródło. Jedno źródło to jest muzyczny ton opisywany jako świst lub buczenie a drugie związane jest z destrukcją jaka się zaczyna kiedy tornado dosięga Ziemi i wszystko dookoła zaczyna latać w powietrzu. Tornada są skoncentrowanymi wirami o różnej wielkości. Tornado może oscylować, a oscylacje mogą się propagować zarówno do góry i do dołu jak i w kierunku od i do osi tornada. Tornado może drgać tak jak powiększający się i zmniejszający się bąk. My jesteśmy w stanie usłyszeć dźwięk o częstotliwości powyżej 20 drgań na sekundę, chociaż słyszalność zależy to też od tego jak silne jest źródło. Okazuje się, że tornada śpiewają w częstotliwości odwrotnie proporcjonalnej do promienia. Tornado o średnicy 200m wydaje infradźwięki o częstotliwości ok. 1 razy na sekundę. Im mniejsze tornado tym dźwięk jest wyższy.

Infradźwięki (poddźwieki) są używane do oceny innych zjawisk w atmosferze, m.in. eksplozji jądrowych i do przewidywania gwałtownych zjawisk – tornad, burz, wybuchów wulkanów.

poniedziałek, 21 listopada 2011

Właśnie skończyłem wpis na polskiej Wikipedii na temat Henri Benarda, bo ciekawią mnie komórki w altocumulusie. Poniżej jest trochę materiału na jego temat i zastosowań w meteorologii.  


W 1898 roku Henri Bénard zaobserwował, dość przypadkowo, regularne komórki w rozpuszczonej parafinie, do której dodał pył grafitowy. Następnie przeprowadził szereg eksperymentów, w których obserwował komórki w cieczy pomiędzy dwiema bliskimi siebie płytkami.  Płytki miały średnicę około 20cm i były w odstępie kilku milimetrów. W 1916 roku Rayleigh wyjaśnił to zjawisko jako ruch ciepłego płynu do góry i osiadanie zimnego płynu na peryferiach komórek. Rayleigh podał warunek na występowanie komórek termicznych, ale jego teoria nie opisuje jaki kształt te komórki mogą przybierać. W eksperymencie Bénarda najczęściej komórki miały heksagonalny kształt, ale zależało to też od różnicy temperatur i odległości płytek pomiędzy sobą. Jeżeli płytki zaczęto przesuwać względem siebie to wtedy powstawały rolki. Komórki te mają obecnie nazwę komórek Rayleigha-Bénarda. Od początku Bénard był zafascynowany analogiami do zjawisk w przyrodzie. W szczególności uważał, że chmury podobne do łusek makreli (altocumulus stratiformis) są przykładem komórek podobnych do tych obserwowanych w laboratorium. Obecnie wiemy, że promieniowanie cieplne na wierzchołku i podstawie tych chmur powoduje oziębianie i ocieplanie podobnie jak pomiędzy płytkami w doświadczeniu Bénarda. W 1937 roku w Paryżu odbyła się Światowa Wystawa Sztuki i Techniki. W budynku, który obecnie mieści paryski Pałac Nauki - Palais de la Découverte, najstarsze muzeum naukowe na świecie (dla przypomnienia - Centrum Nauki w Warszawie powstało niedawno) Bénard ze swoimi współpracownikami pokazywał w pawilonie meteorologicznym eksperymenty obrazujące powstawanie rolek (ścieżek chmurowych) w cieczy. Zresztą swoje ostatnie dwie prace poświęcił zastosowaniom komórek Bénarda w meteorologii między innymi opisowi zjawiska chmur mammatus („chmur piersiowych”). Bénard zmarł w 1939 roku.

 

komorki w Sc 

Otwarte i zamknięte komórki w chmurach stratocumulus. Widać olbrzymią różnicę w jasności tych dwóch systemów, a co za tym idzie zdolności odbijania promieniowania słonecznego.

 

Niedawno (2010) opublikowano fascynujące rezultaty dotyczące komórek Rayleigha-Bénarda obserwowane w chmurach stratocumulus (chmury te są najczęściej występującymi chmurami na świecie).  Okazało się, że komórki Bénarda w stratocumulusie mogą się diametralnie zmieniać w zależności od wielkości kropli. Jeżeli chmury znajdują się w otoczeniu gdzie jest dużo zanieczyszczeń wtedy komórki są zamknięte - jest dużo chmur. Wtedy kiedy powstają w czystym powietrzu, komórki są otwarte, z małą ilością chmur. Zmienia to drastycznie odbicie promieniowania słonecznego od tych chmur.

 

Dla ekspertów:

1. Opis wpływu opadu na strukturę komórek Bénarda można znaleźć w pracy opublikowanej w Nature: Graham Feingold, Ilan Koren, Hailong Wang, Huiwen Xue, Wm. Alan Brewer, Precipitation-generated oscillations in open cellular cloud fields, Nature, 466, 12 August 2010, doi:10.1038/nature09314

2. Komisja naukowa w ENS Paryżu, w roku 1901 uważała, że praca doktorska Bénarda była taka sobie i początkowo wylądował w Lionie.

 
1 , 2 , 3 , 4