Blog poświęcony popularyzacji badań klimatycznych
czwartek, 03 listopada 2011

Piszę akurat artykuł o altocumulusie i mam przed nosem rysunek  olbrzymich zmian temperatury w  małej chmurze. Dla przykładu niebieskim kolorem zaznaczone jest oziębianie o około -10 stopni na godzinę związane z promieniowaniem cieplnym. Z drugiej strony, bliżej podstawy chmury, następuje jej ogrzewanie – znacznie mniejsze bo około +2 stopnie na godzinę.  Na osi pionowej jest wysokość nad Ziemią, na osi poziomej jest czas. Akurat ta chmura była (na Florydzie w lecie 2010 roku) pomiędzy wysokością 6650m a 6850m. Czyli miała jakieś  200 metrów grubości.  Nie wiem co bym zrobił gdybym był chmurą, bo przecież 6850 metrów nad Ziemią i tak jest  już dosyć zimno – tak koło 0C, jak nie mniej, a tu jeszcze dodatkowe oziębianie o 10C na godzinę. Powodem tego wypromieniowania jest fakt, że powyżej chmury jest jeszcze zimniej, więc nie ma jej co ogrzewać.   Czy jest jakaś szansa, żeby ta chmura nie zamarzła na smierć?    Tak. Po pierwsze, zimne powietrze na górze chmury jest cięższe więc może opadać i mieszać się z cieplejszym powietrzem. Po drugie, jeżeli jest w powietrzu para wodna wodna to przy kondensacji (zmianie na wodę) wydziela się ciepło.  Można by też nałożyć na tę chmurę kołderkę – np. inną chmurę nieco wyżej. Wtedy nie byłoby jej tak zimno.  I dlatego w nocy kiedy są chmury blisko nad Ziemią nie jest aż tak zimno; to się nazywa efekt cieplarniany.

 

Dla ekspertów.  Chmura była obserwowana radarem o bardzo wysokiej rozdzielczości, który był wykorzystywany do oceny odprysków przy startach Promu Kosmicznego na Przylądku Canaveral.  Tyle, że w tym wypadku obserwowaliśmy niebo patrząc radarem do góry.  Tutaj jest opis radaru i eksperymentu z ostatniego numeru czasopisma "Meteorological Technology International"

http://viewer.zmags.com/publication/80eaaeef#/80eaaeef/52

Przejście od odbijalności do LWC zostało zrobione zakładając R = a LWC^2 (dzięki pomiarom samolotowym). A z tego, za pomocą RRTM, "heating rates" - moim zdaniem sprytne?

wtorek, 01 listopada 2011

Popatrzmy się na dzisiejszy diagram Wheelera-Hendona, bo to jest sprytna i ciekawa metoda średnioterminowej prognozy pogody w tropikach.

 


 

Diagram Wheelera-Hendona.

 

Jest tak. Diagram ma 8 faz. Każda z faz określa pozycję na Ziemi w atmosferze tropikalnej. Faza 2 to zachodni Ocean Indyjski. Faza 3 to wschodni Ocean Indyjski. Faza 4,5  to Kontynent Morski  (tak meteorolodzy nazywają  Południowo-wschodnią Azję – Indonezja, Malazja), faza  6,7 to Ocean Spokojny, faza 1 to Afryka. Na osiach są dwa wektory RMM1, RMM2, które określają gdzie (faza) na Ziemi znajduje się w danym momencie czasu konwekcja związana z  wielkoskalowymi oscylacjami  w atmosferze tropikalnej oraz jej intensywność. Najczęściej oscylacja porusza się cyklonicznie wokół Ziemi w pasie tropikalnym. To właśnie czerwona linia pokazuje obserwacje z ostatnich 30 dni (cyfry 1,2,3,4,..30) i ten przebieg wokół Ziemi.  Tego typu obserwacji dokonuje się na podstawie zdjęć satelitarnych oraz na podstawie prędkości wiatru stosunkowo blisko Ziemi i wyżej w atmosferze. Zdjęcia satelitarne pokazują gdzie w tropikach są chmury. Ale te zdjęcia są  porównywane względem dwóch innych „typowych zdjęć” (fizycy atmosfery mówią o tym, że są „rzutowane na empiryczne wektory własne”). Czym bardziej podobne są te zdjęcia tym lepsza zgodność  - i to opisują liczby RMM1, RMM2 ("wartości własne").   Można o tym myśleć tak. Każdy z nas ma pewne odczucie  tego jak, powiedzmy, wyglądają cztery pory roku - zima, wiosna, lato, i jesień. Ale konkretny dzień (dla przykładu dziś) może byc bardziej lub mniej podobny do tego idealnego jesiennego.  Na diagramie jest też czarne kółko w środku. Otóż w tym kółku intensywność konwekcji jest mała - tam konwekcja umiera, a właściwie przygasa.    Jest zdumiewające, że konwekcja czyli chmury, przebiegają w czasie około 40-60 dni wokół Ziemi i nawet przechodzą przez Afrykę. Inna ciekawa sprawa, nie rozwiązana do tej pory -  dość często ta wiekosklowa oscylacja nie chce przechodzić nad Kontynentem Morskim (Indonezja) gdzie jest dużo wysp ale przecież i dużo oceanu. Widać to dobrze z dzisiejszego diagramu Wheelera-Hendona. Na żółto pokazane są wiązki 15 dniowych prognoz. Wiązki to znaczy kilka prognoz pogody zrobionych z pewnym zaburzeniem warunków początkowych. Wygląda na to, że  chmury nie będą w tym czasie intensywne wokół Kontynentu Morskiego. O tyle jest to wszystko ciekawe, że przewiduje się tutaj zjawisko w skali czasowej 15 dni. Czyli więcej niż typowa prognoza krótkoterminowa.  

A dla mnie jest to wszystko o tyle ważne, że uczestniczymy w eksperymencie na Oceanie Indyjskim i bardzo nam zależy, żeby te chmury jednak były na Wschodnim Oceanie Indyjskim, bo tam mamy statki, radary, i pomiary. A z drugiej strony nie możemy tych wszystkich pomiarów przestawić bardziej za zachód - bo koło Afryki są piraci i nie mamy zgody na pomiary w tej strefie.

Dla ekspertów:

http://cawcr.gov.au/staff/mwheeler/maproom/RMM/

 

 

czwartek, 27 października 2011

Dostałem email od Roberta Janeckiego, że jacht Romana Paszke jest gotowy do rejsu i że Paszke może wypłynie z Lorient pod koniec listopada lub na początku grudnia na rejs dookoła świata. Nawigację będziemy robić z Polski i z USA; ale jeżeli ten blog czyta jakiś dobry synoptyk to proszę do mnie napisać.

Tymczasem bloguję o meteorologii w żeglarstwie solo przez oceany. Pisze na podstawie artykułu jaki dziś skończyłem na Wikipedii. Optymizację trasy przeprowadza się obliczając linie stałego czasu (izochrony) i znajdując minimalny czas.  Wykorzytywane są do tego specjalne programy  - m.in. MaxSea, RayTech, czy Expedition. Programy wykorzystują  globalne modele falowania, dane satelitarne, prognozy pogody. Większość danych cyfrowych używanych w jachtowej nawigacji meteorologicznej przesyłanych jest na jacht w postaci zbiorów w formacie GRIB. Inne czynniki meteorologiczne i oceaniczne istotne w regatach transoceanicznych to temperatura powierzchni oceanu a zwłaszcza różnica temperatury pomiędzy oceanem i atmosferą, które wpływają na strumienie ciepła z oceanu i rozwój lokalnej konwekcji w czasie dnia w tropikach. W obszarach biegunowych istotną rolę odgrywa znajomość położenia lodu dryfującego i lodowców. Nawigator i metorolog mogą przesyłać informację na jacht za pomocą połączenia satelitarnego.

Roman Paszke Gemini III na wdozie

Gemini III na wodzie. Paszke chce opłynąć świat ze wschodu na zachód. Jego strona sieciowa 
http://www.paszke360.com/będzie gotowa za jakieś 2 tygodnie.

 

Poniżej trochę linków dla żeglarzy, którzy chcą opłynąć świat.

Programy do nawigacji (optymalizacja drogi):
http://www.tidetech.org/  Prądy, stan morza
http://www.predictwind.com/ Routing (pierwszy bezpłatny serwis)

Stan oceanu:
http://sst.jpl.nasa.gov/SST/  Temperatura
http://www.scp.byu.edu/current_icebergs.html Lód

piątek, 21 października 2011

Przypuszczam, że ta informacja będzie dyskutowana na wszystkich blogach klimatycznych w Polsce i zastanawiałem się nawet czy ten wpis ma sens. Ale -  grupa Richarda Mullera opublikowała wyniki analizy temperatury Ziemi. Muller napisał  20 pażdziernika 2011 w Wall Street Journal, że:

"Kiedy zaczynaliśmy nasze badania, przeciwnicy badań zmian klimatycznych wysuwali  rozmaite zastrzeżenia,  które wydawały się rozsądne. Zaczęliśmy badania nie wiedząc jakie otrzymamy wyniki. Okazało się jednak, że nasze rezultaty są bliskie do tych jakie zostały już opublikowane przez inne grupy badawcze. Wobec tego wydaje nam się,  że grupy te przeprowadziły bardzo uważną analizę -  mimo, że nie udało im się przekonać o tym krytyków. Grupy te nie popełniły systematycznych błędów w wyborze danych, ujednorodnieniu danych, i przy wprowadzaniu innego rodzaju poprawek.  Globalne ocieplenie zachodzi. Być może nasze rezultaty pomogą ostudzić tę część debaty na temat klimatu."

Richard Muller należał do sceptyków poprawności badań przeprowadzonych przez grupy w NASA GISS (Hansen),  HadCru (w Anglii), oraz Narodowego Ośrodka Meteorologii i Ocanografii USA oraz rekonstrukcji temperatury przeprowadzonych przez Michaela Manna.  Przeciw tym ośrodkom toczyły się niedawno nagonki personalne. W Polsce prym w tym  wiódł m.in. Łukasz Turski i Zbigniew Jaworowski. 

Niewąpliwie jest to dla fizyków atmosfery i badaczy zmian klimatycznych dzień, w którym moga powiedzieć "a nie mówiliśmy".  

Mimo to zastanawiam się do jakiego stopnia powinniśmy tryumfować. Otóż grupa Mullera, złożona z 10 osób przeprowadziła analizę w stosunkowo szybkim czasie (1-2 lata). Wygląda na to, że wyniki są dobrze opracowane (chociaż 4 artykuły jakie ta grupa wysłała do publikacji w JGR nie są jeszcze zrecenzowane).  Napisałem wczoraj do Judith Curry, jednej z autorek raportu Mullera, która odpisała, źe wyniki Mullera są lepiej opracowane niż te dostępne do tej pory i były tańsze (grupa ta dostała około $500,000 na badania). Do jakiego stopnia jest to wynikiem stopniowego postępu budowania na tym co już zostało zrobione, a do jakiego stopnia wynikiem jakościowej zmiany w analizie danych, pozostaje dla mnie sprawą do wyjaśnienia.

środa, 19 października 2011

 W ostatnim numerze czasopisma dla ogółu fizyków „Physics Today” jest artykuł na temat problemów sposobu wypowiedzi naukowców na temat badań klimatycznych. Artykuł napisał Richard Somerville, który jest profesorem w Instytucie Oceanografii im. Scripps i był członkiem IPCC. Oczywiście ten artykuł jest reakcją na „climategate”, rozmawiałem o tym z Somervillem wielokrotnie i kibicowałem jego potyczkom w tym czasie, a właściwie i teraz.  Dokładniej - chodzi o to, że naukowcy są mało przgotowani do dyskusji na temat zmian klimatycznych. Na właśnie – dlaczego?

 

1. Naukowcy nie potrafią formułowac prostych tez i powtarzać ich w nieskończoność. Za często gubią się w niepotrzebnych szczegółach. Mówią swoim nieprzystępnym i zamkniętym żargonem naukowym. Powinni starannie dobierać słowa (patrz tabela). Wiele ze sformułowań świetnie zrozumiałych dla badaczy klimatu jest nieprawidłowo odbierana przez osobę bez wykształcenia naukowego. Np zamiast „antropogeniczna” zmiana klimatu, lepiej powiedzieć „zmiana klimatu wywoływana przez człowieka”.  Naukowcy nie powinni zakładać, że przeciętna osoba jest w stanie przeprowadzic nawet nieskomplikowane oszacowania samodzielnie.

2. Naukowcy nie umieją opisać odkryć naukowych w kontekście innych zjawisk. Większość wypowiedzi naukowych koncentruje się na ostatnich badaniach. Jest istotne, żeby powtarzać znane naukowo fakty, które mimo to większość osób uważa za pewnego rodzaju tajemnicę. Innym potocznym błędem jest rozpoczynanie dyskusji od tego czego nie wiemy a nie od tego co wiadomo. Np, często badacze zmian klimatu są pytani czy jakieś  katastrofalne zjawisko atmosferyczne, powiedzmy powódź, jest związane za zmianą klimatu. Zamiast odpowiedzi – „nie wiadomo”, lepiej jest powiedzieć, że badania naukowe pokazują, że przy większej temperaturze powietrza,  w atmosferze może być więcej pary wodnej, co może być przyczyną większych opadów.

3. Typowym błędem jest nieużywanie przenośni oraz analogii. Dla przykładu – opisując, że w 2005 roku stopiło się 220 km3 lodowców, warto dodać, że Los Angeles zużywa rocznie mniej niż 1 km3 wody.

4. Nie reagując na różnorodne braki w zrozumieniu zjawisk naukowcy sami wzmacniają nieporozumienia. Dobrym przykładem jest zmiana ilości ozonu w atmosferze przy zmianach klimatycznych.  Naukowcy nie powinni mówić o wpływie aerozolu na ozon w atmosferze. Dla większości ludzi aerozol jest w puszkach w „spreju” do włosów, a używanie związków chemicznych odpowiedzialnych za zmianę ozonu już dawno zostało wyeliminowane jako składnik w tych puszkach.

5. Jest wiele innych lingwistycznych problemów. Dla przykładu na pytanie „czy wierzysz w zmiany klimatyczne” nie należy odpowiadać „tak”. Lepszą odpowiedzią jest podkreślenie, że nie jest to kwestia wiary lecz faktów. Nawet użycie słowa „konsensus” powoduje, że część ludzi uważa, że zmiany klimatyczne to tylko opinia. Stwierdzenie, że aktywność ludzi jest „przyczynkiem” do zmian klimatycznych jest w istocie mylące – bo jest to główny efekt.

6. Kiedy naukowcy twierdzą, że ocieplenie jest „nieuniknione” daje to możliwość interpretacji „że nic się nie da zrobić”. Oczywiście nie o to chodzi i badacze powinni starannie wyjaśniać, że społeczeństwa mają możliwość wyboru.

7. Naukowcy mają tendencję do używania sfomułowań „możliwe” -  „coś jest możliwe”, „bardzo możliwe” w sytuacji kiedy chcą w przybliżeniu ocenić prawdopodobieństwo jakiegoś zjawiska. Powoduje to jednak wrażenie, że mało wiedzą na temat tego co mówią.

8. W swoich wypowiedziach jako naukowiec staraj się mówich o sprawach ważnych dla ludzi. Opisuj to co się może lokalnie zdarzyć, a nie o sprawach wielkiego świata. Łącz fakty pomiędzy zmianami klimatu i działalnością ludzi. Powtarzaj to co uważasz za słuszne i staraj się mówić w sposób zrozumiały i łatwy do zapamiętania. Używaj przenośni i metafor. Innymi słowy „wypowiadaj swoją prawdę jasno i spokojnie”.

 

 

Terminy naukowe, które mają różne znaczenie dla naukowca i dla ogólnej publiczności

Termin naukowy

Znaczenie potoczne

Lepsze określenie

Aerozol

Puszka ze sprejem

Małe cząstki zawieszone w powietrzu

Dodatnia zmiana

Dobra zmiana

Wzrost

Pozytywna odpowiedź

Dobra odpowiedź

Cykl, który się sam wzmacnia

Teoria

Spekulacja

Naukowe zrozumienie tematu

Niepewność

Ignorancja

Rozrzut wyników

Błąd

Błąd, źle, nieprawidłowo

Różnica w stosunku do prawdziwej wielkości

Błąd systematyczny

Źle, nieprawidłowo

Odchylenie od obserwacji

Znak

Wskazówka, znak astrologiczny

Znak plus lub minus

Wartość

Wartość etyczna

Liczba, ilość

Przekształcenie

Zmiana

Naukowe przetwarzanie danych

Schemat

Oszukiwanie

Systematyczny plan

Anomalia

Coś dziwnego

Odchylenie od długoterminowej średniej

 

Physics Today, Communicating the science of climate change, Richard C. J. Somerville i Susan Jay Hassol, 64, 48-53, 2011 (październik).

wtorek, 11 października 2011

Stany Zjednoczone od Kanady aż do Zatoki Meksykańskiej są pochylone w stronę oceanu. W czasie zimy i wczesną wiosną zimne powietrze z Kanady stacza się po tej pochyłości w dół tak jak płynie woda po zboczu (fachowo mówimy o tym prąd grawitacyjny). To ciężkie i zimne powietrze dostaje się nad Zatokę Meksykańską i nadal płynie nad oceanem, wdziera się pomiędzy Meksykiem a Gwatemalą nad ląd i przedostaje się pomiędzy górami Sierra Madre i wypływa już nad Oceanem Spokojnym nad Zatoką Tehuantepec. Nad Zatoką Meksykańską tworzą się fantastyczne chmury - długie ścieżki chmurowe związane z zimnym powietrzem przepływającym nad ciepłym oceanem. 

Wiatry te są przykładem wiatrów przełęczowych. W Europie w Cieśninie Gibraltarskiej występują podobne wiatry.

 

 

 skaterometr

Wiatr przełęczowy pomiędzy Atlantykiem i Oceanem Spokojnym.

 

Ocenę prędkości wiatru z pomiarów satelitarnych można uzyskać ze skaterometrów. Skaterometry ("rozpraszacze") mikrofalowe działają na zasadzie aktywnego radaru, wysyłają w kierunku oceanu fale mikrofalowe i odbierają ich odbicie od powierzchni oceanu.  Fizyczny mechanizm jest podobny do badania odblasku słońca na wodzie. Jeden ze skaterometrów przyczynił się do upadku szefa Narodowego Centrum Huraganów w USA.  Szef ten powiedział w publicznym wywiadzie, że utrata skaterometru QuickScat spowoduje, że prognoza huraganów będzie gorsza o 16%.  Spowodowało to awanturę polityczną. W końcu 23 pracowników centrum wywaliło swojego dyrektora. „My, niżej podpisani pracownicy Narodowego Centrum Huraganów, uważamy, że Centrum potrzebuje nowego dyrektora”.

sobota, 08 października 2011

Odblask słonca na wodzie składa się olbrzymiej ilości rozbłysków słońca na wodzie.  Ponieważ odblask słońca od oceanu jest najsilniejszym naturalnym źródłem światła na Ziemi to warto się zastanowić jak taki odblask powstaje.

 

Zakrzywiony odblask słońca na wodzie

Wyobrażmy sobie, że powierzchnia oceanu pokryta jest wieloma milionami (a może i więcej) bardzo małych lusterek o wielkości od 1mm aż do około 1m. Te lusterka mogą być umieszczone pod pewnym kątem od płaskiej powierzchni oceanu, a to jakie są te odchylenia od poziomu zależy głównie od prędkości wiatru. Od tych lusterek odbija się słońce i każde z tych lusterek jest teraz małym słońcem. Kiedy patrzymy na powierzchnię wody zmarszczoną przez wiatr,  to widzimy słońce dochodzące od lusterek o różnych nachyleniach. Intensywność dochodzącego światła zależy od tego ile jest lusterek i jak te lusterka są nachylone i przekręcone – lusterko może mieć to samo nachylenie od płaskiej powierzchni, ale „zajączek” może być puszczany w innym kierunku. Mówimy fachowo, że lusterka mają pewne prawdopodobieństwo rozkładu nachylenia i kąta azymutalnego. A właściwie fachowo nie mówimy o lusterkach tylko o falach kapilarnych i krótkich falach grawitacyjnych (uwaga – fizycy z jakiegoś powodu uważają, że fale grawitacyjne muszą mieć coś wspólnego z teorią względności, ale tu nie o te fale chodzi).   Fale kapilarne to  zmarszczki na powierzchni wody - bardzo małe odchylenia od płaskiej powierzchni wody. Fale te pojawiają się przy najmniejszym wietrze, ale występują nawet przy wiatrach huraganowych. Fale kapilarne mogą powstawać przy zderzeniu kropli wody z jej powierzchnią i przez kilka innych mechanizmów. To właśnie te krótkie fale są lusterkami odpowiedzialnymi za odblask światła. Dlaczego odblask światła czasami się zwęża, a czasami rozszerza?  Może tak być jeżeli lusterka mają w różnych obszarach wody różny rozkład. Dla przykładu, jeżeli rozlać na wodzie olej,  to powoduje to zmianę rozkładu lusterek – żeglarze wiedzą, że olej rozlany wokół jachtu uśmierza fale. Odblask słońca na wodzie zazwyczaj jest w jednym kierunku, ale jeżeli nastąpiła pewna asymetria w rozkładzie lusterek, to odblask słońca może się skręcić.   Taka asymetria rozkładu może nastąpić jeżeli krótkie fale zaczynają oddziaływać z długimi. Np jeżeli na jeziorze przepływała motorówka, to długie fale przez nią wywołane mogą zmodyfikować rozkład lusterek w sposób asymetryczny. Inną możliwością jest kierunek wiatru: rozkład lusterek jest inny od strony nawietrznej (skąd wieje wiatr) niż od strony zawietrznej i jeżeli kierunek wiatru jest prostopadły do kierunku pomiędzy obserwatorem i słońcem to może nastąpić zakrzywienie odblasku. Wspomniałem już, że prędkość wiatru określa rozkład odchylenia od poziomu. Te odchylenia mogą dochodzić do około 30 stopni. Skoro tak, to z odblasku słońca na wodzie można określić prędkość wiatru. Podobny efekt, jest wykorzystywany w pomiarach prędkości wiatru z satelitów. Natomiast nie bardzo można określić wielkość lusterek za pomocą obserwacji słonca na wodzie. Innymi słowy fale o wielkości 1mm, 1cm, 1m będą dawać identyczne efekty.

 

Rozbłysk światła

Okazuje się też, że lusterka nie są na wodzie rozmieszczone przypadkowo. Dlatego odblask słońca składa się z milionów uporządkowanych rozbłysków słońca. To tak jakby lusterka układały się w pętle na wodzie i specjalnie ustawiały nachylenie i kierunek tak, żeby dawać jednocześnie sygnał w tym samym czasie. Te pętle mają bardzo ciekawe własności. Nagle sie pojawiają i znikają.

Pomiary odblasku słońca metodą obserwacji nachyleń zaczęto w roku 1822 w Morzu Tyrreńskim, ale najsłynniejszą metodą są zdjęcia zrobione przez Coxa i Munka i opublikowane w 1954 roku.  Cox i Munk wymyślili, że rozkłady nachyleń można wyznaczyć za pomocą oceny różnych części jasności zdjęcia fotograficznego odblasku słońca.  Specjalnie robili zdjęcie tak, żeby nie było ostre („rozmyte”).  W tym celu robili zdjęcia za pomocą aparatu fotograficznego bez obiektywu. Analizując jasność zdjęć robionych z samolotu przy różnych prędkościach wiatru dostali rozkłady nachyleń lusterek na wodzie. Tę samą procedurę powtórzono niedawno za pomocą analizy kilku milionów zdjęć satelitarnych (instrument POLDER) i wyniki okazały się być podobne.  Odblask słońca ma wiele ciekawych zastosowań. Np obserwując oblask słońca z satelity można wyznaczyć zanieczyszczenia atmosferyczne w atmosferze. Ale to już temat na inną bajkę.

Dla expertów: 

Rozróżnienie pomiędzy odblaskiem słońca na wodzie i rozbłyskiem słońca na wodzie zostało zaproponowane kilka dni temu przez Davida Lyncha w artykule z 1 października 2011 – „Glitter and glints on water”, David K. Lynch, David S. P. Dearborn, and James A. Lock, Applied Optics, vol. 50, F39-F49.  Teoria rozbłysków słońca jest interesująca i opiera się na procesach tworzenia oraz anihilacji. Źródłem odblasku mogą być teź inne obiekty (Księżyc, Wenus) ale i chmury. Analogia z lusterkami zakłada odbicie Fresnela od powierzchni.

piątek, 07 października 2011

W fizyce atmosfery i oceanu istnieją analogie. Jeną z nich jest warstwa dobrze wymieszana w ocanie i atmosferze. Procesy są podobne.

 Tort Czeski

Mechaniczne mieszanie

 

Zastanówmy się kiedy ocean się miesza? Po pierwsze miesza się bo wieje wiatr. Jest to mieszanie mechaniczne powodowane tym, że woda na różnych głębokościach ma różną prędkość horyzontalną. Gdyby włożyć wiatraczek pomiędzy warstwy o różnej prędkości oceanu to ten wiatraczek zacząłby się obracać. Ale, uwaga, uwaga, mieszanie niekoniecznie zachodzi na górze oceanu mimo, że tam wiatr oddziaływuje bezpośrednio z powierzchnią wody. Mieszanie związane z wiatrem następuje też kilkadziesiąt metrów poniżej powierzchni oceanu na granicy warstwy z zimniejszą wodą poniżej, patrz filoletowe strzałki na rysunku. Apropos, kiedykolwiek w oceanografi jest jakaś zmiana stratyfikacji to mówimy o tym „klin” – jest więc termoklina, piknoklina, haloklina, fotoklina.  To mechaniczne mieszanie transportuje zimną wodę do góry oceanu i cieplejszą wodę z powierzchni oceanu. W oceanie są też chmury, a właściwie procesy podobne do burz. W czasie nocy woda się oziębia co powoduje, że jest gęstsza. W związku z tym zaczyna opadać w głąb oceanu. Te prądy zstępujące w oceanie są podobne do prądów wstępujących w atmosferze związanych z chmurami burzowymi. Mówimy wtedy, że w oceanie jest konwekcja – burza. Konwekcja przyczynia się także do procesów mieszania.  Para wodna jest ważnym składnikiem w  powietrzu. Istnieje w wodzie analogiczny składnik do pary wodnej – zasolenie. Zasolenie wpływa na gęstość wody, podobnie jak para wodna wpływa na gęstość powietrza. Dlatego zasolenie oddziaływuje na konwekcję wody w oceanie. Tworzą się nawet „kliny” zasolenia – haloklina, które mogą być różne od stratyfikacji temperatury w oceanie. Te kliny powodują powstawanie warstw ograniczających konwekcję w oceanie, trochę tak jak warstwy suchego powietrza w atmosferze ograniczają powstawanie chmur. Sól, podobnie jak para wodna może nawet kondensować i przyczynia się do ogólnej cyrkulacji oceanu - ale to na inny odcinek bloga.  Procesy mieszania – zarówno konwekcja jak i mieszanie mechaniczne powodują, że w oceanie tworzy się warstwa dobrze wymieszana przy powierzchni. Identycznie jest w atmosferze gdzie mieszanie mechaniczne i konwekcja mieszają dolne warstwy atmosfery. Istnieją jednak mechanizmy stabilizujace ocean. Jednym z nich jest promieniowanie słoneczne. Otóż promieniowanie słoneczne podgrzewa wodę w czasie dnia a cieplejsza woda, mniej gęstsza, nie chce opadać w głąb oceanu - Archimedes. W dodatku promieniowanie słoneczne jest w stanie przeniknąć w głąb oceanu, penetrujac powierzchnie oceanu (promieniowanie w podczerwieni nie jest w stanie tego zrobić i jest pochłaniane w pierwszym milimetrze wody).  W ten sposób tworzy się warstwa 2-5 metrowa, która jest stabilna, no chyba że wieje wiatr, który stara się tą stabilną warstwę zniszczyć. Podobnie jest, ale w nocy, w atmosferze, kiedy tworzy się stabilna warstwa tuż przy powierzchni Ziemi.

 

  mixed layer schematics ocean

(źródło: http://www.lodyc.jussieu.fr/~cdblod/mld.html)

 

 

 

piątek, 30 września 2011

Niby nic skomplikowanego – a jednak. Zastanówmy się co widać na rysunku poniżej. Górny rysunek to ilość pary wodnej w powietrzu w gramach pary wodnej na kilogram powietrza. Kilogram powietrza przy powierzchni Ziemi to około 1 metr sześcienny. Natomiast dolny rysunek pokazuje wilgotność powietrza w procentach. 100% odpowiada powietrzu, które jest całkowicie nasycone parą wodną, a 0% odpowiada powietrzu, które jest suche. Na osi poziomej jest szerokość geograficzna, a na osi pionowej jest ciśnienie. Na powierzchni Ziemi ciśnienie jest 1000 hPa (hekto Pascal) a  wysoko w atmosferze  ciśnienie jest na tym rysunku 100 hPa. Szerokość geograficzna 0 to jest równik. Szerokości około tropikalne są poniżej 30 stopni w stronę równika. Dodatnie szerokości to półkula północna, gdzie leży Polska.   

 

 q oraz RH

 

Na pierwszy rzut oka widać, że rozkład ilości pary wodnej i wilgotności są bardzo różne od siebie. Rozkład ilości pary wodnej jest dość intuicyjny. W  cieplejszym klimacie  ilość pary wodnej jaką powietrze może utrzymać bez skraplania jest większa i może dochodzić nawet do kilkunastu gramów na metr sześcienny. Widać, że na równiku jest więcej pary wodnej nie tylko przy Ziemi ale w całej kolumnie powietrza od Ziemi do górnej warstwy.  Okazuje się też, że ilość pary wodnej zmienia się znacznie z wysokoścą. Mniej więcej o połowę co jeden kilometr. Np jeżeli na powierzchni Ziemi jest 20 gramów  to na wysokości 1 kilometra nad Ziemią jest  10 gramów na kilogram, na 2 kilometrach jest 5 gramów na kilogram,  itd. Ten spadek ilości pary wodnej z wysokością powoduje, że większość pary wodnej jest w dolnej atmosferze – proszę zwrócić uwagę, że skala po lewej stronie jest logarytmiczna a nie liniowa! Podobną zależność od temperatury widać też pomiędzy obszarami polarnymi (szerokość geograficzna około 90) a równikiem. Ilość pary wodnej w atmosferze maleje drastycznie w obszarach polarnych.  Tak, że większość pary wodnej jaka przyczynia się do opadów w umiarkowanych szerokościach geograficznych (np w Polsce) pochodzi z obszarów około tropikalnych.   Okazuje się też, że ta olbrzymia ilość pary wodnej  w obszarach równikowych powoduje, że para wodna przy powierzchni Ziemi działa wprawdzie jako gaz cieplarniany, ale nie ma większego wpływu podczas zmian klimatycznych.  Jest tak, ponieważ w podczerwieni para wodna zachowuje się na dużym obszarze Ziemi prawie jak  chmura położona blisko powierzchni. Dodanie większej ilości pary wodnej i tak by już nic nie zmieniło. Dlatego para wodna jest istotna klimatycznie głównie tam gdzie jest jej mało.

Dolny rysunek jest jeszcze bardziej intrygujący. Porównująć oba rysunki, górny i dolny widzimy,  że ilość pary wodnej nie ma bezpośredniego wpływu na wilgotność powietrza. Transport pary wodnej z oceanu zależy od prędkości wiatru – czym szybciej wieje tym więcej pary wodnej przedostaje się z wody do powietrza,  i od  wilgotności powietrza blisko nad oceanem. Jeżeli wilgotność jest bliska nasyceniu pary wodnej w powietrzu to tyle samo pary skrapla się co paruje i transport z oceanu jest mały. Intrygujące jest to, że na całej prawie kuli ziemskiej przy powierzchni Ziemi wilgotnośc jest około 80% - kolor niebieski.  Wiemy, że wilgotność przy samej powierzchni Ziemi nie może być 100% bo wtedy nie byłoby transportu pary wodnej do górnych warstw atmosfery.  Natomiast bardzo sucha atmosfera przy powierzchni Ziemi powodowałaby olbrzymi transport pary wodnej.  Większośc modeli klimatycznych przewiduje, ze nawet podczas zmian klimatycznych te 80%  nie zmieni się. Jest to ciekawe i zaskakujące, ponieważ wilgotność w atmosferze nie jest regulowana przez samą temperaturę, ale także przez to jak wieją wiatry. Popatrzmy się teraz na wąski obszar około -10 na Półkuli Południowej szerokości geograficznej  - bo to jest rysunek z grudnia-lutego. W tym obszarze od powierzchni Ziemi do górnych warstw wilgotność jest dośc stała - około 60%  (kolor zielony). Jest to stosunkowo wąski obszar strefy konwergencji powietrza (ITCZ), gdzie  tworzą się wysokie deszczowe i burzowe chmury. Dlaczego w tym obszarze wilgotność jest w całej kolumnie powietrza wysoka?  Nie jest to takie oczywiste -przecież deszcz to jest skondensowana para wodna a skoro w tym obszarze pada dużo deszczu, to wilgotnośc powinna być być może mała a nie duża?  Wytłumaczenie nie jest proste. W pewnym przybliżeniu dzieje się tak, bo chmury deszczowe powstają tylko tam gdzie powietrze jest wilgotne (dokładniejsze wytłumaczenie na inny oddcinek). Innym intrygującym obszarem jest  podwyższona wilgotność w górnych warstwach  atmosfery blisko równika  - niebieski kolor na 200hPa pomiędzy  szerokością -15 półkuli południowej i 15 półkuli północnej. Ten obszar jest związany z prądami wstępującymi w chmurach  burzowych i unoszeniem kropel wody i kryształów lodu, które następnie parują w górnych warstwach atmosfery podwyższając jej wilgotność. Natomiast dwa czerwone „migdały” bardzo suchego powietrza (pomiędzy 20-40%) związane są z osiadaniem powietrza w obszarach około tropikalnych.  Para wodna jest transportowana z tropików do obszarów około tropikalnych ale dzieje się to jakby w olbrzymiej pralce (komórce Hadleya), gdzie przy jednej ściance powietrze się unosi, a przy drugiej opada.

Dla ekspertów:


Rysunek jest z niedawnego artykułu przeglądowego: Sherwood, S. C., R. Roca, T. M. Weckwerth, and N. G. Andronova (2010), Tropospheric water vapor, convection, and climate, Rev. Geophys., 48, RG2001, doi:10.1029/2009RG000301.

poniedziałek, 26 września 2011

Ostatnio używałem kodu radiacyjnego opisującego równanie transferu w atmosferze, stąd ten odcinek. W chmurach, atmosferze, pyle międzyplanetarnym, oceanie,  stale przeciekają fotony (cząstki światła)  jedne do góry a drugie do dołu. Część z tych fotonów jest tworzona na górze warstwy  -  dla przykładu Słońce, część jest tworzona na dole warstwy – dla przykładu wypromieniwanie  z powierzchni Ziemi. Część z tych fotonów rozprasza się, cześć jest pochłaniana, część jest reemitowana.

Wszystko to można opisać jednym z najbardziej eleganckich i prostych do zrozumienia przybliżeń – tzw. przybliżeniem dwustrumieniowym.  W tym przybliżeniu, rozważamy tylko dwa strumienie – do dołu i do góry atmosfery.  Definiujemy  tylko odbicie od chmury  i jej  pochłanianie (no, dla ekspertów dodam, że mogą byc też człony źródłowe wewnątrz warstwy).  Równanie transferu promieniowania, to „przeciekanie fotonów”,  jest zdefiniowane przez dwie wielkości. Jest tutaj pewien kruczek. W przybliżeniu dwustrumieniowym wiemy ile fotonów dochodzi do górnej warstwy chmury, ale nie wiemy ile z niej płynie  fotonów do góry. Podobnie jest na dole chmury, czasami wiemy ile fotonów dochodzi do podstawy chmury, ale nie wiemy ile z nich płynie w dół.  W matematyce takie problemy nazywają się dwupunktowymi warunkami granicznymi. Fizycznie chodzi o to, że wewnątrz chmury zachodzi zjawisko (wielokrotnego) rozpraszania na kroplach wody i strumień do dołu "miesza się" ze strumieniem do góry - i odwrotnie. 

Przykład przybliżenia dwustrumieniowego jest często reprodukowany w diagramie bilansu energetycznego atmosfery. W rzeczywistości atmosfera nie jest jednorodna i rozdziela się ją na kilka warstw. W każdej z tych warstw stosuje się przybliżenie dwustrumieniowe, a rezultaty dodaje się. Dzięki temu można policzyć w jakim miejscu chmury następuje jej podgrzewanie a w jakim miejscu oziębianie.

Dla ekspertów:

Przybliżenie dwustrumieniowe jest podstawą większości programów do wymiany promieniowania wykorzystywanych w modelach klimatu. Obecnie dominującym modelem promieniowania jest kod RRTM opracowany w AER i dostepny bezpłatnie na stronie sieciowej
http://rtweb.aer.com/rrtm_frame.html

Rozdział w książce Bohrena ma dobre wprowadzenie do przybliżenia dwustrumieniowego  (Craig F. Bohren, Eugene Edmund Clothiaux, Fundamentals of atmospheric radiation: an introduction with 400 problems,  Wiley 2006).

"Kiedy pytali  mnie w czasie pisania książki jaki temat odciąga mnie od przyjemności normalnego życia, odpowiadałem, że o tym, jak małe cząstki pochłaniaja i rozpraszają światło. O mój Boże,  brzmiała częsta odpowiedź, kogo to może interesować?" Tak napisał na początku swojej książki Craig Bohren (Craig jest/był meteorologiem z Uniwersytetu Stanowego w Pensylwanii).

W 1986 roku Craig  prowadził wykłady w Boulder, Kolorado, gdzie wspomniał en passant o tym, że z punktu widzenia rozpraszania światła można każdą cząstkę podzielić na mniejsze i traktować te mniejsze części jako mające jednorodne własności optyczne. Rysunek ilustrujący ten koncept był taki – młotek, cząstka, ktoś w nią wali i robią się mniejsze. 

podział większej cząstki na wiele małych

Cząstka (sześcian, złożona z dużej ilości dipoli)

Rozpraszanie światła na małych cząstkach ma nieprawdopodobną liczbę zastosowań. Chmury rozpraszają światło, tęcza jest przykładem rozpraszania, zmiany klimatu są związane ze zjawiskami pochłaniania i rozpraszania światła.  Fitoplankton, też "cząstka",  w wodzie rośnie bo pochłania światło – i dzięki tej „produkcji pierwotnej biomasy” mamy ryby,   radar jest przykładem rozpraszania - do tyłu i dzięki temu wiemy gdzie lecą samoloty,  nano technologie związane są rozpraszaniem światła,  a dzięki cytometri  przepływowej  opartej na rozpraszaniu światła, można zliczyć krwinki. No i tak dalej.

Gdzieś koło 1990 roku wraz z Brucem Drainem,  astrofizykiem z Princeton, zaczęliśmy pisać kod na rozpraszanie światła na niesferycznych cząstkach oparty na pomyśle walenia młotkiem w cząstki – piszę w przenośni.  Niesferycznych cząstek jest w atmosferze dużo – np kryształy lodu.   Artykuł jaki potem napisaliśmy na ten temat jest teraz jednym z najczęściej cytowanych artykułów dotyczących rozpraszania. Kod jest dostępny na google code

http://code.google.com/p/ddscat/

Dla ekspertów


Przybliżenie dyskretnych dipoli jest jedną z kilku obecnie technik do rozwiązania numerycznego równań Maxwella na niesferycznych cząstkach. Inne techniki, patrz 

http://code.google.com/p/scatterlib/

piątek, 23 września 2011

Niedawno umarł Masao Kanamitsu, jeden z autorów najbardziej cytowanego artykułu (około 8000 razy)  kiedykolwiek napisanego przez fizyka atmosfery. Był  z pochodzenia Japończykiem. Urodził się w Kumamoto  6 listopada  1943 i mieszkał w młodości w Saporo. Magisterium zrobił  w Uniwersytecie Hokkaido a doktorat w Stanowym Uniwersytecie Florydy w 1975.  Kana pracował nad reanalizą danych meteorologicznych – innymi słowy stworzeniem wiarygodnej bazy danych o temperaturze, ciśnieniu, wietrze na całej kuli ziemskiej.  Taka reanaliza danych polega na  połączeniu danych z modelem prognozy pogody. Sytuacja jest nieprawdopodobnie skomplikowana, bo dane meteorologiczne są z rozmaitych źródeł – bezpośrednich pomiarów, pomiarów satelitarnych, samolotów.  Jakość tych pomiarów i ich ilość zmieniała się w różnych dziesięcioleciach tak, ze stworzenie w miarę jednolitego zbioru danych jest niezwykle skomplikowanym procesem.   Artykuł Kanamitsu pozwolił po raz pierwszy analizować zmiany klimatyczne, niezależnie od sposobu zbierania danych.

Wszyscy, którzy go znali mówili o nim po prostu Kana. Przez ostatnie lata pracował w Uniwersytecie Kalifornijskim.  Kiedy kilka lat temu prowadziłem zajęcia z meteorologii synoptycznej  Kana dał wykład  o asymilacji danych meteorologicznych. Na początku wykładu mówił o historii meteorologii dynamicznej  - to dziedzina meteorologii zajmująca się  wielkoskalowym przepływem powietrza - i opowiedział o wybitnych fizykach japońskich, którzy po wojnie tworzyli podstawy numerycznych prognoz pogody: Syukuro Manabe (twórca pierwszego modelu zmian klimatu), Taroh Matsuno (twórca teorii fal w atmosferze tropikalnej), Kikuro Miyakoda czy Akio Arakawa (profesor meteorologii w UCLA znany ze schmematów numerycznych oraz parametryzacji konwekcji w modelach numerycznych).  Ostatnio Kana pracował nad dekadalnymi zmianami klimat i  lokalnym modelowaniem zmian klimatu. Do tego wykorzystuje się wyniki modeli klimatycznych, ale uwzględnia się też lokalną topografię terenu i inne procesy ważne na skali kilkunastu kilometrów.

czwartek, 22 września 2011

Firma iRobot produkuje bardzo sprytne odkurzacze, które same się uczą gdzie wędrować po pokoju, same odkurzają, a potem parkują i same się ładują. Firmę założyło kilku facetów z MIT

http://pl.wikipedia.org/wiki/Roomba

Ta sama firma sprzedaje też szybowiec wodny iRobot SeaGlider, który jest wykorzystywany do pomiarów oceanu (temperatury, zasolenia,  ilości chlorofilu).  Szybowiec płynie do góry i do dołu i robi pomiary. Ponieważ może wypłynąć blisko powierzchni oceanu może zmierzyć jak temperatura oceanu zmienia się w czasie dnia. Te dobowe przebiegi temperatury są ważne dla powstawania konwekcji (głębokich chmur) nad oceanem. Do tej pory w globalnych modelach prognoz pogody najczęściej zakładano, że temperatura oceanu jest stała w czasie dnia.  Dwa tygodnie temu zaczął się program pomiarowy na Oceanie Indyjskim, którego zadaniem jest m.in. zbadanie amplitudy dobowych zmian temperatury w oceanie.  

iRobot seaglider

Mój student z Instytutu Geofizyki UW napisał mi dziś email, w którym opisuje pomiary z amerykańskiego statku należącego do Instytutu Oceanografii im. Scripps (R/V Revelle). Ten email jest ciekawy bo pokazuje naukę "w praniu". Przepisuje go tutaj prawie w całości z pewnymi spolszczeniami. 

"Właśnie puściliśmy ostatni sondaż. Za 1.5 godziny przekraczamy linie indyjskiej strefy ekonomicznej w związku z czym wyłączamy wszystkie pomiary na statku (nie można robić pomiarów nukowych z amerykańskich statków w tej strefie i nie można publikować rezultatów badań z tego obszaru).  Poza tym ścigamy zacumowaną boję  Narodowej Służby Meteorologicznej i Oceanicznej USA (NOAA),  która się zerwała i zamierza się wpakować na jakąś wyspe, a Służba by tego bardzo nie chciała. Szybowiec jest w wodzie. Bylo to trochę jak z Monthy Pythona - kapitan statku zrobił nam alarm przeciwpożarowy w trakcie wsadzania szybowca do wody, potem wyłączyli nam internet bo ludzie z NASA chcieli sobie pójść do radaru na statku, a nam internet był potrzebny do komunikacji z szybowcem, ale udało się umieścic go w wodzie bez przykrych niespodzianek. Potem bylo troche gorzej bo okazalo sie że iRobot nie zna się ani na odkurzaczach ani na szybowcach. Żle wycechowany, rozregulowany a wszelkie pytania o pomoc iRobot kierował do podręcznika,  który choć liczy 600 stron to opisy ma raczej mgliste i często sprzeczne. Tym sposobem cały tydzień zabrało Adrianowi dochodzenie do tego o co w tym tak naprawde chodzi. Pomagałem mu w tym. Patrzyłem na te wszystkie wykresy i już naprawdę nieźle rozumiem jak to dziala, jak tym sterowac i co to może. To niezła wprawka, bo dzieki temu wiem na starcie dużo więcej o danych. Np o tym, że pomiar soli ma histerezę (zależność czasową).  Szybowiec  robi pomiary w sposób ciągly z zadanym przedziałem czasowym (miniumum  5 sekund). W zwiazku z tym robi profil 'do dolu' i 'do góry'. Jak się je porówna to widać,  że zasolenie się różni, tworząc krzywą histerezy. Dzieje się tak dlatego,  że do policzenia zasolenia potrzebna jest znajomość temperatury i ciśnienia w danym punkcie,  które z jakiegos powodu (pewnie czasu potrzebnego na procesowanie danych) brane są z poprzedniego punktu. Tym sposobem zasolenie jest zawsze "opóżnione". To samo tyczy  wszystkich profili zależnych od innych zmiennych (chlorofil i tlen). Naturalnie ta histereza jest mała w stosunku do zmienności samego zasolenia, tym niemniej to widać. Po tygodniu mniej więcej udało się wszystko okiełznąć i jest szansa,  że glider wytrzyma do lutego kiedy ma zostać wyciągnięty. Póki co kolejne nurkowania byly podporzadkowane bardziej walczeniu z ustawieniami niż nauce, tym niemniej kilka ciekawych rzeczy już widac. Po pierwsze rzeczywiscie on mierzy do 1m glebokosci. Widać bardzo dobrze cykl dobowy. Fenomenalne. Ma bardzo dobrą rozdzielczość -  robi pomiar co 5 sekund poniżej 1m w warstwie dobrze wymieszanej oceanu. Po drugie widać zmiany o większej częstości wewnątrz termokliny. Poki co glider robil głownie pomiary do 1000m. Docelowo miał robić dziennie 5-6 nurkowań do 300m i jeden głębszy do 1000m. Nurkowanie do 1000m zajmuje 6 godzin (w tym czasie 2 profile). Może się okazać,  że pomiary do 300m w tym systemie są zbyt częste i baterie tego nie wytrzymają (zżeraja znacznie więcej pradu niż powinny, prawdopodobnie przez zle ustawienia balastu). Zaproponowałem Adrianowi pewną korekcję danych. Póki co struktura tych danych jest dość koszmarna, ale napisalem już skrypty w Matlabie, które to czytają. Darek"

czwartek, 07 października 2010

Niedawno rozpoczęła się wystawa obrazów Monet’a w paryskim Wielkim Pałacu. Prezydent Francji Sarkozy napisał notę do katalogu i wystawa ma niebywałe powodzenie wśród koneserów sztuki.  Monet był impresionistą, który wielokrotnie wracał do tych samych miejsc i malował je za każdym razem nieco inaczej. W oceanografii i meteorologii mówimy o danym miejscu „stacja”. Oceanografowie przez lata wracają do tej samej stacji na oceanie, chociaż jest to tylko pusta przestrzeń wody,  i robią tam pomiary. Mówią wtedy, że stacja jest “obsadzona”.  Najbardziej znane stacje oceanograficzne  są z eksperymentu WOCE (Światowego Eksperymentu Cyrkulacji Oceanograficznej). Statek pomiarów pogody PAPA (145W, 50N) jest legendarny.

Podobnie jak statek PAPA słynne są obrazy Moneta przedstawiające katedrę w  Rouen w róznych blaskach słońca. Artykuł  w New York Times (4 pażdziernik 2010) opisujący wystawę podkreśla, że obrazy Monet’a  nie są tylko „meteorologią” i zawieraja  dużą dozę emocji związanych z przywoływaniem pamięci. Nie przez przypadek, pisze autor recenzji z wystawy, Marcel Proust (twórca „W poszukiwaniu straconego czasu”) był wielbicielem Moneta.  Wystawa w Wielkim Pałacu nie jest zorganizowana chronologicznie ale według stacji. Meteorolog i oceanograf także przywiązuje się do tych samych miejsc i bada je znajdując przyjemność w małych różnicach – mówimy o tych różnicach „anomalie”. Nie ma dwóch zdań - Monet w „Katedrze Rouen”  przedstawia anomalie pogodowe. Podobnie zresztą  jest w „Liliach wodnych” gdzie liście, odbicie chmur, nieskończone przestrzenie przywołują pamięć o straconym czasie i anomaliach pogodowych.

Popatrzmy się  teraz na serię obrazów „Budynek Parlamentu w Londynie”. Wszystkie obrazy zostały stworzone na płótnach o identycznych rozmiarach. W Wikipedii jest napisane, że pierwsze prace Moneta różnią się od tych późniejszych. Rzeka i budynki przedstawione są na nich w sposób bardziej obojętny, pasywny i spokojny. Na pracach z późniejszego okresu można dostrzec ostrzejsze, bardziej agresywne i dynamiczne formy. Część z obrazów posiada dodatkowe zdania w tytule, które precyzują uchwycone warunki atmosferyczne  - "Efekt mgły", "Słońce wschodzące we mgle", czy "Zachód słońca".

http://pl.wikipedia.org/wiki/Budynek_Parlamentu_w_Londynie

 

 

 W 2007 profesor Christos Zerefos i jego współpracownicy przebadali 554 obrazów namalowanych przez 181 malarzy (m.in. Rubensa, Rembrandta, Gainsborougha) pomiędzy latami 1500-1900.  Za pomocą programu komputerowego ocenili proporcję kolorów nieba. Ponieważ małe cząstki w atmosferze rozpraszają światło w zależności od koloru to na tej podstawie można było ocenić czy zachód słońca był związany z wybuchami wulkanów. W swojej pracy profesor Zerefos i jego grupa znaleźli 54 obrazy z „typowo wulkanicznym zachodem słońca”. Praca została opublikowana w   czasopiśmie “Atmospheric Chemistry and Physics” i jest bezpłatnie dostępna

http://www.atmos-chem-phys.net/7/4027/2007/acp-7-4027-2007.html

niedziela, 26 września 2010

Istnieją dwie zwlaczające się grupy myślenia o efekcie szklarniowym. Jedni uważają, że w szklarni jest cieplej dlatego bo promieniowanie słoneczne jest przepuszczane przez szklany dach szklarni natomiast promieniowanie cieplne jest pochłaniane przez szkło. Druga grupa uważa, że efekt cieplarniany nie ma nic wspólnego z promieniowaniem cieplnym lub promieniowaniem słonecznym a szklarnia po prostu osłania rośliny od wiejącego na zewnątrz wiatru, innymi słowy że szklarnia ogranicza konwekcję (wymianę ciepła) z otoczeniem. Awantury z tego powodu przetaczają się w czasopismach fizycznych od  1909 roku. W tym roku R. B. Wood  (Wood pierwszy wprowadził termin efekt cieplarniany) opublikował artykuł, w którym badał dwie szklarnie. Jedna miała dach ze szkła, a druga dach z soli.  Szklarnia z soli (obecnie można użyć folii plastikowej)  przepuszcza zarówno promieniowanie słoneczne jak i promieniowanie cieplne. W  związku z tym nie może w niej wystąpić efekt szklarniowy związany z promieniowaniem słonecznym i cieplnym. A mimo to, w obu szklarniach temperatura była jednakowa.

Czy to oznacza, że nie ma efektu cieplarnianego w szklarniach związanego z efektem radiacyjnym?  Craig Bohren, który napisał uroczą książkę „Chmury w szklance piwa” uważa, że obie strony sporu mają trochę racji.   Czym grubsze i bardziej pochłaniające szkło i słabszy wiatr  tym efekty promieniowania słonecznego i cieplnego są bardziej istotne. Czym cieńsze szkło (lub folia) i silniejszy wiatr tym efekt osłaniania od wiatru jest silniejszy. Nie jest to zaskakujące. W domu podczas wichury jest cieplej nie dlatego, że występuje efekt cieplarniany lecz dlatego, że dom osłania nas od wiatru. Istnieją nawet sytuacje w których temperatura wewnątrz szklarni jest mniejsza niż na zewnątrz. Dzieje się tak kiedy szkarnia osłania powietrze wewnątrz szklarni od mieszania z cieplejszym powietrzem  na zewnątrz. Natomiast wnioskowanie o tym czy zachodzi efekt cieplarniany w atmosferze ziemskiej  na podstawie eksperymentu Wood’a nie jest takie proste. Fakt, że temperatura wewnątrz szklarni w przypadku pochłaniającego szkła w podczerwieni jest podobna do sytuacji gdzie mamy tylko folię plastikową nie oznacza, że nie ma radiacyjnego efektu cieplarnianego.  Dzieje się tak, ponieważ efekt cieplarniany związany z promieniowaniem powoduje, że  różnica temperatury szkła wewnątrz i na zewnątrz szklarni jest duża. Wtedy wymiana ciepła z otoczeniem jest większa. 

Dla tych, którzy nic nie zrozumieli podsumowuję, że mimo prób przeciwników zmian klimatu, fakt że szklarnia osłania rośliny od wiatru, nie oznacza, że atmosferyczny efekt cieplarniany jest lipą. Jeżeli państwo myślicie, że sprawa jest prosta to proszę przeczytać artykuł o efekcie cieplarnianym na polskiej Wikipedii. Na końcu tego artykuł jest opis działania szklarni, który jest częściowo błędny. W dodatku ten artykuł ja sam pisałem, ale fragment o szklarni dodał nauczyciel fizyki z południa Polski i nie miałem się z nim siły awanturować. Dlatego wszyscy uczniowie szkół średnich w Polsce  odrabiający zadania domowe o efekcie cieplarnianym na podstawie Wikipedii, z pewnością robią błędy.

http://pl.wikipedia.org/wiki/Efekt_cieplarniany

PS Tutaj trochę literatury.
Abbot, C. G., Philosophical Magazine, 18, 32-35, 1909, Note on the theory of the greenhouse.
Berry, E. X., Comments on The Greenhouse Effect, Journal of Applied Meteorology, 13, 603-604, 1974.
Hanson, K., The radiative effectivness of plastic films for greenhouses,  Journal of Applied Meteorology, 1963, 2, 793
Silverstein, S. D., Effect of infrared transparency on the heat transfer through windows: a clarification of the greenhouse effect, Science, 193, 229-231, 1976.
Wagoner, P. Lio, C., Tobin, R.G., Climate change in a shoebox: Right result, wrong physics, American Journal of Physics, 78, 536-540, 2010 (dobry artykuł na seminarium studenckie z fizyki atmosfery + fajny eksperyment)
Wood, R. B. Philosophical Magazine, 1909, 17, 319-320, Note on the theory of the greenhouse.
Young, M.,  The greenhouse effect, Phys. Teach. 21, 194–195, 1983.

wtorek, 14 września 2010

Dziś byłem na seminarium o wiązkach, czyli o tym jak zbadać klimat za pomocą wielu modeli. Pokłóciłem się na koniec z  prelegentem bo mnie te wiązki denerwują, ale skoro to przyszłośc to warto je opisać.

Zacznijmy od prognozy pogody. Każdy wie, że prognozy pogody, zwłaszcza w Anglii, Francji, Niemczech, Polsce, Rosji, Kanadzie i innych krajach czasami się nie sprawdzają. Dlatego wiele lat temu Europejskie Centrum Prognoz Średnioterminowych zdecydowało prognozować pogodę za pomocą nie jednego przebiegu modelu, ale za pomocą kilku. Używa przy tym podobnych, ale nie identycznych, warunków początkowych. Na całym świecie w tym samym czasie dokonuje się jednocześnie pomiarów. Te początkowe pomiary się nieco zaburza. Z początku prognoza jest bardzo podobna, ale po kilku dniach jest inna. Tak jak  bukiety, które są związane, z początku wychodzą z jednego miejsca, a na końcu  rozchodzą się (patrz rysunek).  Prognozy pogody oparte na wiązkach dają prognozę statystyczną. Jest w tym pewna myśl przewodnia i ład dlatego bo pomiary są najczęściej obarczone błędem. W metodzie wiązek czasami pada, a czasami nie pada, wtedy prognoza jest w stylu "będzie padał deszcz na 80%, albo będzie świeciło słoneczko na 20%".   Istnieją warianty. Zaburzać można fizykę modelu a nie warunki początkowe. Dla przykładu, możemy zmienić opis tego jak powstają w modelu chmury (fachowo mówimy o „parametryzacji konwekcji”). Ta metoda nazywa się "stochastyczną fizyką". Jest też  "metoda wiązek dla ubogich". W tej metodzie wykorzystuje się prognozę z kilku różnych modeli, których wyniki się uśrednia. Wydaje się to absurdalne, ale najlepsza prognoza rozwoju i propagacji cyklonów tropikalnych jest oparta obecnie na właśnie takim podejściu.

Na czym polegają wiązki w badaniach klimatu? Z początku chodziło o to, żeby sprawdzić wiarygodność scenariuszy klimatycznych. Scenariusze polegają na założeniu różnych wartości koncentracji dwutlenku węgla i przewidywaniu klimatu za pomocą modeli numerycznych liczonych na komputerach. Ponieważ było kilka modeli to zaczęto je porównywać ze sobą i sprawdzać, czy te same scenariusze dają podobne prognozy globalnego ocieplenia. Ale obecnie zaczyna się prognozować klimat specjalnie za pomocą wiązek.  Chodzi o to, żeby jak w prognozie pogody, znaleźć probablistyczną ocenę zmian klimatu. To jest ważne zwłaszcza dla oceny ekstremalnych warunków, dla przykładu ile lat może (statystycznie) potrwać susza.

Na zdjęciu jest wiązka prognoz możliwych torów cyklonu tropikalnego na Pacyfiku z 14 września 2010 (niebieskie krzywe).  Wygląda jak bukiet kwiatów.

 

PS Słowo  "wiązki" nierozłącznie kojarzę ze snopami i podwiązkami a dokładniej z książką profesora Krzysztofa Maurina
http://pl.wikipedia.org/wiki/Krzysztof_Maurin

"Analiza. Cz. II. – Ogólne struktury, funkcje algebraiczne, całkowanie, analiza tensorowa", którą katowani byli fizycy teoretycy z UW na Hożej. O ile pamiętam  w drugiej części "Analizy"  jest rozdział „Snopy, wiązki i podwiązki” lub cos w tym stylu.

PS2. Też o wiązkach:

Bukiety wiejskie, jak wiadomo,
Wiązane były wzwyż i stromo.
W barwach podobne do ołtarza,
Kształt serca miały lub wachlarza...

Ja nie o wiechciach z byle chwastu,
Stawianych na werandzie na stół,
Nie o wiązankach z kwiatów polnych...

Ja o bukietach z kunsztem, ładem,
Z przewodnią myślą i układem.

sobota, 11 września 2010

Ach moda. Jak w życiu tak i w nauce tematy są modne lub nie. W badaniach klimatu i fizyce atmosfery są chmury modne jak i chmury zapomniane. Do chmur retro należą obecnie altocumulusy, altostratusy, oraz  altostratocumulusy.

Natomiast modnymi chmurami są stratocumulusy i cirrusy, wszyscy w nie latają i badają. Chmury bada się latając samolatami z instrumentami, które mierzą ilość wody w chmurach, rodzaj cząstek, np czy są to kryształy lodu czy krople wody i jakiej wielkości są te cząstki (mówimy fachowo hydrometeory).  Ta informacja to mikrofizyka chmur.  Większość z czytelników zna opis makroskopowy chmur.  Innymi słowy, mówimy że chmura jest pierzasta, stratyfikowana lub rozległa, albo że wygląda jak kowadło. Na tym polegała pierwsza klasyfikacja chmur i do tej pory jest używana. Do tej pory mówimy, że chmury są  warstwowe lub, że to „stratus”. Jeżeli chmura wygląda jak wznoszący się balon (baranki na niebie) to jest kumulus; a kombinacja tych chmur to stratocumulus. Wysokie chmury to cirrus, a warstowe wysokie chmury to cirrostratus. Z punktu widzenia klimatu taka klasyfikacja chmur jest bezużyteczna bowiem promienie Słońca i ciepło odchodzące od Ziemi są pochłaniane lub odbijane przez pojedyńcze kryształy lub krople wody a nie przez „pierzastość”.  Dlatego badania chmur koncentrują się teraz na ich mikrofizycznych własnościach oraz na morfologii chmur. Morfologia chmur to opis ich niejednorodności, sposobu w jaki powietrze miesza się w chmurach. Dla przykładu chmury rzadko są naprawdę warstwowe ale składają się z wielu pojedyńczych podwarstw. W nauce naturalną tendencją jest badanie z początku prostych zjawisk. Dolne chmury, powstające od 0-2 kilometrów ponad Ziemią są zazwyczaj złożone z samych kropelek wody. Natomiast chmury wysokie, powyżej 7 kilometrów nad powierzchnią są złożone zazwyczaj tylko z kryształów lodu. Tego typu jednofazowe chmury – albo woda albo lód – są stosunkowe proste do badania. Natomiast  chmury średnich wysokości (mówimy o nich fachowo „alto”),  których dolna warstwa jest pomiędzy 2 do 7 kilometrów mają mieszany skład, występuje w nich zarówno lód jak i krople wody. Dlatego altocumulusy i altostratusy były długo chmurami zapomnianymi, których nikt nie chciał badać.

Na zdjęciach jest panorama nieba, na której widać chmury "alto". Natomiast na następnym zdjęciu jest przekrój przez tę samą chmurę zrobiony lidarem, który jest wrażliwy na mikrofizykę chmur. Na tym zdjęciu widać, że podstawa chmur jest około 5km nad powierzchną Ziemi. Widać też morfologię tych chmur i ich niejednorodności. Ilościowe badania klimatu i fizyki chmur koncentrują się obecnie na zrozumieniu takich detali mikrofizycznych. Te zdjęcia są z eksperymentu na Florydzie i zrobione zostały z mojego lidaru 27 sierpnia 2010 koło Przylądka Canaveral. Na osi pionowej jest wysokość na powierzchnią Ziemi, a na osi poziomej jest pokazany czas. Kolory oznaczaja  intensywność tego jak pojedyńcze cząstki odbijaja światło i można z tych danych wywnioskować wielkość i rodzaj kropli lub kryształów lodu. Niech nikt nie mówi, że nie macie państwo najnowszych wiadomości. Zdjęcia świeże jak ciepłe bułeczki.

 

czwartek, 02 września 2010

To jest odcinek dlla Gospodyń Domowych.  Przez wiele lat ogólną cyrkulację atmosfery badano w obracającej się miednicy. Wystarczy postawić miednicę na obracającym się stole, podgrzać obramowanie i oziębić środek a wytworzą się dziwaczne fale, które nazywa się falami Rossbiego a przypominają fale jakie tworzą się w atmosferze.  Jeżeli stół obraca się wolno to w miednicy nie będzie żadnych fal tylko przepływ od obramowania do środka (cyrkulacja Hadleya). Natomiast jeżeli zmienimy prędkość obracania się miednicy to fale zmienią swój charakter, np będzie mniej dolin i gór.  Jeżeli do miednicy wstawi się klocek, to woda zaczyna opływać ten klocek i tworzą się zawirowania takie jak za górami. Można ten klocek zwiększyć i wtedy zamiast Karkonoszy mamy Himalaje. O co tu chodzi? Ogrzewanie obramowania miednicy to tak jak ogrzewanie atmosfery przez Słońce na równiku, a oziębianie to sytuacja taka jak  na biegunie. Ziemia obraca się, tak jak ten obracający się stół. Przepływ ciepła z jednego miejsca do drugiego może mieć różny charakter. Przy małych różnicach temperatur (tak jak dla przykładu w lecie na Ziemi) pomiędzy brzegiem miednicy i środkiem przepływ ciepła jest bezpośredni, ale dla większych różnic temperatury efektywniej jest przekazywać ciepło za pomocą fal.  Takie analogowe eksperymentu mają długą historię w fizyce, czasami buduje się zmniejszone modele mostów czy budynków, które testuje się w tunelu, w którym wieje wiatr. Idea polega na tym, że most jest wprawdzie mniejszy, ale dmuchamy na niego powiedzmy szybciej, tak że kombinacja rozmiaru mostu i warunków zewnętrznych, powinna być podobna do tego co prawdziwy most napotka w przyrodzie. Inżynierowie wprowadzają pewne kombinacje parametrów fizycznych – wielkości, prędkości, różnicy temperatur, które starają się zachować przez przeskalowaniu problemu. Czasami tym parametrów jest kilkanaście.    Analogowe modele atmosfery, czyli ekperymenty w miednicy, prowadzone były na szeroką skalę w Uniwersytecie w Chicago przez Dawida Fultza od mniej więcej 1946 roku.  Początkowo działo się to pod okiem Rossbiego, którey stworzył  jeden z najlepszych wydziałów meteorologicznych w tym czasie.  Jeszcze przez wiele lat po wojnie, aż do lat 1980  istniało laboratorium  i kiedyś specjalnie się tam wybrałem i miałem przjemność zwiedzać laboratorium w podziemiach budynku gdzie mieścił się wydział fizyki atmosfery. Po śmierci Fultza stoworzono laboratorium jego imienia
http://geosci.uchicago.edu/~nnn/LAB/

 

i do tej pory studenci uczą się tam geofizycznej mechaniki cieczy na podstawie eksperymentów jakie zapoczątkowano 70 lat temu. Obecnie modelowanie atmosfery Ziemi jest przeprowadzane za pomocą modeli cyfrowych a nie analogowych. Przyczyną jest to, że trudno w miednicy wymodelować deszcz. Ale o tym kiedy indziej.

poniedziałek, 30 sierpnia 2010

Własnie wczoraj wróciłem z eksperymentu przeprowadzanego na Florydzie w okolicach Przylądka Canaveral, z którego startują (a własciwie startowały) wahadłowce kosmiczne. Pracowałem m.in. ze studentem z Instytutu Geofizyki Uniwersytetu Warszawskiego (DB)  z potężnym radarem, malutkim radarem deszczowym i lidarem mikropulsowym. 

W wolnej chwili staraliśmy się opracować nowy instrument do zdjęć nieba oparty na koncepcji zszywania zdjęć, czyli robienia panoramy. Ponieważ, każdy może taką kamerą zrobić  to opisuję o co chodzi. Sama technika jest możliwa dzięki rozwojowi cyfrowych aparatów fotograficznych i gwałtownemu (w ostatnich latach) rozwojowi oprogramowania do cyfrowego zszywania zdjęć. W fotografii cyfrowej techniki zdjęć panoramicznych są obecnie przedmiotem fascynacji i pobijane są rekordy w robienu największych panoram - niedawno ktoś zrobił zdjęcie Budapesztu o olbrzymiej rozdzialczości składając kilka tysięcy zdjęć w jedno (wielkości 70Gbyte).   Pozwala to na przechodzenie od panoramy całego miasta do skali ulicy, domu, czy klamki w drzwiach.  Można też popatrzeć na zdjęcie w wybranym kierunku. Jak to się robi? Po piewsze potrzebny jest cyfrowy aparat fotograficzny, może być najprostszy. Drugim składnikiem jest specjalna platforma do robienia serii kiludziesięciu zdjęć w sposób automatyczny.  Można kupić specjalne urządzenie, które obraca się wokół dwóch osi i samoczynnie naciska spust aparatu  fotograficznego. My używaliśmy do tego  „gigapan"
http://www.gigapansystems.com/

które pozwala na robienie  kilkudziesięciu zdjęć w przeciągu kilku minut. Ma pewne ograniczenia – nie można panoramy powtórzyć automatycznie i nie powinno znajdować się na deszczu. W związku z tym kupiliśmy w sklepie z artykułami technicznymi  szklaną miskę do zlewozywaka, którą przewróciliśmy do góry nogami, tak żeby stanowiła osłonę przed deszczem. Po wykonaniu serii zdjęć trzeba całość zszyć. Zdjęcia muszą się przekrywać, tak żeby na kolejnym zdjęciu około 20-30% obrazu zachodziła na siebie. Oprogramowanie odkrywa to automatycznie. Jest wiele najrozmaitsztych programów do łączenia zdjęć. Jeden z najbardziej znanych nazywa się PTGui
http://www.ptgui.com/

na stronie PTGui można zobaczyć jak przebiega process zszywania zdjęć. My używaliśmy programu, który przychodzi z “gigapanem”, i jest specjalnie dostosowany do zszywania uporządkowanej serii zdjęć. Poniżej jest zdjęcie prototypu. Nazywa jest "PSSI" (Panoramic, Shielded, Sky Imager).

 

 

 

 

 

 

 

 

sobota, 07 sierpnia 2010

Historia nauki usiana jest nieudanymi próbami korelacji aktywności słońca z pogodą. Charles Greely Abbot był przez około 40 lat dyrektorem słynnego ośrodka Smithsonian Astrophysical Observatory w Stanach Zjednoczonych. 
http://pl.wikipedia.org/wiki/Charles_Greeley_Abbot

Prowadził  pomiary korelacji pomiędzy aktywnościa słońca i pogodą.  Z tych korelacji postawił hipotezę, że pogodę można przewidzieć nie tylko na dzień, ale także na wiele miesięcy do przodu. Wiadomo było, że pomiary stałej słonecznej z powierzchni Ziemi obarczone są systematycznym błędem pomiarowym związanym z czynnikami atmosferycznymi - dla przykładu ilością pary wodnej w atmosferze. Abbot starał się zminimalizować te efekty i ustanowił stację pomiarową w miejscach gdzie taki wpływ był stosunkowo mały – m.in. w Andach (stacja na południe od Calama a następnie stacja na Montezuma). Abbot prowadził też pomiary na stacji w USA (w kilku kolejnych lokalizacjach, m.in.  koło Mount Wilson). Pomysły Abotta doprowadzały do szału dyrektora amerykańskiego Biura Meteorologicznego Charlsa Marvina,  który twierdził że używanie pomiarów stałej słonecznej na jednej stacji w Ameryce Południowej do prognozy pogody jest absurdem.  Marvin uważał, że należy przeprowadzać więcej pomiarów, i że zmiany obserwowane przez Abbotta były związane ze stanem atmosfery. Na co Abbott odpowiadał, że nie ma to najmniejszego znaczenia, bo i tak najważniejsze jest to ile promieniowania słonecznego dochodzi do Ziemi. W roku 1926 w prasie pojawiły się artykuły, że tępe głowy w Biurze Meteorologicznym nie mogą zrozumieć rewolucyjnych metod prognozy pogody opracowanych przez Abbota.  Biuro Prognoz odszczekiwało, że Abbot nie wie co mówi. Minister Rolnictwa był tak zezłoszczony, że zakazał szefowi Biura Prognoz rozmów z repoterami i poprosił go grzecznie, żeby ten się zamknął.  Do końca życia Abbot twierdził, że miał rację i że stała słoneczna zmienia się pomiędzy 3-10%.  Obecnie wiemy, że te wyniki były obarczone systematycznym błędem związanym ze zmiennością atmosfery. Pomiary stalej słonecznej z powierzchni  Ziemi były niedostatecznie precyzyjne. Dopiero pomiary satelitarne stałej słonecznej (obecnie mówimy -  całkowitej irradiancji Słońca) od początku lat 1970 dały znaczne lepsze zrozumienie zmienności dochodzącego promieniowania słonecznego.

Napisałem na  temat stałej słonecznej artykuł na Wikipedii, który dostał medal, ale teraz mniej mi się podoba, no ale link jest tutaj -
http://pl.wikipedia.org/wiki/Stała_słoneczna

niedziela, 01 sierpnia 2010

Pyrocumulonimbus (pyroCb) to chmura  związana z gwałtownymi pożarami. W 2010 zostanie wydrukowany w Biuletynie Amerykańskiego Stowarzyszenia Meteorologicznego artykuł na ten temat -  Nieopowiedziana historia pyrocumulonimbusa, a ja Państwu już, i to za darmo, donoszę o tym nowym wynalazku. Nazwa pyroCb pochodzi od pyro=pożary i Cb=cumulonimbus.  PyroCb mają stosunkowo dziwne nazewnictwo bo  w dotychczasowej nomenklaturze meteorologicznej "nimbus” oznaczał "opad" podczas gdy z pyroCb nie pada deszcz. Z pyroCb mogą być jednak związane tornada.

(patrz: The Untold Story of Pyrocumulonimbus, Michael Fromm1, Daniel T. Lindsey, René Servranckx, Glenn Yue, Thomas Trickl , Robert Sica, Paul Doucet, Sophie Godin-Beekmann, BAMS, 2010)

Zacznimy od struktury atmosfery.  Najpierw mamy troposferę i to jest coś w czego dolnej części żyjemy i najczęściej nazywamy atmosferą. Następnie jest tropopauza. Jeden z moich profesorów nazywał tropopauzę  pokrywką, czyli po angielsku LID - co jest skrótem od pierwszych trzech liter  Level of Insignificant Dynamics – poziom znikomej dynamiki.  Tropopauza jest istotnie obszarem, w którym wiele ruchów powietrza jest hamowanych, ze względu na dużą stabilność powietrza, trochę tak jak w zimie blisko Ziemi. Zaraz za tropopauzą zaczyna się ponadświat czyli dolna stratosfera. Struktura jest taka – od dołu: troposfera, pokrywka, i ponadświat.  Powszechnie uważa się, że ze względu na „pokrywkę” wymiana powietrza pomiędzy dolną atmosferą gdzie żyjemy i „ponadświatem” (stratosferą) odbywa się  za pomocą gwałtownych wydarzeń – wybuchów wulkanicznych, wojny jądrowej,  lub zjawisk związanych z gwałtownymi pożarami.   Wprawdzie wymiana pomiędzy stratosferą i troposferą jest mała, ale jeżeli już zachodzi to dostające się tam cząstki przebywają w niej długo i mogą wpłynąć na globalna temperaturę.

Co jest nowego w pyroCb?  Są to chmury konwekcyjne nad gorącym obszarem związane najczęściej z pożarami, z których najsilniejsze wznoszą pyły do dolnej stratosfery.  Do tej pory kiedy wzrastała koncentracja cząstek zawieszonych w stratosferze myślano, że jest to związane z wybuchami wulkanicznymi. Teraz wydaje się, że tak nie jest, i że część przypadków związana jest z  pyroCb.  Klimatologia pyroCb jest jeszcze mało zbadana. W roku 2002 w Kanadzie i w USA było takich przypadków 17.  Do tej pory opisano dobrze w literaturze około 10 przypadków.  

Inną sprawą jest jak się bada ilość pyłów zawieszonych w ponadświecie; o tym kiedy indziej.

PS Termin „ponadświat”  opisujący stratosferę pochodzi od Jima Holtona, fizyka atmosfery z Uniwersytetu Waszyngtona w Seattle. Biuletyn Amerykańskiego Stowarzyszenia Meteorologicznego jest powszechnie nazywany BAMS - jest  najpoważniejszym z niepoważnych czasopism popularyzującym fizykę atmosfery; jeżeli popularyzacje nauki uważać za coś niepoważnego.  Z tym, że ja piszę dla Państwa za darmo jest związana anegdota. W kabarecie  „Pod Egidą” w czasach kiedy bilety były tanie po 15 minutach przedstawienia wychodził Jonasz Kofta lub Jan Pietrzak,  i któryś z nich mówili - no to przez te 15 minut opowiedzieliśmy państwu już dowcipów za cenę biletu a reszta programu będzie za darmo.  A może to słyszałem w  „Piwnicy”?

Tagi: PyroCb
01:27, pcirrus , Chmury
Link Komentarze (2) »
środa, 28 lipca 2010

W Polsce nie ma nowoczesnych polskich podręczników uniwersyteckich z zakresu fizyki atmosfery i badań klimatu, nie ma też tłumaczeń. Popularyzacja każdej nauki jest trudna. Podręczniki uniwersyteckie są jednym z elementów tej popularyzacji.

Popatrzymy się na Wydział Fizyki Atmosfery w Uniwersytecie Washingtona (UW) w Seattle. Profesorowie tego wydziału napisali ponad 20-30 podręczników, które są używane w wykładach fizyki atmosfery i badań klimatycznych na całym świecie.
http://www.atmos.washington.edu/about/books.shtml

Zacznijmy od dobrego wstępu do fizyki atmosfery napisanego przez dynamika atmosfery Johna Wallace i fizyka chmur Petera Hobbsa:  Nauka o atmosferze (ang. Atmospheric Science: An Introductory Survey). Książka jest używana w wykładach do wstępu fizyki atmosfery. Sam Peter Hobbs, który zajmował się badaniem chmur napisał też książki o chemii atmosfery.  

  

 

Następnie trzeba wymienić słynną książkę Jima Holtona „Wprowadzenie do dynamiki atmosfery” (An Introduction to Dynamic Meteorology), która jest używana do wykładów z dynamiki atmosfery czyli opisu jak prawa fizyki determinują przepływ powietrza. Nie ma chyba wydziału fizyki atmosfery na świecie gdzie ta książka nie byłaby używana.

 

Bob Houze napisał podręcznik “Dynamika Chmur” (Cloud Dynamics). Książka jest podstawowym podręcznikiem w wykładach zjawisk chmurowych o rozciągłości od kilku do kilkuset kilometrów (mezoskala) – dla przykładu powstawaniu tornad, systemów chmurowych o skali wielkości Polski.  Houze jest specem m.in. od obserwacji radarowych.

Klimatologia jest reprezentowana przez książkę „Wielkoskalowa klimatologia fizyczna” (Global physical climatology) napisaną przez Dennisa Hartmana, który wykłada klimatologię na UW.  

Istnieje dział meteorologii zajmujący się warstwą graniczną, czyli obszarem blisko powierzchni Ziemi. Warstwa graniczna opisywana jest za pomocą technik mechaniki cieczy – dlatego bo powietrze płynie. Jeden z profesorów z UW napisał dwie książki na ten temat: „Anlityczne metody planetarnej warstwy granicznej” oraz  „Mechanika cieczy w atmosferze”.

Modelowanie klimatu opiera się w dużej mierze na metodach komputerowych.  Równania ruch powietrze przybliża się za pmocą technik numerycznych, gdzie używa się meteodologii stosowanej  matematyki.  Podręcznik na ten temat napisał Dale Durran „Numeryczne metody równań falowych w geofizycznej dynamice cieczy”.

Wymienłem tylko kilka z kilkunastu książęk wydanych przez profesorów jednego wydziału fizyki atmosfery w Stanach.  Nie wiem jak oni to robią. Wydaje się, że pewien kanon książek powinien być jednak tłumaczony.

PS Uwaga, trochę oszukuję; wtajemniczeni wiedzą, że Wydział Fizyki Atmosfery w UW jest unikalny jeżeli chodzi o książki.  

wtorek, 27 lipca 2010

Dziś będzie o łatwości formułowania pomysłów w klimatologii czyli o sprzężeniach zwrotnych. Globalne ocieplenie nie jest jedynym tematem naukowym ważnym obecnie społecznie a mimo to wzbudza najwiecej kontrowersji.  Z teorią inteligentnego projektu, badaniami komórek  macierzystych, czy aspektami biologii molekularnej są związane podobne emocje, ale raczej ze stroną etyczną badań; natomiast rzadko kwestionowane są bezpośrednie pomiary a nawet interpretacje pomiarów.  Natomiast w badaniach klimatu proponowane są nagminnie alternatywne interpretacje pomiarów i krytykowana jest metodologia naukowa. Jednym z powodów  jest chyba pozorna łatwość tworzenia hipotez oddziaływania  pomiędzy sobą różnych składników systemu atmosfery i oceanu i stosunkowo duża trudność w weryfikacji hipotez.  Starałem się na ten temat napisać  kiedyś hasło na polskiej Wikipedii, nie jest ono skończone i przyznaję, że nie mam do niego serca,  ale to okazja, żeby wytłumaczyc o co chodziło. Żeby być adwokatem diabła wymieniłem w tym haśle wiele możliwych meachnizmów. Kilka z nich – hipoteza tęczówki, efekt motyla, CLAW, dwutlenek węgla, pyły zawieszone, termostat - poniżej.

http://pl.wikipedia.org/wiki/Zmiana_klimatu

Hipoteza tęczówki w meteorologii to kontrowersyjny mechanizm  klimatycznego sprzężenia zwrotnego wiążącego parę wodną, temperaturę oceanu, i pokrywę wysokich chmur w tropikach.  Według tej hipotezy klimatycznej zwiększona temperatura oceanu związana z globalnym ociepleniem prowadzi do zmniejszenia pokrywy chmur w atmosferze tropikalnej. W związku z tym powierzchnia ziemi może wyemitować więcej energii cieplnej - co prowadzi do oziębienia. Zwiększona ilość pary wodnej, w tej hipotezie, prowadzi do stabilizacji klimatu. Nazwa ''tęczówka'' jest analogią do fizjologii oka,  którego tęczówka może się zwężać lub rozszerzać regulując ilość dochodzącego światła.

Efekt motyla.  Jest to hipoteza mówiąca o telekonekcjach (oddziaływania na odległość) pomiędzy zjawiskami pozornie nie związanymi ze sobą. W szczególności uważa się, że małe lokalne zaburzenie w przepływie powietrza może powodować duże zaburzenie przepływu w znacznej odległości od początkowego zaburzenia. Hipoteza ta, tłumaczy dlaczego zjawiska pogodowe są trudne do prognozowania.

W 1987  Charlson,  Lovelock,  Andreae oraz Warren zaproponowali, że wzrastająca temperatura Ziemi doprowadzi do rozwoju większej ilości fitoplanktonu. Wiele typów fitoplanktonu produkuje propionian siarczku metylu, który jest przekształcany na siarczek metylu (DMS). Obecność DMS w atmosferze prowadzi do zwiększonej ilości aerozoli siarczanowych. Autorzy zakładają, że dzięki DMS powstają chmury nad oceanami. Chmury zwiększają ilość promieniowania słonecznego odbitego co powoduje zmniejszenie temperatury powierzchni Ziemi. Hipoteza CLAW jest przykładem ujemnego sprzężenia zwrotnego.

Termostat. Inną z hipotez ogólnych zmian klimatu jest oddziaływanie chmur lodowych typu cirrostratus i ich wpływ na regulacje temperatury oceanu w atmosferze tropikalnej. Obserwuje się, że w tropikach temperatura oceanu prawie nigdy nie przekracza pewnej granicznej temperatury.  Hipoteza kontroli temperatury oceanu w tropikach zakłada, że  zwiększona temperatura oceanu powoduje powstawanie najpierw wypiętrzonych chmur cumulus, a potem rozległych chmur cirrus. Chmury te odbijają promieniowanie słoneczne dochodzące do Ziemi i zmniejszają jej temperaturę. Jest to przykład  ujemnego sprzężenia zwrotnego.

Jedną z najbardziej głośnych hipotez jest absorpcja promieniowania podczerwonego przez gaz cieplarniany, np  dwutlenek węgla. Gazy te absorbują promieniowanie przez co zwiększają temperaturę Ziemi i atmosfery. . Bezpośredni efekt absorpcji promieniowania ziemskiego przez dwutlenek węgla jest mały. Jednak efekty wtórne związane ze zwiększoną ilością para wodną w atmosferze mogą spowodować zmianę w pokrywie chmur i w efekcie znacznie większe zmiany klimatyczne.

Aerozole. Hipoteza oziębiającego wpływu aerozoli atmosferycznych (pyłów zawieszonych) związana jest z ich własnościami odbijania promieniowania słonecznego z powrotem w przestrzeń kosmiczną. Przez wiele lat myślano o aerozolach (czyli cząstkach siarczanów, pyłach mineralnych, aerozolu soli morskiej) jako o cząstkach głównie odbijających. Obecnie coraz częściej bada się rolę aerozoli związków węglowo-grafitowych (sadza), które są w stanie absorbować promieniowanie atmosferyczne.

Istnieje więcej hipotez i pytanie polega na tym, które z nich, a może wszystkie razem, realizowane są w atmosferze?  Z punktu widzenia rozwoju nauki nie ma absolutnie nic złego w formułowaniu błędnych hipotez - każdy naukowiec czy amator z największą przyjemnością zaproponuje alternatywny pomysł. Weryfikacja hipotez klimatycznych jest czasami trudna. Mimo, że (1) modelowanie numeryczne jest obecnie jednym z najbardziej znanych sposobów sprawdzania sprzężeń zwrotnych – i najczęściej krytykowany - to nie jest to sposób jedyny. Innymi technikami są (2) eksperymenty w naturze, (3) badania paleoklimatyczne, (4) pomiary bezpośrednie i satelitarne.   Dla przykładu - wpływ cząsteczek zawieszonych w powietrzu można badać w rejonach styku czystego powietrza z powietrzem zanieczyszczonym – pomiędzy Indiami i czystymi rejonami południowego  Oceanu Indyjskiego. Efekt termostatu (wpływu temperatury na chmury) można badać w obszarach tropikalnych gdzie są różnice zachmurzenia pomiędzy basenami (oceanografowie myślą o bardzo dużych basenach).   Pewne hipotezy – np o tym jak temperatura wpływa na rozkład wilgotności w atmosferze można badać na podstawie pomiarów bezpośrednich i metod satelitarnych.

Z hipotezami jest ten problem, ze czasami pozostają tylko hipotezami. Mimo to przeciwnicy badań zmian klimatycznych w Polsce opisują te hipotezy jako teorie – czyli jako coś sprawdzonego; to jest irytujące. Natomiast bycie sceptycznym jest w normie.

wtorek, 20 lipca 2010

Stephen Schneider umarł w poniedziałek, 19 lipca 2010 roku w wieku 65 lat. Był popularyzatorem wiedzy na temat zmian klimatu. Dla fizyki atmosfery był osobą taką jak Carl Sagan dla astronomii. Miał silne poglądy co do sposobów dyskusji z przeciwnikami badań klimatycznych: Uważał, że naturalna skłonnośc naukowców do sceptycyzmu prowadzi do oddawania pola w ważnym społecznie problemie.  W 2009 roku napisał na temat swojej pozycji książkę  "Nauka jest jak  bijatyka. Batalia o Zachowanie Klimatu Ziemi Widziana od Wewnątrz”. Napisał także książkę o białaczce „Pacient rodem z piekła”, gdzie pokazywał analogie pomiędzy badaniami zmian klimatu i swoim podejściem do choroby. Uważał, że w obu przypadkach podejmuje się decyzje w sytuacji niekompletnej informacji na temat przyszłości. Jakimś cudem, według swojego lekarza, wyszedł z tej choroby.

Schneider był konsultantem Białego Domu za czasów administracji Nixona, Cartera, Reagana, George H.W. Busha, Clintona, George W. Busha i Obamy. W 1992 roku dostał prestiżową nagrodę MacArthura dla “geniuszy” a w 2007 dostał wraz z wieloma innymi naukowcami związanymi z IPCC pokojową Nagrodę Nobla. Po studiach pracował w  NASA. Nastepnie pracował w Narodowym Centrum Badań Atmosferycznych  w Kolorado od 1973-1996, następnie  był profesorem w Universytecie Stanforda w Kalifornii.  Był członkiem Amerykańskiej Akademii Nauk od 2002. W 1975 założył własne czasopismo "Climate Change" i w ostatnich latach sam wypłacał wynagrodzenie kilku pracownikom. Schneider pracował nad raportami IPCC od momentu powstania tej organizacji w 1988 roku i był współautorem 4 raportów.

Był autorem lub współautorem kilkuset artykułów naukowych.  Pamiętam, że pierwszy artykuł Schneidera jaki czytałem był opublikowany w 1972 roku w Journal of the Atmospheric Sciences. Artykuł dotyczył wpływu chmur na efekt cieplarniany (Schneider, Stephen H., 1972: Cloudiness as a Global Climatic Feedback Mechanism: The Effects on the Radiation Balance and Surface Temperature of Variations in Cloudiness. Journal of the Atmospheric Sciences, 29, 1413-1422). Był to ważny artykuł na temat roli chmur i zmian klimatu. Nie wiem dlaczego, ale kilka dni temu słuchałem Schneidera po raz pierwszy na youtube, a dziś - przed dostaniem informacji o jego śmierci - myślałem o tym własnie problemie wpływu chmur na temperaturę powierzchni Ziemi.

Był znienawidzony przez przeciwników badań zmian klimatycznych i dostawał często ostrzeżenia o rychłej śmierci co go martwiło ale nie zniechęcało.

http://en.wikipedia.org/wiki/Stephen_Schneider

http://www.youtube.com/watch?v=pB2ugPM0cRM

poniedziałek, 19 lipca 2010

Przeciwnicy zmian klimatycznych publikują najczęściej na blogach lub tzw. "szarej literaturze”, czyli w opracowaniach, które wydają we własnym zakresie.

http://pl.wikipedia.org/wiki/Szara_literatura

Mamy, dla przykładu, raport Pozarządowego  Międzynarodowego Panelu  Zmian Klimatu (“Nongovernmental International Panel on Climate Change ”),  w którm jedno głupstwo goni za drugim. Wiem coś o tym, bo w raporcie NIPCC są  (bez większego sensu)  cytowane artykuły moje i mojego byłego doktoranta dotyczące wpływu aerozolowego w podczerwieni. Następnie członkowie tego stowarzyszenia powołują się na swoje raporty, ogólna publicznośc nie ma pojęcia,  że jest to "szara literatura", której nikt nie recenzował.

Sprawa publikacji i wagi publikacji jest  pierwszorzędna i wypływa ona nieustannie w kontrowersjach klimatycznych.  Przeciwnicy badań klimatycznych twierdzą, że nie są w stanie przebić się ze swoimi artykułami w renomowanych czasopismach ze względu na zmowę edytorów. Przez wiele lat byłem edytorem czasopisma "Journal of the Atmospheric Sciences" publikowanego przez Amerykańskie Stowarzyszenie Meteorologiczne i nie mam specjalnie wątpliwości, że proces recenzji artykułów naukowych w renomowanych czasopismach jest robiony poprawnie.  Rzeczywistość jest bardziej prozaiczna – najczęściej publikacje przeciwników zmian klimatycznych są słabe faktograficznie. Pomysły te, odrzucone, wypływają następnie na blogosferze, w mediach publicznych, dyskusji z dziennikarzami i są źródłem niekończących się jałowych dyskusji. Czasami publikacje  przeciwników zmian klimatu są wysyłane do bardzo znanych czasopism (np "Science" czy "Nature") i po odrzuceniu przez Wydawcę autorzy są wściekli i opisują, że są szykanowani. Tymczasem "Nature" i "Science" są czasopismami bardzo wybiórczymi gdzie publikowany jest jeden artykuł na sto wysłanych.  Czasami chciałbym, żeby te hipotezy ktoś opublikował, bo wtedy przynajmniej możnaby napisać odpowiedź. Chodzi o to, że poważne czasopismo naukowe nie publikuje krytyki stanowiska z blogu. Sprawa jest trudna z punktu widzenia dokumentacji co jest prawdą a co nie jest.  W artykułach naukowych i encyklopediach każde stanowisko musi byc potwierdzone publikacjami. Nie ma miejsca na "radosną twórczość"  - na Wikipedii ta zasada  nazywa się „nie przedstawiamy twórczości własnej”.   Tworzy to szalone koło gdzie większość dyskusji klimatycznych pozostaje w sferze blogosfery. Komisje rozpatrujące sprawę "climategate”, zwróciły uwagę na ten fakt, i wezwały, żeby naukowcy dostosowali się do działalności "blogsofery". Jest to nowa sytuacja wypływająca tylko w tematach naukowych ważnych społecznie  - klimat, klonowanie, komórki macierzyste.

Istnieje też sprawa prestiżu czasopisma naukowego. W badaniach klimatycznych najtrudniej opublikować wyniki w renomowanych czasopismach naukowych takich jak Science, Nature, czy PNAS. Prestiżowymi czasopismami są też wszystkie czasopisma Amerykańskiego Stowarzyszenia Meteorologicznego i Amerykanskiej Unii Geofizycznej. Renomowane są też publikacje europejskich związków meteorologicznych. Sprawa rangi czasopism wypłyneła w czasie "climategate". Naukowcy krytykowali w emailach, że nieliczne recenzowane publikacje przeciwników zmian klimatycznych wydawane są w mało znanych czasopismach. 

PS Mimo wszystko, wpisałem kiedyś do polskiej Wikipedii hasło na temat  "Pozarządowego  Międzynarodowego Panelu Zmian Klimatu”.  Nie dlatego, ze wierzę w to co wypisuje NIPCC, lub w to co mówią naukowcy z nim związani, ale dlatego że należy prezentować neutralny punkt widzenia i przedstawiać wszystkie zapatrywania.
http://pl.wikipedia.org/wiki/NIPCC

Tego netralnego punktu widzenia, cechującego chyba dobrych naukowców,  bardzo mi brakuje w polskiej debacie klimatycznej.

 

Tagi: NIPCC
21:48, pcirrus , Polityka
Link Dodaj komentarz »