Blog poświęcony popularyzacji badań klimatycznych
piątek, 30 grudnia 2011

Roman Paszke jest teraz (12/30/2011 o godzinie 00GMT), około 1500 mil od Hornu. Tak, że dziś będzie o prognozach pogody dla żeglarzy i jak to robi nasz zespół.

Istnieje kilka niezależnych modeli prognoz pogody w skali globu, dla przykładu: Model Europejskiego Centrum Prognoz Średnioterminowych (ECMWF), model Marynarki Wojennej USA (NOGAPS), model Narodowej Administracji Oceanów i Atmosfery (GFS), czy model kanadyjski (CMC). Nasza grupa, zajmująca się prognozą dla Paszke, ma dostęp do tych danych. Modele wielkoskalowe prognozują pogodę do 14 dni, z tym że prognozy powyżej tygodnia obarczone są dużym błędem.  Globalne prognozy zależą od pomiarów pogody na całym świecie w określonym czasie. Mówimy o takich pomiarach synoptyczne, bo po grecku „syn” oznacza razem, a „opsis” oznacza „ogląd”. Czyli „ogląd w tym samym czasie”. Wyniki są przedstawiane co około 30-60km na całym świecie i przesyłane są z centrów prognoz zazwyczaj 2-4 razy dziennie. My patrzymy na m.in. prędkość i kierunek wiatru na 10m nad powierzchnią Ziemi, ciśnienie na powierzchni Ziemi, opad deszczu, wysokość i kierunek fal. Modele przewidują falowanie na podstawie m.in. prędkości wiatru, jeden z tych modeli to Wavewatch III.  W niektórych odcinkach trasy mamy dostęp do tzw. modeli mezoskalowych, które prognozują z większą rozdzielczością przestrzenną, np na siatce punktów na Ziemi rozmieszczonych co 10km. Dzięki temu można uwzględnić efekty lokalne, takie jak góry. Dla przylądka Horn, Cieśniny Drake'a, Brazylijska Marynarka Wojenna umożliwia dostęp na sieci do wyników z modelu mezoskalowego HRM. Wyniki z modeli rozprowadzane są w różnych formach. M.in. dostępne są dane w formacie GRIB opracowanym przez Światową Organizację Meteorologiczną.

Ważnym elementem jest wyświetlanie danych. Robi się to za pomocą programów do wyświetlania graficznego danych GRIB połączonych z możliwościami wybierania najlepszej drogi, nakładania map czy tez nakładania kilku pół meteorologicznych i oceanograficznych na siebie. Można robić filmy zmian pogody i znając możliwości jachtu starać się wybrać odpowiednią trasę i strategię.

 

Przed trudnym zadaniem żeglarsko-meteorologicznym określa się podstawowe założenia. Dla przykładu w przypadku jachtu Gemini 3, dla przejścia Hornu chcielibyśmy mieć wiatry poniżej 35 węzłów w Cieśninie Drake'a przez około dwa dni, chcemy być daleko od strefy lodów ze względu na możliwość zderzenia z „growlerami” (fragmentami lodu). Chcielibyśmy mieć wiatry spoza kierunków zachodnich z pewną składową z północy, przynajmniej na wschodnim odcinku Cieśniny Drake'a.

Dla ekspertów:

1. Dla rejsu Paszke jachtem Gemini3 część linków jest gromadzona na stronie
http://gemini3meteo.wikidot.com/

2. Jest teraz kilka dobry wyświetlarek danych w formacie GRIB. Jedną z nich jest „naviweather” opracowana przez polską firmę z Bolesławca. Inne linki są na stronie http://gemini3meteo.wikidot.com/routing 

wtorek, 27 grudnia 2011

Problem z przejściem jachtem Przylądka Horn ze wschodu na zachód polega na tym, że silne wiatry są z zachodu i są one związane są z niżami, które przechodzą przez Cieśninę Drake’a raz na 2-5 dni. Ale ...  W lecie australijskim, które na Półkuli Południowej jest teraz, sztormy są rzadsze, ale ilość i intensywność sztormów jest zależna także od ogólnej różnicy ciśnienia pomiędzy szerokościami Cieśniny Drake’s (pomiędzy 55-60S) a ciśnieniem w szerokościach około 40S. Ta różnica średniego ciśnienia w dwóch pasmach wokół równoleżników na Ziemi (40S oraz 65S) jest po prostu jedną liczbą i zmienia się w czasie w skali 10 dni. Czasami jest dodatnia, a czasami jest ujemna. Dodatnia jest wtedy kiedy ciśnienie w pasie około 65S wokół ziemi jest niższe niż zazwyczaj, lub gdy wyż koło wybrzeży Chile na 40S, tzw. Wyż Południowego Pacyfiku, jest silniejszy niż zazwyczaj. Różnica ciśnienia powoduje kilka innych efektów. Jednym z nich są silniejsze wiatry kiedy różnica ciśnień jest większa. Ponieważ te zmiany ciśnienia zależą od czasu – mówimy o oscylacjach. Ponieważ są opisywane za pomocą jednej liczby, to nazywamy je „indeksem”. Stąd nazwa „Indeks Oscylacji Antarktycznej” (AAO). W modelach numerycznych prognozy jak i z pomiarów ciśnienia na Ziemi można policzyć Indeks Oscylacji Antarktycznej. Innymi słowy można zrobić prognozę jakie będę ogólne, w skali globu, warunki rozkładu ciśnienia. Na te stosunkowo wolne w skali czasowej oscylacje nakładają się przejściowe zaburzenia, czyli układy niżowe, których częstotliwość wzrasta kiedy indeks AAO jest większy.

Obecnie indeks AAO jest dodatni i przewidywania na początek stycznia są, że będzie się zmniejszał, ale zostanie dodatni. To oznacza, że średnia ilość systemów frontalnych i ich intensywność koło Przylądka Horn może być większa. Warto podkreślić, że indeksy tego typu pokazują prawdopodobieństwo zajścia pewnego zdarzenia. W rzeczywistości może być różnie i do tego wykorzystuje się modele numeryczne prognoz pogody. Indeks AAO ma także wpływ na wiatry koło Nowej Zelandii i Australii.

 aao

Prognoza Indeksu Oscylacji Antarktycznej z kilkunastu przebiegów modelu globalnej prognozy pogody (tzw wiązki prognoz). Prognoza na początek stycznia 2012 utrzymuje dodatni indeks AAO. Na osi x jest czas na osi y indeks AAO. Czerwone kreski na górnym diagramie pokazują zakres możliwych indeksów dla róznych przebiegów modelu (wiązki modelu).

Dla ekspertów:

1. Indeks AAO ma także nazwę SAM (Southern Annular Mode) i jest coraz częściej liczony za pomocą empirycznych funkcji ortogonalnych (odchodzi się od indeksów liczonych na podstawie różnic ciśnień w wybranych stacjach).

2. Indeks AAO ma znaczenie dla zmian klimatu bo istnieje korelacja pomiędzy temperaturą Przylądka Antarktycznego i AAO.

wtorek, 20 grudnia 2011

Dziś korespondowałem z Jabesem (Robertem Janeckim) na temat burz w strefie konwergencji. Robert jest nawigatorem w czasie Rejsu Romana Paszke. Paszke właśnie wpływa do strefy konwergencji i jest wyczulony na temat porywistych wiatrów bo kiedyś na jachcie Warta doświadczył szkwałów o prędkości do 40 węzłów w podobnej sytuacji.  Ma w tej strefie ustawione budzenie na co 15 minut i płynie skoncentrowany. Robert chciał wiedzieć czy widać komórki burzowe i czy można ocienić jakoś siłę wiatru. Problem jest ciekawy meteorologiczne. Jacht Gemini 3 jest w momencie kiedy pisze ten blog, czyli o godzinie 2011-12-20:15GMT, na pozycji 5.54W, 23.62W i wpływa w strefę konwergencji, która ma około dwa stopnie szerokości geograficznej, płynie w stronę równika na południe. Wiatr jest słabszy, bo jest już w strefie ciszy strefy konwergencji. Do prognozy mieliśmy informację głównie ze zdjęć satelitarnych, bo modele numeryczne w tych obszarach nie są najlepsze. Kilka parametrów otrzymanych ze zdjęć satelitarnych można wykorzystać do prognozy burz w tropikach. Po pierwsze zdjęcia pokazują gdzie są chmury; bez chmur nie ma burz. Innym parametrem jest struktura chmur, czym bardziej niejednorodna – tym bardzie przypomina to burze. O takich chmurach mówi się, że maja strukturę popcornu bo wyglądają jak prażona kukurydza tyle, że są biało-szare. Jasność chmury na zdjęciu satelitarnym (w podczerwieni) określa temperaturę jej wierzchołków. Jest tak dlatego, bo chmury mają temperaturę otoczenia a temperatura otoczenia jest związana z wysokością - czym wyżej tym zimniej. Wysokie wierzchołki chmur konwekcyjnych pokazują na potencjalnie silne wiatry na powierzchni Ziemi, bo z prądami wstępującymi, wynoszącymi wierzchołki chmur, związane są też prądy zstępujące, tworzące szkwały. Burze występują w tropikach dość niechętnie same z siebie i trzeba je jakoś wymusić. Albo przez naprawdę dużą temperaturę oceanu, około 31 stopnia C – mówimy wtedy o wymuszaniu termodynamicznym. Albo przez konwergencję powietrza w dolnych warstwach atmosfery lub przez "zassanie powietrza od góry" – mówimy wtedy o wymuszaniu dynamicznym. Wierzchołki chmur są teraz w strefie konwergencji na około 10-12km. W Polsce to byłoby bardzo wysoko. Ale w atmosferze tropikalnej tropopauza – czyli koniec troposfery jest znacznie wyżej niż w Polsce, nawet na 16 kilometrach, więc naprawdę wysoka konwekcja byłaby jeszcze wyżej. Jednym z ciekawych sposobów oceny wysokości chmur są dane radarowe.

cloudsat

Dane z radaru CloudSat dla obszaru dzie jest jacht Gemini 3. CloudSat oblatuje ziemię w kosmosie i obserwuje wąski pas atmosfery patrząc w dół. Ponieważ jest to radar - jego wiązka mikrofalowa jest w stanie przeniknąć przez atmosferę (tak jak kuchenka mikrofalowa przenika przez kartofel) i pokazać przekrój pionowy odbijalności atmosfery. Ponieważ krople wody i kryształy odbijają w pewnym stopniu promieniowanie mikrofalowe to służy to do oceny intensywności chmur. M.in. dzięki tego typu danym można ocenić potencjał szkwałów na powierzchni Ziemi. Na dole po lewej stronie pokazane są dane dla obszaru na Ziemi w strefie konwergencji wiatrów pasatowych.

Na środku oceanu radarów nie ma, ale jest radar umieszczony na satelicie CloudSat, który od czasu do czasu leci nad konkretnym punktem w tropikach. Radar jest w przestrzeni kosmicznej więc świetnie widzi wierzchołki chmur, ale ma trudności z chmurami blisko Ziemi. Na zdjęciu jakie dodaję widać trajektorię lotu CloudSat nad Ziemią. W szczególności satelita przelatuje blisko równika koło Afryki, tam gdzie dziś jest Paszke. Widać strefę konwergencji tropikalnej koło 4N. Przekrój przez atmosferę (dolny rysunek po lewej)pokazuje rozległe wierzchołki chmur, przypominające kowadło – ze skoncentrowanym obszarem opadu przy powierzchni Ziemi i rozpływającą się chmurą na około 12km. Najwyższa część atmosfery na tym rysunku to około 30km. Opisuję tutaj tę część rysunku, która jest na szarym tle. Kolorowa linia pokazuje trajektorię Cloudsata.

 

Dla ekspertów:

Ucząc wstępu do fizyki atmosfery warto wykorzystywać CloudSat. Można pokazać podstawowe elementy modelu norweskiego cyklonów (chmury), przekroje przez cyklony tropikalne, ITCZ, itd. Dane są na
http://cloudsat.cira.colostate.edu/dpcstatusQL.php

niedziela, 18 grudnia 2011

Roman Paszke, który stara się pobić rekord opłynięcia Ziemi na jachcie, jest teraz (18 grudzień 2011, godzina 00GMT) na szerokości 12.3N i długości 23.15W na Atlantyku i płynie w kierunku równika. Pod koniec przyszłego dnia zacznie dopływać do strefy konwergencji powietrza pomiędzy półkulą północną i południową. W tych szerokościach spotykają się wiatry pasatowe i powodują wypychanie powietrza do góry. Dlatego jest to obszar gdzie zdarzają się burze tropikalne a więc i szybkie porywy wiatry (szkwały). Burze w tropikach mają większe prawdopodobieństwo do powstawania we wczesnych godzinach rannych. Koło strefy konwergencji są, ogólnie mówiąc,  słabe wiatry (ang. doldrums). Strefa zbieżności ma angielska nazwę Intertropical Convergence Zone a skrót ITCZ jest bardzo często używany wśród meteorologów.

 

itcz1

ITCZ jest na na 6N pomiędzy dłygością 15W a 50W. Ale widać też inne chmury koło 40W na północ od strefy ITCZ.

 

Paszke będzie musiał uważać na sporadyczne gwałtowne wiatry a jednocześnie starać się przepłynąć pas ciszy tropikalnej w najwęższym miejscu. Jak to prognozować? Modele numeryczne nie są tutaj najbardziej pomocne, bo burze często powstają "podskalowo", innymi słowy globalne model prognozy nie maja dostatecznie dobrej rozdzielczości. Przychodzą tu z pomocą techniki obserwacji satelitarnych. Popatrzmy na zdjęcie poniżej. Widać chmury, jest strefa konwergencji około 6N, ale nie bardzo wiadomo co się z tymi chmurami stanie. Z pomocą przychodzi tutaj diagram Hovmöllera, który wykorzystuje kilka zdjęć z różnych godzin ułożonych blisko siebie. Widać, że chmury na 40W powoli wędrują sobie na wschód. Natomiast chmury na 6N są dość stacjonarne. Dzięki temu można postawić prognozę co się stanie z chmurami. Jeżeli do tego dodać opad, co też można ocenić z danych satelitarnych, to możemy wywnioskować gdzie jest konwekcja i gdzie trzeba uważać, i w jakim miejscu starać się przekraczać strefę konwergencji.

 

itcz2

Diagram Hovmöllera. Ostatni dzień jest na samej górze. Kilka zdjęć tego samego obszaru dobrze pokazuje ruch chmur. Trochę tak jak na poklatkowym filmie. Widać grupę chmur wędrujących na wschód. Ale na 5-6N widać też  dobrze ITCZ.

 

Dla ekspertów

1. Storna sieciowa rejsu Paszke
http://paszke360.com/550/

2. Diagram Hovmöllera został zaproponowany przez Ernest Aabo Hovmöllera (1912-2008) w czasopiśmie Tellus w 1949 roku.

3. Diagramy Hovmöllera pochodzą ze strony w Colorado State University z wydziału fizyki atmosfery w Kolorado, który mieści się u podstawy Gór Skalistych. Dlaczego zajmują się tam meteorologią tropikalną (to chyba najlepszy wydział meteorologii tropikalnej na świecie) do końca nie wiem.

sobota, 17 grudnia 2011

Kilka dni temu, 12 grudnia 2011, Roman Paszke zaczął rejs dookoła świata na katamaranie Gemini 3.

"Dzień 3. Nareszcie płynę tak jak planowaliśmy przez ostatnie 3 lata. W nocy był pewien kłopot co zrobić z piaskiem pustynnym z Zachodniej Sahary. Mimo, że do brzegu było ponad 100 mil nawiało sporo piaskowego pyłu i jest wszędzie na pokładzie. Zmywam najpierw słoną, potem słodką wodą. Nie mam niestety odkurzacza i muszę poczekać aż pierwszy tropikalny deszcz zmyje wszystko do czysta. Póki co mam namiastkę brązowej plaży w każdym miejscu na pokładach…. Pozdrawiam wszystkich. Roman Paszke."

Trzeci dzień rejsu Paszke to 16 grudnia 2011 roku. Był wtedy w nocy na szerokości geograficznej 20.4N i długości geograficznej 18.4W koło wybrzeży Północno-Zachodniej Afryki. Jak pisze z pokładu - piasek jest przywiewany z zachodniej Afryki, ale popatrzmy dokładniej skąd i jak się to bada. Otóż do prognozy piasku w atmosferze potrzebne są dane meteorologiczne i geofizyczne. Pierwsza grupa danych jest potrzebna do oceny mobilizacji piasku – czyli tego czy można na tyle wzruszyć piasek, żeby mógł się dostać do atmosfery. Do tego trzeba znać gdzie piasek jest, mówimy o tym "źródła emisji". Są to pustynie ale też wyschnięte jeziora, ważna jest znajomość roślinności i jej sezonowej zmiany. Druga grupa danych to informacja o warunkach meteorologicznych w dniach poprzedzających mobilizację piasku - prędkość wiatru przy ziemi jest najbardziej istotna. Ale innymi parametrami są opad i pokrywa śniegu; dla przykładu mobilizacja piasku na pustyni Gobi w Mongolii jest mała w czasie zimy ze względu na śnieg i niską temperaturę.  Następnym elementem jest  emisja i unoszenie piasku do atmosfery. Tutaj ważny jest rozkład temperatury w atmosferze bo prądy wstępujące mogą piasek unieść do wyższych warstw atmosfery - co jest ważne dla transportu. Istotna jest też geografia.  Dla przykładu - olbrzymia pustynia Taklimakan w Chinach otoczona jest górami i dlatego zachowuje się jak olbrzymia piaskownica. Bardzo często piasek się wzbija do góry i opada na dół. Następnym elementem prognozy jest znajomość rozkładu wiatru na wszystkich wysokościach w powietrzu i to na całym świecie. Dzięki temu można ocenić transport piasku na duże odległości.

naaps dust on google earth

Wyniki z modelu transportu pyłu piaskowego. Rozkład grubości optycznej (koncentracji pyłu) nałożone na Google Earth. Jacht Paszke był w zasiegu piasku emitowanego w północno zachodniej Afryce.

Na rysunku  jest wykres grubości optycznej (skrót AOD- ang. Aerosol Optical Depth) na podstawie modelu transportu piasku dla 16 grudnia 2011 dla północnej Afryki. Skala jest logarytmiczna i żółto zielone kolory pokazują olbrzymie zawartości piasku w atmosferze – grubość optyczną ponad 3.2. Przy takiej grubości optycznej pył prawie zakrywa słońce na niebie. Najmniejsze wartości to ciemno zielony kolor. Piasek z Sahary jest łatwo mobilizowany i ma kilka dróg transportu – na zachód, na północny-wschód przez Morze Śródziemne gdzie czasami dochodzi do Europy i na wschód gdzie czasami dochodzi do Ameryki Północnej. Piasek, który spadł na jacht Paszke pochodził z północno-zachodniej Afryki. Pewnie słońce zachodziło na czerwono. Można też popatrzeć na trajektorie wsteczne – jest to fachowe określenie na to skąd wiał wiatr. Trajektorie wsteczne i trajektorie "do przodu" używane są w ocenie niebezpieczeństwa związanego z transportem zanieczyszczeń w powietrzu – np podczas katastrof reaktorów jądrowych.

Dla ekspertów:

1. Dane transportu pyłu piasku w atmosferze można znależć na stronie NRL. W części "model NAAPS" są wyniki dla 5 dniowej prognozy transportu pyłu piaskowego. Model globalny opiera się na danych z modelu NOGAPS. Fajna jest opcja wyświetlania filmu z prognozy na Google Earth.
http://www.nrlmry.navy.mil/aerosol/

2. AOD raportowane przez model NAAPS jest w 500nm w świetle widzialnym.

3. Trajektorie wsteczne dla danego położenia na świecie można dostać z modelu Hysplit.
http://ready.arl.noaa.gov/HYSPLIT.php

 hysplit

Trajektorie wsteczne (72 godziny) z Hysplit dla pozycji jachtu Gemini 3 w dniu 16 grudnia 2011 na powierzchni oceanu.  

środa, 14 grudnia 2011

Kilka dni temu odbyło się spotkanie w San Francisco Amerykanskiej Unii Geofizycznej, w którym uczestniczyło ponad 20,000 geofizyków.  Część z nich zajmuje się zmianami klimatu, ale są też sejsmolodzy, geodeci, oceanografowie, itp.   Na tych spotkaniach pokazuje się ostatnie wyniki naukowe, ale są też wygłaszane retrospektywne, przeglądowe seminaria. Jednym z takich seminariów było wystąpienie Graeme Stephensa.  Graeme Stephens zajmuje się wpływem promieniowania słonecznego  i podczerwonego na chmury, czyli  fizyką zmian klimatu.  Dla wyjaśnienia - w modelach symulujących klimat na podstawie równań opisujących zjawiska fizyczne w atmosferze i oceanie można, używając obliczeń komputerowych, przewidzieć zmiany klimatu powodowane,  dla przykładu, podwojeniem koncentracji dwutlenku węgla.  Modele takie  są przedmiotem krytyki ze strony przeciwników  badań zmian klimatycznych. Stephens nie jest przeciwnikiem badań  zmian klimatu. Mimo to,  wygłosił seminarium jakie można uznać za nieco heretyczne, jeżeli jest się bezkrytycznie po stronie zwolenników tezy o tym, że zmiany klimatu są już do końca wyjaśnione.   Przetłumaczyłem, z pewnymi zmianami,  wstęp wystąpienia Stephensa.  Warto powiedzieć, że krytyka Stephensa ma też receptę na wyjście z pewnego kryzysu badań zmian klimatu. Uważa on, że należy skoncentrować się na badaniach satelitarnych procesów  chmurowych w skali kuli ziemskiej, za pomoca aktywnych pomiarów – czyli  pomiarów radarowych lub lidarowych (patrz zdjęcie).

 

A-TRAIN

"Pociąg-A" - zestaw satelitów, które przylatują nad danym punktem nad Ziemią, w krótkim okresie czasu po sobie. Cześć z pomiarów odbywa się za pomocą radaru (CloudSat) i lidaru (CALIPSO), czyli aktywnych pomiarów teledetekcyjnych, dzięki którym można dostać informację o globalnej strukturze chmur i ich własnościach fizycznych takich jak wielkość kropel, opad, czy całkowita ilość wody (wodność chmur). Rezultaty "Pociągu-A" są wykorzytywane w eksperymentalnych wersjach modeli prognoz pogody do lepszego zrozumienia procesów chmurowych.

"Tematyką o jakiej będę mówił zajmuję się przez około 40 lat, od momentu kiedy byłem doktorantem. Zacząłem kiedy  oddziaływanie pomiędzy chmurami i promieniowaniem nie było ważnym przedmiotem badań w fizyce atmosfery. Związane było to z faktem, że modelowanie klimatu zaczęło się od numerycznych prognoz pogody.  W numerycznych prognozach pogody oddziaływanie pomiędzy chmurami i promieniowaniem słonecznym i podczerwonym nie jest aż tak istotne.  Kiedy zaczynałem swoje badania większość modeli klimatu miało wbudowane założenie, że pokrywa chmur zależy od szerokości geograficznej ale nie zależy od długości geograficznej.  Chmury  wpływały na promieniowanie słoneczne ale tak, żeby ogólny bilans energii  promieniowania słonecznego i podczerwonego był prawidłowy.   Innymi słowy,  nie było żadnych mechanizmów sprzężeń zwrotnych.  Miałem olbrzymie trudności, żeby przekonać modelarzy klimatu, że oddziaływanie promieniowania słonecznego z chmurami jest ważne.  Już na początku lat 1970 pokazałem w swoich pracach, że grubość optyczna chmur jest istotna. Wskazywałem też na fakt, że grubość optyczna chmur zależy od ilości wody w chmurach i dlatego musi to być ważny parametr.   Odpowiadano mi wtedy, że grubość optyczna chmur nie będzie używana w modelach klimatu.    Podobne uwagi dotyczyły opisu mikrofizyki chmur.   W roku 2011 widać dramatyczne przemiany -zarówno mikrofizyka chmur jak i grubość optyczna chmur są  używane jako parametry w modelach klimatu.  W moim referacie chciałbym  opowiedzieć o  postępie jaki nastąpił w opisie wpływu chmur na klimat.    Chciałbym się też zastanowić co jest powodem,  że badania zmian klimatycznych stanęły obecnie jakby w miejscu.  Czy jest recepta na to, żeby znowu nastąpił postęp?

 

Moim zdaniem  powodem dlaczego zmiany średniej temperatury na powierzchni Ziemi są trudne do oceny jest to, że oddziaływanie klimatu (ruchu powietrza i innych procesów zachodzacych w atmosferze) z chmurami jest skomplikowane, ma wiele różnych  aspektów,  jest zmienne w przestrzeni i w czasie, i  po prostu nie może zależeć od jednego parametru jakim jest średnia globalna temperatura na Ziemi. Skomplikowany  charakter oddziaływania klimatu z chmurami powoduje, że różne modele w różny sposób przewidują  te sprzężenia zwrotne.  Jeżeli  nie zmienimy myślenia to za dziesięć,  dwadzieścia lat nadal będziemy w tej samej sytuacji.  Mimo tych uwag uważam, że nastąpił ostatnio postęp w zrozumieniu procesów chmurowych.  Dla przykładu, jesteśmy bardzo blisko pełnego zrozumienia  w jaki sposób zachodzi transport wody i pary wodnej.  Moim  zdaniem fundamentalnym sposobem polepszenia modeli  klimatu jest zrozumienie  procesów fizycznych chmur w skali globalnej..."

Dla ekspertów:

1. Całość  wystąpienia Stephensa, łącznie z kilkoma referencjami,  jest na stronie AGU
http://vimeo.com/33321693

2. G. L. Stephens  był szefem projektu CloudSat.

3. CALIPSO z początku nazywał się PICASSO ale ze względu na znanego malarza zmieniono nazwę.  

 

sobota, 10 grudnia 2011

John Tyndall był naukowcem, opublikował 17 książek, i dzięki temu drobił się dużej forsy. Czego nie można powiedzieć o wszystkich naukowcach. 

W jednej, z nich (koło 1861) opisuje aparaturę do pomiaru efektu absorpcji energii cieplnej przez gazy. Tyndall użył galwanometru i termoelementów. W termoelemencie, z powodu różnicy pochłaniania promieniowania wytwarza się różnica temperatur. Ta różnica temperatur między końcami termobaterii wytwarza siłę elektromotoryczną powodująca wychylanie się wskazówki galwanometru.

aparatura 1861

Na rysunku widać tubę, to najdłuższy element, o wielkości około 1 metra. Za tubą stoi na stole po lewej stronie termoelement (takie jakby dwa lejki złączone czubkami), od którego wychodzą dwa druty, które idą do galwanometru na mniejszym i niższym stoliku obok. Za termoelementem jest ekran cieplny, trochę tylko pochłaniający ciepło. Ten ekran można przesuwać i dzięki temu regulować ilość ciepła padającego na termoelement z lewej strony. Za długą tubą po prawej stronie też jest źródło promieniowania cieplnego. Ono jest oddalone trochę dalej niż źródło ciepła po lewej stronie. Źródło promieniowania cieplnego to może być ogrzana kostka lub patelnia, no coś ciepłego. Tuba była w środku wypolerowana i zrobiona z mosiądzu dzięki czemu odbijała i nie absorbowała promieniowania podczerwonego (długofalowego, cieplnego – to wszystko to samo). Wyobraźmy sobie, ze termoelement jest ocieplany z prawej i lewej strony jednakowo. Wtedy nie ma różnicy temperatur i galwanometr nie powinien zmierzyć żadnego prądu. Jeżeli z tuby usunąć całe powietrze to można wtedy tak przesunąć ekran cieplny, żeby wskazówka galwanometru nie wychylała się. Następnie możemy przesłonić koniec tuby wypolerowanym metalem, który odbija promieniowanie podczerwone, wtedy całe ciepło przychodzące z prawej strony zostanie zasłonięte przez tę przesłonę i galwanometr pokaże różnicę związana z maksymalną różnicą temperatur po prawej stronie i lewej stronie termoelementu. Teraz najważniejsze. Do tuby wpuszczamy gaz, który absorbuje promieniowanie cieplne a oba końce tuby są zakończone szybkami, które przepuszczają promieniowanie cieplne, np sól kuchenna, myśl Wieliczka, ma takie właściwości. Termoelement po prawej stronie będzie inaczej ogrzewany niż po lewej stronie a odczyt galwanometru będzie proporcjonalny do absorpcji promieniowania cieplnego przez gaz. W ten sposób zmierzono po raz pierwszy efekt cieplarniany dwutlenku węgla.

Następnie pomysł, że dwutlenek węgla jest istotnym gazem cieplarniany nie był szeroko akceptowany,  aż do gdzieś tak lat 1960. 

 

Dla ekspertów

1. W 1951 roku w autorytatywnej książce o grubości cegły "Compendium of Meteorology"  ekspert od spraw zmian klimatu C. E. P. Brooks zaobserwował, że pomysł, że CO2 wpływa na zmiany klimatu popularyzowany przez Arrheniusa i Chamberlina, "nigdy nie był szeroko zaakceptowany wśród naukowców i został porzucony kiedy zorientowano się, że promieniowanie długofalowe absobowane przez CO2 jest także absorbowane przez parę wodną". Brooks uważał wyniki Callendara, korelujące CO2 z globalnymi zmianami klimatu za "przypadek". Uwaga dla przeciwników badań zmian klimatu: obecnie wiemy, że jest inaczej.

2. Pomysł na ten blog przeszedł mi do głowy po wykładzie Richarda Somervilla w czasie spotkania Amerykańskiej Unii Geofizycznej w grudniu 2011 w San Francisco. Podobny wykład Ryszard wygłosił w Dublinie w tym samym roku

http://www.youtube.com/watch?v=5maT2CunT08

środa, 07 grudnia 2011

Nowe rozporządzenie Ministra Nauki i Szkolnictwa Wyższego (22 września 2011) określa, że do wniosku o habilitację należy podać informację o działalności popularyzującej naukę. Ja robię tę popularyzację przez wpisy na tym blogu, które z kolei są najczęściej popularnonaukowym omówieniami artykułów jakie piszę na podobne tematy na Wikipedii (WP). Stan haseł naukowych na polskiej WP jest słaby dlatego, bo naukowcy nie mają specjalnej motywacji. Nie wydaje mi się, że nowa ustawa to zmieni. W pewnych dziedzinach – dla przykładu – zmianach klimatu, brak popularyzacji nauki prowadzi do katastrofalnych problemów - stąd zresztą ten blog. Oczywiście polskie środowisko naukowe jest płytkie w porównaniu do obszaru anglojęzycznego. Dlatego hasła naukowe na angielskiej Wikipedii są obszerniejsze. Jednak jednym ze sposobów pisania artykułów na WP jest tworzenie „stubów”, krótkich tekstów, w których zlinkowane są odnośniki do haseł angielskich - tzw. interwiki. Takie początkowe artykuły są ważne bo ustalają słownictwo. Bardzo często wymyślam nowe terminy naukowe, co jest pewnego rodzaju przyjemnością. Ostatnio tłumaczyłem na polski „rip current” i „undertow”. Ciekawe jak by „rip current” przetłumaczyli moi Czytelnicy - proszę sprawdzić jak ja to zrobiłem na WP. Wikipedię można też traktować jako duży notatnik naukowy. Wprawdzie istnieje nakaz „braku twórczości własnej”, ale nie trzeba od razu wpisywać swoich pomysłów naukowych, ale to co zrobiono do tej pory. Jeżeli pracuję nad nowym tematem, to wpisuję to na Wikipedię i potem mam spis odnośników jaki potrzebuję. Czasami wykorzystuję to jako sposób pracy ze studentem. Tak prowadziłem jedno magisterium z fizyki atmosfery i oceanografii. A czasami zadaję studentom pracę domową – wpis nowego hasła na Wikipedii. Pewien problem polega na tym, że prace magisterskie i doktorskie mają w Polsce nikomu niepotrzebne „wstępy”.  No i jak student wpisze coś na Wikipedię, to nie bardzo wiadomo czy to co ma w pracy magisterskiej jest jego czy nie – wprawdzie można to prześledzić przez historię wpisów - ale pojawia się sprawa „samoplagiatu”. Na WP są głosowania nad hasłami „na medal” i wtedy wymienia się kto jest autorem. A może zamiast nieznośnych „przeglądów literatury” w polskich pracach magisterskich i doktorskich nakazać ich wpisywanie na WP i przestać opowiadać o „samoplagiatach”? Inną metodą rozszerzania WP jest dokumentacja do stron sieciowych. Dla przykładu, od lat gromadzę na sieci programy do obliczeń rozpraszania światła na małych cząstkach, ale ostatnio dokumentację do tej strony sieciowej prowadzę prawie wyłącznie na WP

http://code.google.com/p/scatterlib/


Innym problemem z jakim borykają się naukowcy jest problem poprawek, jakie może na WP wprowadzić każdy. Mimo to, hasła wpisane przez specjalistów w naukach ścisłych zazwyczaj nie są modyfikowane. Wyjątkiem są hasła o dużym zabarwieniu społecznym - dla przykładu hasło o efekcie cieplarnianym. Innym problemem jest jakość haseł. Ale na poziomie studiów wyższych, gdzie studenci powinni samodzielnie myśleć, nie ma moim zdaniem problemu. Innymi słowy, Wikipedia jest tylko początkiem wyszukiwania informacji a zasada „weryfikowalności”, przestrzegana coraz bardziej na WP powoduje, że dobre hasło ma odnośniki do literatury naukowej. Innym sposobem pisania artykułów na Wikipedii, pewnie najlepszym, jest napisanie hasła, które jest na medal. Jest ich procentowo mało, ale satysfakcja czasami jest ze względu na dużą „czytalność”.  Tak, że jak popularyzować naukę to tylko na Wikipedii.

„Katastrofa zaczyna się wtedy kiedy chmura zniża się do Ziemi z wielkim hałasem często opisywanym jakby jechało tysiąc wagonów kolejowych na raz, albo jakby strzelało działo armatnie tylko, że jego dźwięk pozostawał słyszany w powietrzu przez kilka minut. Osoby, które były blisko tornada opisują czasami jego dźwięk, jak jakiś szczególny świszczący odgłos milionów pszczół, odgłos który zazwyczaj dochodzi wtedy kiedy chmury są wysoko nad powierzchnią Ziemi. Zazwyczaj ten dźwięk jest zagłuszony kiedy chmura dotyka Ziemi i kiedy zaczyna się zniszczenie ...”

 

tornado muzyka

 

Z powyższego opisu wydaje się, że dźwięki związane z tornadem mają dwojakie źródło. Jedno źródło to jest muzyczny ton opisywany jako świst lub buczenie a drugie związane jest z destrukcją jaka się zaczyna kiedy tornado dosięga Ziemi i wszystko dookoła zaczyna latać w powietrzu. Tornada są skoncentrowanymi wirami o różnej wielkości. Tornado może oscylować, a oscylacje mogą się propagować zarówno do góry i do dołu jak i w kierunku od i do osi tornada. Tornado może drgać tak jak powiększający się i zmniejszający się bąk. My jesteśmy w stanie usłyszeć dźwięk o częstotliwości powyżej 20 drgań na sekundę, chociaż słyszalność zależy to też od tego jak silne jest źródło. Okazuje się, że tornada śpiewają w częstotliwości odwrotnie proporcjonalnej do promienia. Tornado o średnicy 200m wydaje infradźwięki o częstotliwości ok. 1 razy na sekundę. Im mniejsze tornado tym dźwięk jest wyższy.

Infradźwięki (poddźwieki) są używane do oceny innych zjawisk w atmosferze, m.in. eksplozji jądrowych i do przewidywania gwałtownych zjawisk – tornad, burz, wybuchów wulkanów.