Blog poświęcony popularyzacji badań klimatycznych

Klimatologia

wtorek, 27 grudnia 2011

Problem z przejściem jachtem Przylądka Horn ze wschodu na zachód polega na tym, że silne wiatry są z zachodu i są one związane są z niżami, które przechodzą przez Cieśninę Drake’a raz na 2-5 dni. Ale ...  W lecie australijskim, które na Półkuli Południowej jest teraz, sztormy są rzadsze, ale ilość i intensywność sztormów jest zależna także od ogólnej różnicy ciśnienia pomiędzy szerokościami Cieśniny Drake’s (pomiędzy 55-60S) a ciśnieniem w szerokościach około 40S. Ta różnica średniego ciśnienia w dwóch pasmach wokół równoleżników na Ziemi (40S oraz 65S) jest po prostu jedną liczbą i zmienia się w czasie w skali 10 dni. Czasami jest dodatnia, a czasami jest ujemna. Dodatnia jest wtedy kiedy ciśnienie w pasie około 65S wokół ziemi jest niższe niż zazwyczaj, lub gdy wyż koło wybrzeży Chile na 40S, tzw. Wyż Południowego Pacyfiku, jest silniejszy niż zazwyczaj. Różnica ciśnienia powoduje kilka innych efektów. Jednym z nich są silniejsze wiatry kiedy różnica ciśnień jest większa. Ponieważ te zmiany ciśnienia zależą od czasu – mówimy o oscylacjach. Ponieważ są opisywane za pomocą jednej liczby, to nazywamy je „indeksem”. Stąd nazwa „Indeks Oscylacji Antarktycznej” (AAO). W modelach numerycznych prognozy jak i z pomiarów ciśnienia na Ziemi można policzyć Indeks Oscylacji Antarktycznej. Innymi słowy można zrobić prognozę jakie będę ogólne, w skali globu, warunki rozkładu ciśnienia. Na te stosunkowo wolne w skali czasowej oscylacje nakładają się przejściowe zaburzenia, czyli układy niżowe, których częstotliwość wzrasta kiedy indeks AAO jest większy.

Obecnie indeks AAO jest dodatni i przewidywania na początek stycznia są, że będzie się zmniejszał, ale zostanie dodatni. To oznacza, że średnia ilość systemów frontalnych i ich intensywność koło Przylądka Horn może być większa. Warto podkreślić, że indeksy tego typu pokazują prawdopodobieństwo zajścia pewnego zdarzenia. W rzeczywistości może być różnie i do tego wykorzystuje się modele numeryczne prognoz pogody. Indeks AAO ma także wpływ na wiatry koło Nowej Zelandii i Australii.

 aao

Prognoza Indeksu Oscylacji Antarktycznej z kilkunastu przebiegów modelu globalnej prognozy pogody (tzw wiązki prognoz). Prognoza na początek stycznia 2012 utrzymuje dodatni indeks AAO. Na osi x jest czas na osi y indeks AAO. Czerwone kreski na górnym diagramie pokazują zakres możliwych indeksów dla róznych przebiegów modelu (wiązki modelu).

Dla ekspertów:

1. Indeks AAO ma także nazwę SAM (Southern Annular Mode) i jest coraz częściej liczony za pomocą empirycznych funkcji ortogonalnych (odchodzi się od indeksów liczonych na podstawie różnic ciśnień w wybranych stacjach).

2. Indeks AAO ma znaczenie dla zmian klimatu bo istnieje korelacja pomiędzy temperaturą Przylądka Antarktycznego i AAO.

środa, 14 grudnia 2011

Kilka dni temu odbyło się spotkanie w San Francisco Amerykanskiej Unii Geofizycznej, w którym uczestniczyło ponad 20,000 geofizyków.  Część z nich zajmuje się zmianami klimatu, ale są też sejsmolodzy, geodeci, oceanografowie, itp.   Na tych spotkaniach pokazuje się ostatnie wyniki naukowe, ale są też wygłaszane retrospektywne, przeglądowe seminaria. Jednym z takich seminariów było wystąpienie Graeme Stephensa.  Graeme Stephens zajmuje się wpływem promieniowania słonecznego  i podczerwonego na chmury, czyli  fizyką zmian klimatu.  Dla wyjaśnienia - w modelach symulujących klimat na podstawie równań opisujących zjawiska fizyczne w atmosferze i oceanie można, używając obliczeń komputerowych, przewidzieć zmiany klimatu powodowane,  dla przykładu, podwojeniem koncentracji dwutlenku węgla.  Modele takie  są przedmiotem krytyki ze strony przeciwników  badań zmian klimatycznych. Stephens nie jest przeciwnikiem badań  zmian klimatu. Mimo to,  wygłosił seminarium jakie można uznać za nieco heretyczne, jeżeli jest się bezkrytycznie po stronie zwolenników tezy o tym, że zmiany klimatu są już do końca wyjaśnione.   Przetłumaczyłem, z pewnymi zmianami,  wstęp wystąpienia Stephensa.  Warto powiedzieć, że krytyka Stephensa ma też receptę na wyjście z pewnego kryzysu badań zmian klimatu. Uważa on, że należy skoncentrować się na badaniach satelitarnych procesów  chmurowych w skali kuli ziemskiej, za pomoca aktywnych pomiarów – czyli  pomiarów radarowych lub lidarowych (patrz zdjęcie).

 

A-TRAIN

"Pociąg-A" - zestaw satelitów, które przylatują nad danym punktem nad Ziemią, w krótkim okresie czasu po sobie. Cześć z pomiarów odbywa się za pomocą radaru (CloudSat) i lidaru (CALIPSO), czyli aktywnych pomiarów teledetekcyjnych, dzięki którym można dostać informację o globalnej strukturze chmur i ich własnościach fizycznych takich jak wielkość kropel, opad, czy całkowita ilość wody (wodność chmur). Rezultaty "Pociągu-A" są wykorzytywane w eksperymentalnych wersjach modeli prognoz pogody do lepszego zrozumienia procesów chmurowych.

"Tematyką o jakiej będę mówił zajmuję się przez około 40 lat, od momentu kiedy byłem doktorantem. Zacząłem kiedy  oddziaływanie pomiędzy chmurami i promieniowaniem nie było ważnym przedmiotem badań w fizyce atmosfery. Związane było to z faktem, że modelowanie klimatu zaczęło się od numerycznych prognoz pogody.  W numerycznych prognozach pogody oddziaływanie pomiędzy chmurami i promieniowaniem słonecznym i podczerwonym nie jest aż tak istotne.  Kiedy zaczynałem swoje badania większość modeli klimatu miało wbudowane założenie, że pokrywa chmur zależy od szerokości geograficznej ale nie zależy od długości geograficznej.  Chmury  wpływały na promieniowanie słoneczne ale tak, żeby ogólny bilans energii  promieniowania słonecznego i podczerwonego był prawidłowy.   Innymi słowy,  nie było żadnych mechanizmów sprzężeń zwrotnych.  Miałem olbrzymie trudności, żeby przekonać modelarzy klimatu, że oddziaływanie promieniowania słonecznego z chmurami jest ważne.  Już na początku lat 1970 pokazałem w swoich pracach, że grubość optyczna chmur jest istotna. Wskazywałem też na fakt, że grubość optyczna chmur zależy od ilości wody w chmurach i dlatego musi to być ważny parametr.   Odpowiadano mi wtedy, że grubość optyczna chmur nie będzie używana w modelach klimatu.    Podobne uwagi dotyczyły opisu mikrofizyki chmur.   W roku 2011 widać dramatyczne przemiany -zarówno mikrofizyka chmur jak i grubość optyczna chmur są  używane jako parametry w modelach klimatu.  W moim referacie chciałbym  opowiedzieć o  postępie jaki nastąpił w opisie wpływu chmur na klimat.    Chciałbym się też zastanowić co jest powodem,  że badania zmian klimatycznych stanęły obecnie jakby w miejscu.  Czy jest recepta na to, żeby znowu nastąpił postęp?

 

Moim zdaniem  powodem dlaczego zmiany średniej temperatury na powierzchni Ziemi są trudne do oceny jest to, że oddziaływanie klimatu (ruchu powietrza i innych procesów zachodzacych w atmosferze) z chmurami jest skomplikowane, ma wiele różnych  aspektów,  jest zmienne w przestrzeni i w czasie, i  po prostu nie może zależeć od jednego parametru jakim jest średnia globalna temperatura na Ziemi. Skomplikowany  charakter oddziaływania klimatu z chmurami powoduje, że różne modele w różny sposób przewidują  te sprzężenia zwrotne.  Jeżeli  nie zmienimy myślenia to za dziesięć,  dwadzieścia lat nadal będziemy w tej samej sytuacji.  Mimo tych uwag uważam, że nastąpił ostatnio postęp w zrozumieniu procesów chmurowych.  Dla przykładu, jesteśmy bardzo blisko pełnego zrozumienia  w jaki sposób zachodzi transport wody i pary wodnej.  Moim  zdaniem fundamentalnym sposobem polepszenia modeli  klimatu jest zrozumienie  procesów fizycznych chmur w skali globalnej..."

Dla ekspertów:

1. Całość  wystąpienia Stephensa, łącznie z kilkoma referencjami,  jest na stronie AGU
http://vimeo.com/33321693

2. G. L. Stephens  był szefem projektu CloudSat.

3. CALIPSO z początku nazywał się PICASSO ale ze względu na znanego malarza zmieniono nazwę.  

 

piątek, 21 października 2011

Przypuszczam, że ta informacja będzie dyskutowana na wszystkich blogach klimatycznych w Polsce i zastanawiałem się nawet czy ten wpis ma sens. Ale -  grupa Richarda Mullera opublikowała wyniki analizy temperatury Ziemi. Muller napisał  20 pażdziernika 2011 w Wall Street Journal, że:

"Kiedy zaczynaliśmy nasze badania, przeciwnicy badań zmian klimatycznych wysuwali  rozmaite zastrzeżenia,  które wydawały się rozsądne. Zaczęliśmy badania nie wiedząc jakie otrzymamy wyniki. Okazało się jednak, że nasze rezultaty są bliskie do tych jakie zostały już opublikowane przez inne grupy badawcze. Wobec tego wydaje nam się,  że grupy te przeprowadziły bardzo uważną analizę -  mimo, że nie udało im się przekonać o tym krytyków. Grupy te nie popełniły systematycznych błędów w wyborze danych, ujednorodnieniu danych, i przy wprowadzaniu innego rodzaju poprawek.  Globalne ocieplenie zachodzi. Być może nasze rezultaty pomogą ostudzić tę część debaty na temat klimatu."

Richard Muller należał do sceptyków poprawności badań przeprowadzonych przez grupy w NASA GISS (Hansen),  HadCru (w Anglii), oraz Narodowego Ośrodka Meteorologii i Ocanografii USA oraz rekonstrukcji temperatury przeprowadzonych przez Michaela Manna.  Przeciw tym ośrodkom toczyły się niedawno nagonki personalne. W Polsce prym w tym  wiódł m.in. Łukasz Turski i Zbigniew Jaworowski. 

Niewąpliwie jest to dla fizyków atmosfery i badaczy zmian klimatycznych dzień, w którym moga powiedzieć "a nie mówiliśmy".  

Mimo to zastanawiam się do jakiego stopnia powinniśmy tryumfować. Otóż grupa Mullera, złożona z 10 osób przeprowadziła analizę w stosunkowo szybkim czasie (1-2 lata). Wygląda na to, że wyniki są dobrze opracowane (chociaż 4 artykuły jakie ta grupa wysłała do publikacji w JGR nie są jeszcze zrecenzowane).  Napisałem wczoraj do Judith Curry, jednej z autorek raportu Mullera, która odpisała, źe wyniki Mullera są lepiej opracowane niż te dostępne do tej pory i były tańsze (grupa ta dostała około $500,000 na badania). Do jakiego stopnia jest to wynikiem stopniowego postępu budowania na tym co już zostało zrobione, a do jakiego stopnia wynikiem jakościowej zmiany w analizie danych, pozostaje dla mnie sprawą do wyjaśnienia.

piątek, 30 września 2011

Niby nic skomplikowanego – a jednak. Zastanówmy się co widać na rysunku poniżej. Górny rysunek to ilość pary wodnej w powietrzu w gramach pary wodnej na kilogram powietrza. Kilogram powietrza przy powierzchni Ziemi to około 1 metr sześcienny. Natomiast dolny rysunek pokazuje wilgotność powietrza w procentach. 100% odpowiada powietrzu, które jest całkowicie nasycone parą wodną, a 0% odpowiada powietrzu, które jest suche. Na osi poziomej jest szerokość geograficzna, a na osi pionowej jest ciśnienie. Na powierzchni Ziemi ciśnienie jest 1000 hPa (hekto Pascal) a  wysoko w atmosferze  ciśnienie jest na tym rysunku 100 hPa. Szerokość geograficzna 0 to jest równik. Szerokości około tropikalne są poniżej 30 stopni w stronę równika. Dodatnie szerokości to półkula północna, gdzie leży Polska.   

 

 q oraz RH

 

Na pierwszy rzut oka widać, że rozkład ilości pary wodnej i wilgotności są bardzo różne od siebie. Rozkład ilości pary wodnej jest dość intuicyjny. W  cieplejszym klimacie  ilość pary wodnej jaką powietrze może utrzymać bez skraplania jest większa i może dochodzić nawet do kilkunastu gramów na metr sześcienny. Widać, że na równiku jest więcej pary wodnej nie tylko przy Ziemi ale w całej kolumnie powietrza od Ziemi do górnej warstwy.  Okazuje się też, że ilość pary wodnej zmienia się znacznie z wysokoścą. Mniej więcej o połowę co jeden kilometr. Np jeżeli na powierzchni Ziemi jest 20 gramów  to na wysokości 1 kilometra nad Ziemią jest  10 gramów na kilogram, na 2 kilometrach jest 5 gramów na kilogram,  itd. Ten spadek ilości pary wodnej z wysokością powoduje, że większość pary wodnej jest w dolnej atmosferze – proszę zwrócić uwagę, że skala po lewej stronie jest logarytmiczna a nie liniowa! Podobną zależność od temperatury widać też pomiędzy obszarami polarnymi (szerokość geograficzna około 90) a równikiem. Ilość pary wodnej w atmosferze maleje drastycznie w obszarach polarnych.  Tak, że większość pary wodnej jaka przyczynia się do opadów w umiarkowanych szerokościach geograficznych (np w Polsce) pochodzi z obszarów około tropikalnych.   Okazuje się też, że ta olbrzymia ilość pary wodnej  w obszarach równikowych powoduje, że para wodna przy powierzchni Ziemi działa wprawdzie jako gaz cieplarniany, ale nie ma większego wpływu podczas zmian klimatycznych.  Jest tak, ponieważ w podczerwieni para wodna zachowuje się na dużym obszarze Ziemi prawie jak  chmura położona blisko powierzchni. Dodanie większej ilości pary wodnej i tak by już nic nie zmieniło. Dlatego para wodna jest istotna klimatycznie głównie tam gdzie jest jej mało.

Dolny rysunek jest jeszcze bardziej intrygujący. Porównująć oba rysunki, górny i dolny widzimy,  że ilość pary wodnej nie ma bezpośredniego wpływu na wilgotność powietrza. Transport pary wodnej z oceanu zależy od prędkości wiatru – czym szybciej wieje tym więcej pary wodnej przedostaje się z wody do powietrza,  i od  wilgotności powietrza blisko nad oceanem. Jeżeli wilgotność jest bliska nasyceniu pary wodnej w powietrzu to tyle samo pary skrapla się co paruje i transport z oceanu jest mały. Intrygujące jest to, że na całej prawie kuli ziemskiej przy powierzchni Ziemi wilgotnośc jest około 80% - kolor niebieski.  Wiemy, że wilgotność przy samej powierzchni Ziemi nie może być 100% bo wtedy nie byłoby transportu pary wodnej do górnych warstw atmosfery.  Natomiast bardzo sucha atmosfera przy powierzchni Ziemi powodowałaby olbrzymi transport pary wodnej.  Większośc modeli klimatycznych przewiduje, ze nawet podczas zmian klimatycznych te 80%  nie zmieni się. Jest to ciekawe i zaskakujące, ponieważ wilgotność w atmosferze nie jest regulowana przez samą temperaturę, ale także przez to jak wieją wiatry. Popatrzmy się teraz na wąski obszar około -10 na Półkuli Południowej szerokości geograficznej  - bo to jest rysunek z grudnia-lutego. W tym obszarze od powierzchni Ziemi do górnych warstw wilgotność jest dośc stała - około 60%  (kolor zielony). Jest to stosunkowo wąski obszar strefy konwergencji powietrza (ITCZ), gdzie  tworzą się wysokie deszczowe i burzowe chmury. Dlaczego w tym obszarze wilgotność jest w całej kolumnie powietrza wysoka?  Nie jest to takie oczywiste -przecież deszcz to jest skondensowana para wodna a skoro w tym obszarze pada dużo deszczu, to wilgotnośc powinna być być może mała a nie duża?  Wytłumaczenie nie jest proste. W pewnym przybliżeniu dzieje się tak, bo chmury deszczowe powstają tylko tam gdzie powietrze jest wilgotne (dokładniejsze wytłumaczenie na inny oddcinek). Innym intrygującym obszarem jest  podwyższona wilgotność w górnych warstwach  atmosfery blisko równika  - niebieski kolor na 200hPa pomiędzy  szerokością -15 półkuli południowej i 15 półkuli północnej. Ten obszar jest związany z prądami wstępującymi w chmurach  burzowych i unoszeniem kropel wody i kryształów lodu, które następnie parują w górnych warstwach atmosfery podwyższając jej wilgotność. Natomiast dwa czerwone „migdały” bardzo suchego powietrza (pomiędzy 20-40%) związane są z osiadaniem powietrza w obszarach około tropikalnych.  Para wodna jest transportowana z tropików do obszarów około tropikalnych ale dzieje się to jakby w olbrzymiej pralce (komórce Hadleya), gdzie przy jednej ściance powietrze się unosi, a przy drugiej opada.

Dla ekspertów:


Rysunek jest z niedawnego artykułu przeglądowego: Sherwood, S. C., R. Roca, T. M. Weckwerth, and N. G. Andronova (2010), Tropospheric water vapor, convection, and climate, Rev. Geophys., 48, RG2001, doi:10.1029/2009RG000301.

czwartek, 07 października 2010

Niedawno rozpoczęła się wystawa obrazów Monet’a w paryskim Wielkim Pałacu. Prezydent Francji Sarkozy napisał notę do katalogu i wystawa ma niebywałe powodzenie wśród koneserów sztuki.  Monet był impresionistą, który wielokrotnie wracał do tych samych miejsc i malował je za każdym razem nieco inaczej. W oceanografii i meteorologii mówimy o danym miejscu „stacja”. Oceanografowie przez lata wracają do tej samej stacji na oceanie, chociaż jest to tylko pusta przestrzeń wody,  i robią tam pomiary. Mówią wtedy, że stacja jest “obsadzona”.  Najbardziej znane stacje oceanograficzne  są z eksperymentu WOCE (Światowego Eksperymentu Cyrkulacji Oceanograficznej). Statek pomiarów pogody PAPA (145W, 50N) jest legendarny.

Podobnie jak statek PAPA słynne są obrazy Moneta przedstawiające katedrę w  Rouen w róznych blaskach słońca. Artykuł  w New York Times (4 pażdziernik 2010) opisujący wystawę podkreśla, że obrazy Monet’a  nie są tylko „meteorologią” i zawieraja  dużą dozę emocji związanych z przywoływaniem pamięci. Nie przez przypadek, pisze autor recenzji z wystawy, Marcel Proust (twórca „W poszukiwaniu straconego czasu”) był wielbicielem Moneta.  Wystawa w Wielkim Pałacu nie jest zorganizowana chronologicznie ale według stacji. Meteorolog i oceanograf także przywiązuje się do tych samych miejsc i bada je znajdując przyjemność w małych różnicach – mówimy o tych różnicach „anomalie”. Nie ma dwóch zdań - Monet w „Katedrze Rouen”  przedstawia anomalie pogodowe. Podobnie zresztą  jest w „Liliach wodnych” gdzie liście, odbicie chmur, nieskończone przestrzenie przywołują pamięć o straconym czasie i anomaliach pogodowych.

Popatrzmy się  teraz na serię obrazów „Budynek Parlamentu w Londynie”. Wszystkie obrazy zostały stworzone na płótnach o identycznych rozmiarach. W Wikipedii jest napisane, że pierwsze prace Moneta różnią się od tych późniejszych. Rzeka i budynki przedstawione są na nich w sposób bardziej obojętny, pasywny i spokojny. Na pracach z późniejszego okresu można dostrzec ostrzejsze, bardziej agresywne i dynamiczne formy. Część z obrazów posiada dodatkowe zdania w tytule, które precyzują uchwycone warunki atmosferyczne  - "Efekt mgły", "Słońce wschodzące we mgle", czy "Zachód słońca".

http://pl.wikipedia.org/wiki/Budynek_Parlamentu_w_Londynie

 

 

 W 2007 profesor Christos Zerefos i jego współpracownicy przebadali 554 obrazów namalowanych przez 181 malarzy (m.in. Rubensa, Rembrandta, Gainsborougha) pomiędzy latami 1500-1900.  Za pomocą programu komputerowego ocenili proporcję kolorów nieba. Ponieważ małe cząstki w atmosferze rozpraszają światło w zależności od koloru to na tej podstawie można było ocenić czy zachód słońca był związany z wybuchami wulkanów. W swojej pracy profesor Zerefos i jego grupa znaleźli 54 obrazy z „typowo wulkanicznym zachodem słońca”. Praca została opublikowana w   czasopiśmie “Atmospheric Chemistry and Physics” i jest bezpłatnie dostępna

http://www.atmos-chem-phys.net/7/4027/2007/acp-7-4027-2007.html

sobota, 07 sierpnia 2010

Historia nauki usiana jest nieudanymi próbami korelacji aktywności słońca z pogodą. Charles Greely Abbot był przez około 40 lat dyrektorem słynnego ośrodka Smithsonian Astrophysical Observatory w Stanach Zjednoczonych. 
http://pl.wikipedia.org/wiki/Charles_Greeley_Abbot

Prowadził  pomiary korelacji pomiędzy aktywnościa słońca i pogodą.  Z tych korelacji postawił hipotezę, że pogodę można przewidzieć nie tylko na dzień, ale także na wiele miesięcy do przodu. Wiadomo było, że pomiary stałej słonecznej z powierzchni Ziemi obarczone są systematycznym błędem pomiarowym związanym z czynnikami atmosferycznymi - dla przykładu ilością pary wodnej w atmosferze. Abbot starał się zminimalizować te efekty i ustanowił stację pomiarową w miejscach gdzie taki wpływ był stosunkowo mały – m.in. w Andach (stacja na południe od Calama a następnie stacja na Montezuma). Abbot prowadził też pomiary na stacji w USA (w kilku kolejnych lokalizacjach, m.in.  koło Mount Wilson). Pomysły Abotta doprowadzały do szału dyrektora amerykańskiego Biura Meteorologicznego Charlsa Marvina,  który twierdził że używanie pomiarów stałej słonecznej na jednej stacji w Ameryce Południowej do prognozy pogody jest absurdem.  Marvin uważał, że należy przeprowadzać więcej pomiarów, i że zmiany obserwowane przez Abbotta były związane ze stanem atmosfery. Na co Abbott odpowiadał, że nie ma to najmniejszego znaczenia, bo i tak najważniejsze jest to ile promieniowania słonecznego dochodzi do Ziemi. W roku 1926 w prasie pojawiły się artykuły, że tępe głowy w Biurze Meteorologicznym nie mogą zrozumieć rewolucyjnych metod prognozy pogody opracowanych przez Abbota.  Biuro Prognoz odszczekiwało, że Abbot nie wie co mówi. Minister Rolnictwa był tak zezłoszczony, że zakazał szefowi Biura Prognoz rozmów z repoterami i poprosił go grzecznie, żeby ten się zamknął.  Do końca życia Abbot twierdził, że miał rację i że stała słoneczna zmienia się pomiędzy 3-10%.  Obecnie wiemy, że te wyniki były obarczone systematycznym błędem związanym ze zmiennością atmosfery. Pomiary stalej słonecznej z powierzchni  Ziemi były niedostatecznie precyzyjne. Dopiero pomiary satelitarne stałej słonecznej (obecnie mówimy -  całkowitej irradiancji Słońca) od początku lat 1970 dały znaczne lepsze zrozumienie zmienności dochodzącego promieniowania słonecznego.

Napisałem na  temat stałej słonecznej artykuł na Wikipedii, który dostał medal, ale teraz mniej mi się podoba, no ale link jest tutaj -
http://pl.wikipedia.org/wiki/Stała_słoneczna

środa, 28 lipca 2010

W Polsce nie ma nowoczesnych polskich podręczników uniwersyteckich z zakresu fizyki atmosfery i badań klimatu, nie ma też tłumaczeń. Popularyzacja każdej nauki jest trudna. Podręczniki uniwersyteckie są jednym z elementów tej popularyzacji.

Popatrzymy się na Wydział Fizyki Atmosfery w Uniwersytecie Washingtona (UW) w Seattle. Profesorowie tego wydziału napisali ponad 20-30 podręczników, które są używane w wykładach fizyki atmosfery i badań klimatycznych na całym świecie.
http://www.atmos.washington.edu/about/books.shtml

Zacznijmy od dobrego wstępu do fizyki atmosfery napisanego przez dynamika atmosfery Johna Wallace i fizyka chmur Petera Hobbsa:  Nauka o atmosferze (ang. Atmospheric Science: An Introductory Survey). Książka jest używana w wykładach do wstępu fizyki atmosfery. Sam Peter Hobbs, który zajmował się badaniem chmur napisał też książki o chemii atmosfery.  

  

 

Następnie trzeba wymienić słynną książkę Jima Holtona „Wprowadzenie do dynamiki atmosfery” (An Introduction to Dynamic Meteorology), która jest używana do wykładów z dynamiki atmosfery czyli opisu jak prawa fizyki determinują przepływ powietrza. Nie ma chyba wydziału fizyki atmosfery na świecie gdzie ta książka nie byłaby używana.

 

Bob Houze napisał podręcznik “Dynamika Chmur” (Cloud Dynamics). Książka jest podstawowym podręcznikiem w wykładach zjawisk chmurowych o rozciągłości od kilku do kilkuset kilometrów (mezoskala) – dla przykładu powstawaniu tornad, systemów chmurowych o skali wielkości Polski.  Houze jest specem m.in. od obserwacji radarowych.

Klimatologia jest reprezentowana przez książkę „Wielkoskalowa klimatologia fizyczna” (Global physical climatology) napisaną przez Dennisa Hartmana, który wykłada klimatologię na UW.  

Istnieje dział meteorologii zajmujący się warstwą graniczną, czyli obszarem blisko powierzchni Ziemi. Warstwa graniczna opisywana jest za pomocą technik mechaniki cieczy – dlatego bo powietrze płynie. Jeden z profesorów z UW napisał dwie książki na ten temat: „Anlityczne metody planetarnej warstwy granicznej” oraz  „Mechanika cieczy w atmosferze”.

Modelowanie klimatu opiera się w dużej mierze na metodach komputerowych.  Równania ruch powietrze przybliża się za pmocą technik numerycznych, gdzie używa się meteodologii stosowanej  matematyki.  Podręcznik na ten temat napisał Dale Durran „Numeryczne metody równań falowych w geofizycznej dynamice cieczy”.

Wymienłem tylko kilka z kilkunastu książęk wydanych przez profesorów jednego wydziału fizyki atmosfery w Stanach.  Nie wiem jak oni to robią. Wydaje się, że pewien kanon książek powinien być jednak tłumaczony.

PS Uwaga, trochę oszukuję; wtajemniczeni wiedzą, że Wydział Fizyki Atmosfery w UW jest unikalny jeżeli chodzi o książki.  

wtorek, 27 lipca 2010

Dziś będzie o łatwości formułowania pomysłów w klimatologii czyli o sprzężeniach zwrotnych. Globalne ocieplenie nie jest jedynym tematem naukowym ważnym obecnie społecznie a mimo to wzbudza najwiecej kontrowersji.  Z teorią inteligentnego projektu, badaniami komórek  macierzystych, czy aspektami biologii molekularnej są związane podobne emocje, ale raczej ze stroną etyczną badań; natomiast rzadko kwestionowane są bezpośrednie pomiary a nawet interpretacje pomiarów.  Natomiast w badaniach klimatu proponowane są nagminnie alternatywne interpretacje pomiarów i krytykowana jest metodologia naukowa. Jednym z powodów  jest chyba pozorna łatwość tworzenia hipotez oddziaływania  pomiędzy sobą różnych składników systemu atmosfery i oceanu i stosunkowo duża trudność w weryfikacji hipotez.  Starałem się na ten temat napisać  kiedyś hasło na polskiej Wikipedii, nie jest ono skończone i przyznaję, że nie mam do niego serca,  ale to okazja, żeby wytłumaczyc o co chodziło. Żeby być adwokatem diabła wymieniłem w tym haśle wiele możliwych meachnizmów. Kilka z nich – hipoteza tęczówki, efekt motyla, CLAW, dwutlenek węgla, pyły zawieszone, termostat - poniżej.

http://pl.wikipedia.org/wiki/Zmiana_klimatu

Hipoteza tęczówki w meteorologii to kontrowersyjny mechanizm  klimatycznego sprzężenia zwrotnego wiążącego parę wodną, temperaturę oceanu, i pokrywę wysokich chmur w tropikach.  Według tej hipotezy klimatycznej zwiększona temperatura oceanu związana z globalnym ociepleniem prowadzi do zmniejszenia pokrywy chmur w atmosferze tropikalnej. W związku z tym powierzchnia ziemi może wyemitować więcej energii cieplnej - co prowadzi do oziębienia. Zwiększona ilość pary wodnej, w tej hipotezie, prowadzi do stabilizacji klimatu. Nazwa ''tęczówka'' jest analogią do fizjologii oka,  którego tęczówka może się zwężać lub rozszerzać regulując ilość dochodzącego światła.

Efekt motyla.  Jest to hipoteza mówiąca o telekonekcjach (oddziaływania na odległość) pomiędzy zjawiskami pozornie nie związanymi ze sobą. W szczególności uważa się, że małe lokalne zaburzenie w przepływie powietrza może powodować duże zaburzenie przepływu w znacznej odległości od początkowego zaburzenia. Hipoteza ta, tłumaczy dlaczego zjawiska pogodowe są trudne do prognozowania.

W 1987  Charlson,  Lovelock,  Andreae oraz Warren zaproponowali, że wzrastająca temperatura Ziemi doprowadzi do rozwoju większej ilości fitoplanktonu. Wiele typów fitoplanktonu produkuje propionian siarczku metylu, który jest przekształcany na siarczek metylu (DMS). Obecność DMS w atmosferze prowadzi do zwiększonej ilości aerozoli siarczanowych. Autorzy zakładają, że dzięki DMS powstają chmury nad oceanami. Chmury zwiększają ilość promieniowania słonecznego odbitego co powoduje zmniejszenie temperatury powierzchni Ziemi. Hipoteza CLAW jest przykładem ujemnego sprzężenia zwrotnego.

Termostat. Inną z hipotez ogólnych zmian klimatu jest oddziaływanie chmur lodowych typu cirrostratus i ich wpływ na regulacje temperatury oceanu w atmosferze tropikalnej. Obserwuje się, że w tropikach temperatura oceanu prawie nigdy nie przekracza pewnej granicznej temperatury.  Hipoteza kontroli temperatury oceanu w tropikach zakłada, że  zwiększona temperatura oceanu powoduje powstawanie najpierw wypiętrzonych chmur cumulus, a potem rozległych chmur cirrus. Chmury te odbijają promieniowanie słoneczne dochodzące do Ziemi i zmniejszają jej temperaturę. Jest to przykład  ujemnego sprzężenia zwrotnego.

Jedną z najbardziej głośnych hipotez jest absorpcja promieniowania podczerwonego przez gaz cieplarniany, np  dwutlenek węgla. Gazy te absorbują promieniowanie przez co zwiększają temperaturę Ziemi i atmosfery. . Bezpośredni efekt absorpcji promieniowania ziemskiego przez dwutlenek węgla jest mały. Jednak efekty wtórne związane ze zwiększoną ilością para wodną w atmosferze mogą spowodować zmianę w pokrywie chmur i w efekcie znacznie większe zmiany klimatyczne.

Aerozole. Hipoteza oziębiającego wpływu aerozoli atmosferycznych (pyłów zawieszonych) związana jest z ich własnościami odbijania promieniowania słonecznego z powrotem w przestrzeń kosmiczną. Przez wiele lat myślano o aerozolach (czyli cząstkach siarczanów, pyłach mineralnych, aerozolu soli morskiej) jako o cząstkach głównie odbijających. Obecnie coraz częściej bada się rolę aerozoli związków węglowo-grafitowych (sadza), które są w stanie absorbować promieniowanie atmosferyczne.

Istnieje więcej hipotez i pytanie polega na tym, które z nich, a może wszystkie razem, realizowane są w atmosferze?  Z punktu widzenia rozwoju nauki nie ma absolutnie nic złego w formułowaniu błędnych hipotez - każdy naukowiec czy amator z największą przyjemnością zaproponuje alternatywny pomysł. Weryfikacja hipotez klimatycznych jest czasami trudna. Mimo, że (1) modelowanie numeryczne jest obecnie jednym z najbardziej znanych sposobów sprawdzania sprzężeń zwrotnych – i najczęściej krytykowany - to nie jest to sposób jedyny. Innymi technikami są (2) eksperymenty w naturze, (3) badania paleoklimatyczne, (4) pomiary bezpośrednie i satelitarne.   Dla przykładu - wpływ cząsteczek zawieszonych w powietrzu można badać w rejonach styku czystego powietrza z powietrzem zanieczyszczonym – pomiędzy Indiami i czystymi rejonami południowego  Oceanu Indyjskiego. Efekt termostatu (wpływu temperatury na chmury) można badać w obszarach tropikalnych gdzie są różnice zachmurzenia pomiędzy basenami (oceanografowie myślą o bardzo dużych basenach).   Pewne hipotezy – np o tym jak temperatura wpływa na rozkład wilgotności w atmosferze można badać na podstawie pomiarów bezpośrednich i metod satelitarnych.

Z hipotezami jest ten problem, ze czasami pozostają tylko hipotezami. Mimo to przeciwnicy badań zmian klimatycznych w Polsce opisują te hipotezy jako teorie – czyli jako coś sprawdzonego; to jest irytujące. Natomiast bycie sceptycznym jest w normie.

sobota, 17 lipca 2010

W ostatnich 3 miesiącach Narodowe Centrum Badań Atmosferycznych  wypuściło dwa modele klimatu. W kwietniu 2010 oddano do użytku czwartą wersję Publicznego Modelu Klimatu, a 25 czerwca 2010 nowy  Publiczny Model Ziemi. Oba modele będą częścią projektu Porównanie Modeli Klimatu (CMIP), do którego wchodzi wiele modeli klimatycznych z całego świata a wyniki z tego projektu stanowią częściowo podstawy raportów IPCC.  Nowy model Ziemi jest w zamyśle szerszy niż dotychczasowe modele klimatyczne i ma za zdanie zrozumienie jednoczesnych zmian zachodzących w atmosferze (do 500 kilometrów nad powierzchnią Ziemi), oceanie, i na powierzchni Ziemi. Nowy model pozwala na badanie wpływu zmian klimatu przy znanej informacji o temperaturze oceanu. Większość opisów różnego rodzaju procesów fizyczych została poprawiona. Model został dostrojony (tj. zmieniane są parametry opisu  procesów fizycznych) poprzez sprawdzenie czy przewiduje prawidłowo klimat XX wieku.  Największe zmiany zostały wprowadzone w opisie procesów chemicznych w atmosferze, m.in. sposobu rozchodzenia się zanieczyszczeń (pyły, siarczany, sól morska).  Ciekawa jest też strona komputerowa. Modele klimatyczne zawsze stanowiły bardzo skomplikowany problem obliczeniowy, do którego wykorzystuje się superkomputery.

 

Modele klimatu nowej generacji mają tzw. „łączniki” (ang. couplers) pomiędzy różnymi podystemami, które wymieniają pomiędzy sobą informację o strumieniach (m.in. ciepła) – dla przykładu pomiędzy oceanem i atmosferą. Tego typu łączniki są potrzebne bo procesy w oceanie i w atmosferze mają różne skale czasowe zmian (np woda ma większą pojemność cieplną i własności oceanu zmieniają się wolniej).  Nowa struktura obliczeniowa (tzw. „rdzeń dynamiczny modelu”) pozwala na liczenie zmian klimatu zarówno na małych komputerach jak i na superkomputerach z kilka tysiącami procesorów. Rdzeń dynamiczy oblicza przepływ powietrza i oceanu pod wpływem róznego rodzaju sił działających na cząstki powietrza i wody. Nowy model jest opisany na stronie
http://www.cesm.ucar.edu/

A wyniki są opublikowane tutaj
http://www.cesm.ucar.edu/experiments/cesm1.0/diagnostics/

Raporty IPCC V mają się ukazać poczynając od 2013 roku.
http://www.ipcc.ch/activities/activities.htm

Nad V raportem IPCC pracuje ponad 800 osób.

niedziela, 11 lipca 2010

W  styczniu 1916 Charles Hatfield zatopił San Diego. W 1915 roku zasoby wody dla San Diego, po kilku latach suszy,  były niebezpiecznie obniżone. Rada miasta postanowiła wynająć  Hatfielda i zapłacić 10,000 dolarów gdyby wywołał deszcz.  Hatfield ustawił kilkunastometrową wieżę koło zbiornika na wschód od San Diego,  na niej umieścił "akcelerator wilgoci" składający się z  galwanizowanej beczki, do której wlał mieszaninę sobie tylko znanych 23 chemikaliów. Deszcz padał nieustannie przez 15 dni. Tamy zostały zalane,  kilkanaście osób zginęło, prawie wszystkie mosty w San Diego runęły. Nie tylko San Diego, ale cała południowa Kalifornia zostały zalane.  Straty oszacowano na kilka milionow dolarów. Procesy sądowe wytoczone przeciw miastu zostały oddalone a sąd orzekl, że deszcz był wywołany za "sprawa boską". Ponieważ, sąd orzekł o interwencji Boga -  Hatfield nigdy nie dostał przyrzeczonych pieniędzy.  Co by nie było, historia ta jest przykładem próby adaptacji do okresów suszy  przez radnych San Diego.

Przewijamy kliszę o prawie sto lat.  W 2007 roku powstał  Klimatyczny Związek Dostarczycieli Wody (Water Utility Climate Alliance)  zrzeszający firmy kontrolujące dystrybucję wody do 36 milionów użytkowników (m.in. Południowa Kaliforna, Nowy Jork, Portland, San Francisco, Seattle, Południowa Newada). 
http://www.wucaonline.org

W klimacie pustynnym i półpustynnym (np na  „dzikim zachodzie Ameryki”), źródłem wody są opady śniegu w  zimie; natomiast duże opady deszczu przychodzą raz na kilka lat i rozdzielone są długimi okresami suszy. Zmiany klimatu wpływają na zmiany sezonalnej pokrywy śniegu i częstotliwości przejść pomiędzy suszą i opadem. Instytucje publiczne kontrolujace dystrybucję wody zainteresowane są zmianami klimatu ze względu na budowę zbiorników retencyjnych – czym dłuższe okresy pomiędzy deszczem, tym większe powinny być zbiorniki, lub budowaniem zakładów odsalania wody z oceanu.  Niestety z punktu widzenia planowania rozdziału wody  obecne wyniki modelowania za pomocą globalnych modeli klimatu są marginalne. Modele te oceniają zmiany uśrednione po dość dużym obszarze i nie dają dobrego zrozumienia zmian wewnątrz dekadalnych  - czyli, prostym językiem, ile razy na dekadę coś się wydarzy. Obecne modele klimatu przewidują zmiany klimatu w skali dekad i koncentrują się na scenariuszach zmian gazów cieplarnianych. Dla celów ekonomiczych w skali Polski czy południowej Kaliforni potrzebne są regionalne wyniki modeli klimatu, wyniki symulacji numerycznych, w których  lepiej modelowana jest zmienność wewnątrz dekadalna, oraz modele,  których rezultaty wykorzystują istniejące dane klimatyczne. Do tej pory w globalnych modelach klimatu pogoda była "szumem" - teraz musi się stać "muzyką".  Dobrą ściągawką  do opracowania procesów adaptacyjnych w skali kraju (Polska) jest raport
http://www.wucaonline.org/assets/pdf/actions_whitepaper_120909.pdf

Natomiast modele klimatyczne nowej generacji będa rzeczywiście używane do oceny problemów klimatycznych w skali kilku lat. Klika dniu temu, w lipcu 2010, Narodowe Centrum Badań Atmosferycznych (NCAR) w USA udostępniło nowy system modelowania otoczenia Ziemi (Community Earth System Model), w którym badanie zmian klimatu atmosfery jest już tylko jednym elementem
http://www.cesm.ucar.edu/

PS Nowy model klimatyczny z NCAR to dobry temat na magisterium. Sa już wyniki z symulacji XX stulecia.

piątek, 14 maja 2010

7 maja 2010 w czasopiśmie Science  255 członków Amerykańskiej Akademii Nauk podpisało list oceniający, że obecne ataki na naukowców i badaczy klimatu są politycznie motywowane.
http://www.pacinst.org/climate/climate_statement.pdf

W liście naukowcy zwracają uwagę, że obecne ataki są dogmatyczne, robione przez ludzi, którzy chcą opóźnić działania związane z występującym globalnym ociepleniem. Wspomniany jest neomakkartyzm
http://takiklimat.blox.pl/tagi_b/42013/marcin-Bosacki.html

W Science akademicy  zwracają uwagę, że zawsze jest pewna niewiadoma związana z badaniami naukowymi, ale brak działania jest potencjalnie katastroficzny dla Ziemi. Kolejne komisje w sprawie "Climategate" (ostatnia  14 kwietnia 2010)  w sposób nie ulegający wątpliwości, stwierdzają że nie ma żadnych dowodów na jakiekolwiek umyślne i nieprawidłowe działania klimatologów.
http://pl.wikipedia.org/wiki/Climategate

W Stanach i w Europie Zachodniej, gdzie badania zmian klimatu są rozwijane,  sprawa Climategate sparaliżowała środowisko naukowe. List w Science jest pierwszą zorganizowaną odpowiedzią.  Do tej pory nie ma stanowiska Amerykańskiej Unii Geofizycznej i Amerykańskiego Stowarzyszenia Meteorologicznego.  

W Polsce potrzebny jest instytut czy grupa badawcza zajmująca się badaniem zmian klimatu. Zacząć należy od kształcenia uniwersyteckiego.  Teraz jako środowisko mamy stosunkowo mało siły, żeby odpowiadać na ataki pseudonaukowców. Ale  część działań jest optymistyczna – mieliśmy odpowiedź Komitetu Nauk Geofizycznych PAN na bezsensowne stanowisko Komitetu Nauk Geologicznych PAN,  jest troche dobrych blogów klimatycznych, rozwijana jest popularyzacja badan klimatycznych.  

piątek, 09 kwietnia 2010

Artykul w Der Spiegel wydrukowany w kwietniu (wersja angielska)
http://www.spiegel.de/international/world/0,1518,686697-4,00.html

zawiera krytyczny materiał dotyczący badań zmian klimatu.  W części dotyczących badań naukowych artykuł nie ma nic wspólnego z rzetelną relacją i jest powtórzeniem znanych i nieprawdziwych banałów. Warto jednak zwrócic uwagę na nowy wątek – wypowiedź Petera Webstera. Webster jest profesorem fizyki atmosfery i wybitnym naukowcem.  Jego komentarze przytoczone w Spieglu są  istotnie krytyczne w stosunku do Phila Jonesa, profesora klimatologii w Uniwersytecie Wschodniej Anglii.  Ale w rzeczywistości chodzi o coś innego. Napisałem dzisiaj do Webstera, żeby skomentował swoje wypowiedzi do Der Spiegela.  Peter odpowiedział, że istotnie udzielił telefonicznego wywiadu dwa miesiące temu. Potwierdził swoje krytyczne wypowiedzi, ale napisał  że jego krytycyzym dotyczy głównie metodologii naukowej (a nie wyników Jonesa).   

Instytut CRU Uniwersytetu Wschodniej Anglii dostał dane od innych ośrodków na temat średniej miesięcznej temperatury.  Chodzi to o bezpośrednie pomiary od około 1880 roku. Webster dostał kopię danych od CRU i stwierdził, że pomiary sprzed 1940 roku nie mają dobrego opisu "danych o danych" (metadata).  Nie jest to związane z procedurą CRU, ale ze sposobem dokumentacji danych przez ośrodki krajowe, sprzed 70 lat.  Webster nie kwestionuje wyników Jonesa, przeciwnie pisze do mnie  „wierzę, że wyniki pokazują zmiane globalnej temperatury, i że te wyniki związane są z antropogenicznym wzrostm gazów cieplarnianych” (ang. „I believe that there is a trend in global temperatures and that trend is due to AGW increases”). Jednocześnie Peter napisał  "ale w danych są fascynujace podksoki i spadki, które warto wyjaśnić”.  Już teraz w blogach i w artykule Der Spiegela wypowiedź Webstera jest wywracana do góry nogami.     

O co chodzi?  Chodzi o to, że AGW (antropogeniczne efekty gazów cieplarnianych) nie muszą być jedynymi przyczynami zmian temperatury.  Dane zmian temperatury nie pokazuja stałego wzrostu.  W ostatnich 100 latach, są spadki i wzrosty, które są związane z kilkoma czynnikami:  (a) zmianą sposobu i otoczenia pomiarów, (b) wpływem wulkanicznym i innych cząstek zawieszonych w atmosferze, (c)  efektami zmian naturalnych (nie związanych z  AGW), (d) zmianami w przepływie oceanu światowego.  W szczególności Webster zwrócił uwagę na dwie zmiany temperatury z okresem kilku lat.  Pierwszy przypadek jest z okresu 1930-1940, temperatura zmieniła się wtedy zarówno na półkuli pólnocnej i południowej i miała dużą amplitudę – aż 0,35C.   Drugi ciekawy przypadek nastąpił  w latach 1970 i skok temperatury jest przypisywany wprowadzeniu bardziej restrykcyjnych standardów emisji zanieczyszczeń, co (według zwolenników tego wytłumaczenia) powoduje,  że więcej promieniowania słonecznego dochodzi do powierzchni Ziemi. Jednak Webster zwrócił uwagę na fakt, że zmiany temperatury są widoczne zarówno na półkuli północnej i na półkuli południowej. Skoro półkula południowa ma znacznie mniej lądu i przemysłu musi być też znacznie mniej zanieczyszczona. Dlatego, w.g. Webstera, to nie zmiany emisji  są wytłumaczeniem kiwniecia się temperatury w latach 1970. Webster szuka mechanizmu dynamicznego, poza AGW. Ale z tego nie wynika, ze AGW nie ma sensu, lub że CRU i Phil Jones nie maja racji.  Wynika z tego tyle, że klimatolodzy rozważają różne mechanizmy zmiany temperatury na Ziemi. Hipoteza AGW (gazy cieplarniane) nie jest sprzeczna z tym, że istnieją naturalne czynniki zmian temperatury.

PS Reszta jest tylko dla profesorów meteorologii i oceanografii. No to dlaczego są oscylacje dekadalne około 1940 i około 1970 w rekordzie temperatury? W czasie II Wojny Światowej nastąpiła zmiana z pomiarów temperatury z wody pobieranej za pomocą wiadra i z wody pobieranej dla chłodzenia silników (D. Thompson, Nature, 2008). To nie  może być wytłumaczeniem bo oscylacja była pomiędzy 1930-1940.  W.g. Webstera pomiary na lądzie korelują się z pomiarami  temperatury powierzchni oceanu (baza danych COADS) ale z pewnym przesunięciem czasowym.  Czyli zmiany są związane z z oddziaływaniem ocean-atmosfera w skali dekadalnej,  ale raczej nie bezpośrednio  z ENSO (za krótka skala). Rzeczywiście efekty aerozolowe nie muszą być mechanizmem dominującym w dekadalnych oscylacjach w latach 1970
http://pl.wikipedia.org/wiki/Globalne_zaciemnienie

skoro  na południe od stefy konwergencji tropikalnej (ITCZ)
http://pl.wikipedia.org/wiki/ITCZ

też widać zmiany temperatury (tam jest czysto, co widać było z pomiarów w eksperymencie INDOEX)
http://pl.wikipedia.org/wiki/INDOEX

Wyspy cieplne, wpływ słońca (mimo, że jest dekadalny), efekty wulkaniczne nie sa tutaj istotne. No to może ACW (Antarctic Circumpolar Wave) opisane pierwszy raz przez Warrena White. Ma skalę 10 lat i oddziaływuje z ENSO? Webster ma mi przysłac draft artykułu. Zobaczymy. Fascynujące.

czwartek, 01 kwietnia 2010

Poniżej jest tłumaczenie materiału Associated Press z 29 marca 2010. Jest to już druga komisja, która oczyściła naukowców z jakichkolwiek spiskowych intencji. Inna komisja badała w Stanach Zjednoczonych pracę M. Manna i w lutym 2010 nie znalazła nic nieprawidłowego w jego działalności naukowej. Tłumaczę ten materiał, bo nie wiem czy np Gazeta Wyborcza go przedrukuje. Oczywiście nie miałem wątpliwości że tak sie sprawa potoczy.  Nic w tym emailach nie wskazuje na spisek.    

Jedna z kilku komisji w Wielkiej Brytanii badających sprawę emaili wykradzonych z jednego z najważniejszych ośrodków klimatycznych na świecie w większości oczysciła naukowców ze stawianych im zarzutów.

Komisja Nauki i Technologi Parlamentu Brytyjskiego ogłosiła w środę, że nie ma dowodów na to, że dyrektor Climate Research Unit (CRU) Uniwersytetu Wschodniej Anglii zmieniał dane lub wpływał na proces recenzji artykułów naukowych w celu złej reprezentacji  badań globalnego ocieplenia. Te dwa punkty były najważniejszą częscią krytyki wysuwanej przeciw klimatologom.

Komisja stwierdziła, że na podstawie informacji jakie zdołała zebrać, „reputacja naukowa profesora Jones i CRU jest nienaruszona”. Komisja dodała też, że  naukowe podstawy badań zmian klimatu i antropogenicznego wpływu na klimat nie zostały zachwiane poprzez publikację ponad 1000 wykradzionych emaili i związanej z tym dyskusji.

Komisja składała się z 14 członków i jest jedną z trzech komisji w Wielkiej Brytanii jakie badają sprawę wykradzonych email. Emaile wydawały się wskazywać na to, że naukowcy angażowali się w osobiste wycieczki w stosunku do przeciwników zmian klimatu, dyskutowali sposoby w jaki sposób dane nie powinny być udostepniane i w jaki sposób uniemożliwić przeciwnikom publikację wyników w recenzowanych czasopismach. Jeden z nagłośnionych emaili używał słowa „trick” w kontekście „ukrycia spadku” temperatury.

Publikacja emaili nastąpiła przed konferencją klimatyczna w Kopenhadze w 2009. Wywołała furię internetowych ataków wśród sceptyków zmain klimatycznych, którzy nadali sprawie nazwę „klimatgate”. Przeciwnicy  twierdzili, że emaile wskazują na to, że badania naukowe zmian klimatu są kompletnie zmyślone lub przesadzone.

Posłowie brytyjskiego parlamentu zdecydowali się zbadać sprawę ze względu na poważne implikacje dla brytyjskiej nauki.

Przewodniczący komisji Phil Willis powiedział, że niektóre z emaili dosadnie krtykuje przeciwników zmian badań klimatycznych.  Jednak jedynym problemem jaki komisja znalazła była niechęć do rozprowadzania danych. Willis dodał, że Jones nie był związany z żadnym spiskiem związanym z badaniem zmian klimatycznych.

W czasie konferencji prasowej  Willis powiedział, że kontrowersja pewnie pomoże badaniom klimatycznym, ponieważ dane będą ogólnie dostępne.

 “Na końcu wygrają badania naukowe klimatu”  - powiedział Willis.

W środę zwycięzcą został Jones, który nie jest dyrektorem CRU – ustąpił  na pewien czas, tydzien po opublikowaniu emaili. Komisja wyraziła sympatię dla Jonesa,  Willis powiedział, że Jones stał sie dzieckiem do bicia, chociaż prawdziwe problemy leża gdzie indziej.

W raporcie napisano, że „niesłusznie  koncentruje się  krytykę na profesorze Jonesie i CRU”.

Posłowie skrytykowali sposób w jaki Jones i jego wspópracownicy uwzgledniali prośby o dystrybucję danych w ramach angielskiego prawa swobodnego dostepu do danych. Komisja stwierdziła, że naukowcy mieliby mniej kłopotów, gdyby publikowali dane, zamiast zastanawiać się jak odpowiadać na krytykę przeciwników zmian klimatycznch.  

Posłowie pokreślili w swoim raporcie, który opierał sie na jednym dniu zeznań, że nie byli w stanie zając się wszystkimi wysuwanymi zarzutami. Dwie inne komisje nadal obradują w tych sprawach.

Willis powiedział, że jego komisja musiała coś opublikowac przez następnymi wyborami w Wielkiej Brytanii, które nastąpić za  miesiąc.

Oczywiście wolelibyśmy mieć więcej czasu dodał. Śmiejąc się powiedział “musieliśmy coś napisać zanim nas wywiozą”.

Przewodniczącym jednej z dwóch komisji, jakie nadal badają sprawę,  jest Muir Russell. Zadaniem tej  komisji jest sprawdzenie czy naukowcy i Jones, zmieniali lub manipulowali danymi. Raport ma byc opublikowany na wiosnę.

Geolog Ernest Oxburgh jest szefem komisji, która bada czy badania były prowadzone w sposób naukowy. Ta komisja ma w składzie osoby z wykształceniem akademickim. M.in.  w skład komisji wchodzi Kerry Emanuel,  professor meteorologi z MIT oraz Huw Davies,  były prezydent  Miedzynarodowego Stowarzyszenia Meteorologii i Fizyki Atmosfery.

Komisja stwierdziła, że naukowcy badający klimat powinni być w przyszłości bardziej otwarci – np powinni publikować nieobrobione dane, dane przetworzone, oraz programy komputerowe używane do analizy danych. Willis stwierdził, że jest za dużo środków finansowych związanych z badaniami, żeby ignorować wymagania ogólnej publiczności.  

Rządy na świecie wydają olbrzymie sumy pieniędzy na badania naukowe. Wobec tego rezultaty naukowe powinny byc nieskazitelne.

Właśnie wracam z telekonferencji, na której omawialiśmy planowany eksperyment na Oceanie Indyjskim w 2011, który ma badać jak powstaje oscylacja Maddena-Juliana i w jaki sposób ocean oddziaływuje na atmosferę.  
http://pl.wikipedia.org/wiki/Oscylacje_Maddena-Juliana

Było nas kilka osób z różnych miejsc (między innymi z Polski).  Eksperyment odbędzie się z wykorzystaniem statków badawczych, samolotów, może samolotów zdalnie sterowanych.  W eksperymencie ma uczestniczyć statek Indyjski (Sagar Kanya), Japoński (MIRAI), i amerykański (chyba Ravelle).  Francuzi planują eksperyment TRIO w tym samym mniej więcej miejscu i czasie. Od kilkunastu lat interesujące problemy klimatyczne są z pogranicza badań oceanograficznych i atmosferycznych. Jednak zrobienie badań, w których pomiary oceaniczne i atmosferyczne sa razem graniczy z cudem, bo te dwie grupy naukowców rzadko ze sobą współpracują - ponieważ nakłady finansowe na badania klimatyczne są małe. Tym razem mamy jednak współpracować z projektem DYNAMO, który może dostanie fundusze z Narodowej Fundacji Nauk i  Amerykańską Służbę  Oceaniczną i Meteorologiczną. Projekt DYNAMO zajmuje się pomiarami atmosferycznymi, a nasza grupa koncentruje się na badaniach oceanograficznych w oceanicznej warstwie dobrze wymieszanej - górna warstwa oceanu. Ten obszar Oceanu Indyjskiego jest ciekawy, znajduje się tam prąd strumieniowy Wyrtki, termoklina (warstwa w oceanie pomiedzy wodą głęboką i powierzchniowa)  zmienia się ze względu na równikowe prądy oceaniczne i tworzy wybrzuszenie pomiędzy Chagos i Seyschelami.   Nad tym wszystkim przechodzą zaburzenia atmosferyczne, zarówno cyklony tropikalne jak i oscylacje Maddena-Juliana. W projekcie uczestniczą też modelarze, czyli osoby zajmujące się numerycznym modelowaniem procesów fizycznych zachodzących w oceanie. Będziemy wykorzystywać nowy system zakotwiczonych boi - RAMA, które są ustawiane w równikowym Oceanie Indyjskim przez niestrudzonego Mikea McPhadena. Sieć tych boi jest już w dużej części ustawiona, za wyjątkiem zachodniego Oceanu Indyjskiego przy Afryce ze względu na problemy z piratami (Somalia).  Ustawianie tych eksperymentów trwa zazwyczaj kilka lat. Odbywają się zebrania, planowanie instrumentów, rozwiązywane są problemy logistyczne – np czy można użyc pomiary z wód terytorialnych Indii (nie można).  Najbliższe lotniska to Diego Garcia, Male i wyspa Gunn. To właśnie na Male, stolicy Malediwów, odbyło się niedawno spotkanie rządu pod wodą, żeby zrócić uwagę na problem wzrostu poziomu wody w oceanie światowym.  Diego Garcia należy do Wielkiej Brytanii, ale nie można tam swobodnie wpływać.   Tego typy eksperymenty pozwalają na zrozumienie jak zaczyna się El Nino
http://pl.wikipedia.org/wiki/El_Niño

i jak wygląda rozkład temperatury w tropikach, i jak on wpływa na pogodę i klimat także w polskich szerokościach geograficznych.

Karawana idzie dalej do przodu. Polska idzie do tyłu wraz z Komitetem Nauk Geologicznych PAN, który nie przeczytał raportu IPCC.  W następnej edycji IPCC V, obecnie planowanym na rok 2013, jednym z problemów będą tzw. wymuszone scenariusze klimatyczne, w których zadawana jest temperatura w tropikach.  To jest dość trudny technicznie temat, ale może warto napisac co to jest w dwóch zdaniach.   Otóż, ogólne modele klimatu nie są prognozami pogody i dlatego można przewidywać zmiany klimatu w skali stu lat bez zadawania warunków początkowych, czyli nie trzeba zadawać jaka pogoda była dziś, żeby zrozumieć anomalie klimatyczne w skali 100 lat
http://pl.wikipedia.org/wiki/Model_ogólnej_cyrkulacji 

Z kolei modele prognoz pogody, gdzie musimy wiedzieć jaka jest pogoda dziś,  są dobre na kilka dni. Istnieje przepaść pomiędzy skalą kilku dni i stu lat, gdzie modele klimatu nie działają. Ale gdyby udało się znaleźć jakieś silne ale znane procesy systemu klimatycznego w jakimś konkretnym miejscu w skali kilku lat?  Największą szansą jest zrozumienie procesów w obszarach równikowych. Jeżeli znajdziemy metodę na opisanie periodyczności zjawisk w obszarach tropikalnych to możemy użyć ogólnych modeli numerycznych, ale wymuszonych przez znane zjawiska w tropikach, żeby przewidziec procesy klimatyczne w innych nawet odległych miejscach.  Trochę tak jak popychanie huśtawki w jednym miejscu - system się buja w sposób dość przewidywalny, jeżeli jest wymuszony.  To, w dużym skrócie,  jest jednym z zadań nowego IPCC V. I dlatego robimy prace eksperymentalne w  atmosferze równikowej  – chcemy zrozumieć jak działa klimat w stosunkowo prostych sytuacjach.

Pisząc ten blog mam świadomość, że polscy przeciwnicy badań klimatycznych twierdzą, że badania klimatyczne są robione przez oszustów naukowych, których jedynym celem jest dobranie się do kasy.  Jest akurat przeciwnie. Ani te eksperymenty nie są bajecznie drogie, nie uczestniczą w nich oszuści, ani nikt nie rozbija kasy.   Co ja tu będę się długo rozwodził - polski student,  który uczestniczy w projekcie ma stypendium doktoranckie w wysokości około 1300 złotych.

wtorek, 30 marca 2010

To,  że debata dotycząca zmian klimatu powoduje rozdział pomiędzy środowiskiem naukowców i ogólną publicznością  nie jest specjalnie dziwny.  Dzisiejszy New York Times (Leslie Kaufman,  „Among Weathercasters, Doubt on warming”, NYT 29 marca 2010) opublikował artykuł pokazujący na znaczne różnice w zapatrywaniach pomiędzy synoptykami a naukowcami zajmującymi się badaniami zmian klimatu. Podczas gdy amerykanscy klimatolodzy prawie w całości popierają wyniki badań klimatycznych,  to amerykańscy synoptycy, wicherkowie i chmurki, telwizyjni i radiowi przepowiadacze pogody, nie tak do końca.   Z 571 telewizyjnych prognostyków tylko połowa wierzy, że zachodzi globalne ocieplenie a tylko 1/3 wierzy,  że zmiany te zachodzą głównie poprzez działalność człowieka.  Wg New York Timesa (NYT) jest to nieoczekiwany obrót wydarzeń. W Stanach ogólna publiczność uważa, że to synoptyk  ma rację w sprawach klimatycznych.  Powody różnic są dość złożone.  Wprawdzie Amerykańskie Towarzystwo Meteorologiczne popiera raporty IPCC w swoim oficjalnym stanowisku, jednak synoptycy używają do prognoz pogody modeli numerycznych, które są wrażliwe na warunki początkowe i przewidują pogodę zaledwie na kilka dni do przodu.   Daje to okazję do pytań, w jakim stopniu numeryczne modele klimatu są w stanie ocenić pogodę w przyszłości?  Odpowiedź jest dość prosta – klimatyczne modele wcale nie  przewidują pogody ale są wykorzystywane do oceny czy klimat będzie cieplejszy czy zimniejszy; podobnie jak styczeń jest średnio zimniejszy niż czerwiec, tak modele klimatu przewidują zmiany przy zmienionych scenariuszach (np zmianach ilości dwutlenku węgla w atmosferze).  Modele klimatyczne z raportu IPCC IV nie uwzględniają nawet warunków początkowych w atmosferze (to się zmieni w raporcie IPCC V przygotowywanym na rok 2013 roku, ale o tym napiszę kiedy indziej). Innym powodem rozdziału pomiędzy synoptykami i naukowcami zajmującymi się zmianami klimatycznymi jest wykształcenie -  typowy naukowiec pracuje w uniwerytecie i ma doktorat, natomiast synoptycy (w Stanach) mają podstawowe wykształcenie uniwersyteckie.  Powoduje to spięcia na granicy elity z populizmem.

Dlaczego o tym piszę i jak się to przekłada na warunki polskie?  Nie chodzi o to, żeby polscy przeciwnicy badań zmian klimatycznych dostali nowy argument do ręki. Są tutaj pewne lekcje. Po pierwsze,  poziom zrozumienia różnic pomiędzy modelami klimatu i modelami prognozy pogody jest w polskim i w amerykańskim społeczeństwie żaden. Ulubiony argument przeciwników zmian klimatycznych jest taki, że modele numeryczne nie potrafią prognozować pogody na kilka dni, więc nie mogą dać dobrych rezultatów po 100 latach. To, że modele klimatu nie prognozują pogody nie jest rozumiane.   Po drugie, w Polce mamy przepaść w przygotowaniu naukowym, jeszcze większą niż ta opisywana w NYT.  Powoduje to zderzenie pomiędzy  „szalonymi ekologami”  i „szalonymi profesorami”.  Myślę tutaj o szalonych profesorach spoza środowiska klimatycznego.

poniedziałek, 29 marca 2010

To jest początek serii blogów-odpowiedzi na, moim zdaniem, głupstwa wypowiadane przez polskich przeciwników hipotezy o antropogenicznym efekcie globalnego ocieplenia. Pomysł pochodzi częściowo z materiału umieszczonego przez Johna Renniea na stronie sieciowej „Scientific American” w listopadzie 30, 2009 („Seven Answers to Climate Contrarian Nonsense”) oraz z idei artykułu na Wikipedii
http://pl.wikipedia.org/wiki/Kontrowersje_wokół_globalnego_ocieplenia
Doszedłem jednak do wniosku, że neutralność Wikipedii nie pozwala na dobitne odpisanie polskim przeciwnikom globalnego ocieplenia, którzy nie starają się przedstawiać w swoich wypowiedziach informacji w sposób neutralny - uwzględniający inne punkty widzenia. Od czasu do czasu będę modyfikował/poprawiał odpowiedzi.

Krytyka: Dwutlenek węgla nie wpływa na klimat ponieważ jest gazem śladowym w atmosferze a produkcja przez ludzi jest znacznie mniejsza niż emisja przez wulkany lub przez inne źródła naturalne.

Odpowiedź: Wprawdzie koncentracja dwutlenku węgla jest mała, ale nawet przy małych koncentracjach dwutlenek węgla absorbuje promieniowanie podczerwone i działa jako gaz cieplarniany.  Po raz pierwszy pokazał to  John Tyndall w 1859 roku.  Chemik Svante Arrhenius oszacował w 1896 wpływ CO2 na klimat – w długich obliczeniach na kartce papieru stwierdził, że podwojenie dwutlenku wegla może zwiększyć temperaturę o  prawie 6 stopni Celsiusza -  rezultat zbliżony (ale nie dokładnie) do bardziej dokładnych obliczeń wykonanych obecnie. Efekt cieplarniany dwutlenku węgla jest mały, porównywalny z ociepleniem powodowanym przez żaróweczki od choinki umieszczone na całej ziemi co 1 metr kwadratowy.  Jednak ten efekt trwa cały czas, w dzień i w nocy,  przez wiele lat,  na całej kuli ziemskiej.   

Aktywność człowieka jest najwiekszym źródłem obserwowanego wzrostu  CO2 w atmosferze, jest ponad 130 razy większa niż całkowita produkcja przez działalność wulkaniczną.  Rzeczywiście 95 percent produkcji CO2 jest związane z procesami zachodzącymi w przyrodzie związanymi z fotosyntezą, ale produkcja i  pochłanianie  CO2 przez oceany są dość dokładnie zrównoważone. Produkcja dwutlenku węgla przez człowieka jest jedynym istotnym mechanizmem powodujacym wzrost jego  stężenia w atmosferze w skali roku.  Badania eksperymentalne pokazują na zmieniający się stosunek izotopów węgla w powietrzu, co dodatkowo potwierdza, że spalanie paliw kopalnianych jest głównym mechanizmem wzrostu dwutlenku węgla – o prawie  35%  od  roku 1832  (284ppm)  do  388 ppm obserwowanego obecnie.

http://pl.wikipedia.org/wiki/Efekt_cieplarniany

Krytyka: Dwutlenek węgla nie jest dobrze wymieszany w atmosferze i pomiary na Mauna Loa nie mają żadnego znaczenia

Odpowiedź: Jednym z najbardziej znanym wykresów obecnej dyskusji o zmianach klimatu jest tzw. Krzywa Keelinga (wymawiaj  „kilinga”). Krzywa Keelinga jest wykresem pokazującym zmiany stężenia dwutlenku węgla od roku 1958 kiedy Charles David Keeling zaobserwował zmiany stężenia atmosferycznego dwutlenku węgla (CO2) w obserwatorium na szczycie Mauna Loa (wymawiaj "mona loa") na Hawajach. W 1955 Keeling zaobserwował, że ilość dwutlenku węgla w atmosferze praktycznie nie zależy od miejsca pomiaru, co było w sprzeczności z publikacjami na ten temat w owym czasie. Wywnioskował z tych obserwacji, że dwutlenek węgla jest gazem dobrze wymieszanym w atmosferze (uwaga: obecnie wiemy, na podstawie pomiarów satelitarnych AIRS, że CO2 tylko w przybliżeniu jest gazem dobrze wymieszanym i że istnieją regionalne róznice). Keeling postanowił zorganizować ciągłe pomiary stężenia dwutlenku węgla w nowo utworzonym wtedy, wysokogórskim obserwatorium na Mauna Loa. Kierował się przy tym przeświadczeniem, że skoro dwutlenek węgla jest dobrze wymieszany w atmosferze, to pomiary w jednym miejscu dadzą reprezentatywny wynik dla całego globu Krzywa Keelinga pokazuje systematyczny wzrost stężenia dwutlenku węgla w atmosferze od około 315 cząsteczek na milion objętościowo (ppmv) w 1958 do ponad 380 ppmv w 2006. Wykres Keelinga pokazuje także cykliczne zmiany o około 5 ppmv w ciągu każdego roku związane ze zmianą aktywności roślinności. Na półkuli północnej jest więcej lądów niż na półkuli południowej, dlatego jest tam też więcej roślinności (pomijając fitoplankton). Poziom dwutlenku węgla zaczyna zmniejszać się, gdy na półkuli północnej trwa wiosna. Rośliny wówczas intensywnie rosną, pobierając dwutlenek węgla z otoczenia i zużywając go w procesie fotosyntezy. Stężenie dwutlenku węgla wzrasta ponownie jesienią, kiedy na półkuli północnej kończy się okres wegetacyjny i zużywa się dużo opału do ogrzewania.

http://pl.wikipedia.org/wiki/Krzywa_Keelinga

Krytyka: Istniały sytuacje geologiczne,  kiedy koncentracja dwutlenku węgla wzrosła po zmianie temperatury. Wobec tego obecne zmiany nie są związane z dwutlenkiem węgla.

Odpowiedź:  Okresy końca epoki lodowcowej związane są z szybkim ociepleniem Jednak ten fakt nie przeczy hipotezie, że CO2 jest odpowiedzialne za globalne ocieplenie związane z działalnością ludzi. W konkretnym przypadku opisywanym przez przeciwników, zmiana temperatury po epoce lodowcowej zajęła około 5000 lat, pierwsze 800 lat nie było związane z CO2, ale 4200 mogło być związane ze wzrostem CO2. Innymi słowy, koncentracja CO2 nie jest jedynym czynnikiem, jaki wpływa na klimat, zmiany w całkowitej ilości energii słonecznej dochodzącej do Ziemi czy zmiany cyrkulacji oceanu są istotnymi czynnikami. CO2 może być przechowane w oceanie w czasie epok lodowcowych i emitowane do atmosfery w sytuacji kiedy klimat się ociepla i powodować dalsze ocieplenie.

http://pl.wikipedia.org/wiki/Cykle_Milankovicia

Krytyka: Para wodna jest najważniejszym gazem cieplarnianym w związku z tym efekt dwutlenku węgla nie jest istotny.

Odpowiedź: Przeciwnicy badań zmian klimatycznych twierdzą, że para wodna a nie  CO2 jest najważniejszym gazem cieplarnianym, i że badacze zmian klimatu zaniedbują parę wodną w modelach zmian klimatu.  Jest to nieprawda.  Klimatolodzy uwzględniają parę wodną w  modelach klimatu.  Wraz ze wzrostem temperatury wywołanym początkowo przez  CO2 wzrasta także efekt cieplarniany wywołany przez parę wodną.  Przegląd literatury naukowej na ten temat w IV raporcie  IPCC pokazuje, że para wodna podwaja efekt cieplarniany wywołany przez CO2.  Innymi słowy, dwutlenek węgla jest pierwotna przyczyną a para wodna jest efektem. 

(Źródła. Odpowiedź jest częściowym, i czasami zmienionym, tłumaczeniem materiału John Rennie, Seven Answers to Climate Contrarian Nonsense,  Scientific American, listopad 30, 2009.  Wykorzystałem materiały dotyczące Charlesa Davida Keelinga z Instytutu Oceonografii imienia Scripps w Uniwersytecie Kalifornijskim, które początkowo zamieściłem na polskiej Wikipedii, i inne informacje).

środa, 24 marca 2010

Dziś będzie o adaptacji do zmian klimatycznych i aspektach jak i kto robi takie plany w Kalifornii.  Pełen dokument (niedawno opracowany) jest tutaj:
http://www.energy.ca.gov/2009publications/CNRA-1000-2009-027/CNRA-1000-2009-027-D.PDF

Dokument został napisany przez kilku autorów,  ale główny przyczynek do części naukowej ma grupa  Dana Cayana, który pracuje w Uniwersytecie Kalifornijskim i jest klimatologiem (a nie geologiem lub, powiedzmy, lekarzem).
http://meteora.ucsd.edu/~cayan/cayan.html

Zacznijmy od tego jaka jest strategia adaptacyjna Kalifornii jeżeli chodzi o zmiany klimatu. Główne cele są takie. 

  1. Należy użyć wyniki najwiarygodniejszych obecnie badań naukowych identyfikujących ryzyko i pozwalająch na stworzenie strategi adaptacji do zmian klimatycznych.
  2. Należy uwzględnić fakt, że nasza wiedza na temat zmian klimatycznych nadal jest uzupełniana.
  3. Należy uwzględnić pozycję wszystkich organizacji, które mogą przyczynić się do rozwoju planów adaptacyjnych.
  4. Należy współpracować z rządem,  z przemysłem i organizacjami pozarządowymi w celu rozwoju i implementacji planów adaptacyjnych.
  5. Należy uwzględnić, że najważniejszymi aspektami są ekonomiczne i socjalne względy, bezpieczeństwo i zdrowie publiczne, prawidłowa gospodarka zasobami, ochrona przyrody i ekologii.
  6. Należy uwzględnic już istniejące strategie adaptacyjne.
  7. Należy zrozumieć, że strategie adaptacyjne muszą być dostosować się do  sytuacji, które nie są w pełni przewidywalne.

Co to znaczy, że należy użyć wyników z najwiarygodniejszych obecnie badań naukowych identyfikujących ryzyko i pozwalających na stworzenie strategi adaptacji do zmian klimatycznych?  W Kalifornii przyjęto, że najwiarygodniejszymi obecnie wynikami przewidującymi zmiany klimatyczne są modele Globalnej Cyrkulacji Atmosfery (GCM). To właśnie te modele stanowią podstawę IV raportu IPCC. Do analizy zmian klimatycznych w Kalifornii użyto wyników ze specjalnego raportu  Special Report on Emissions Scenarios (SRES) i tzw scenariuszy  A2 oraz  B1 otrzymanych na podstawie wielu modeli ale skoncentrowano się tylko na sześciu: modelu PCM z Narodowego Centrum Badań Atmosferycznch (NCAR),  modelu NOAA z Narodowej Administracji Atmosferycznej i Oceanicznej,  modelu GFDL z Laboratorium Geofizycznej Dynamiki Cieczy,  modelu CCSM z NCAR, niemieckiego modelu  z Instytutu Max Planka  ECHAM5/MPI-OM; japońskiego modelu z Uniwersytetu w Tokio MIROC 3.2, i francuskiego modelu z Narodowego Centrum Badań Meteorologicznych CNRM
http://www.energy.ca.gov/2009publications/CEC-500-2009-014/CEC-500-2009-014-D.PDF

Teraz przechodzimy do sprawy technicznie najtrudniejszej. Jak wyniki z modeli globalnych odnieść do skali kraju?  W tym celu należy przewidywania pół meteorologicznych, które w modelach globalnych są  robione, powiedzmy co 100 kilometrów, przenieść do skali znacznie mniejszej. Np dokonać oceny  temperatury co 10 kilometrów. W tym celu używa się metodologii przeskalowania wyników (ang. downscaling). Robi się to obecnie na dwa sposoby. Albo używa się modeli numerycznych, które przewidują pogodę w mniejszej skali (tzw. modele mezoskalowe), albo używa się technik statystycznych, które na podstawie danych z większej skali wybierają możliwą sytuację pogodową. Mówią poglądowo – na podstawie ogólnego rozkładu temperatury i ciśnienia, staramy się ocenić temperaturę w jakimś wybranym miejscu.

Podsumowując, w Stanach naukową część strategii adaptacyjnej  opracowuje się na podstawie wyników z modeli IPCC IV oraz na podstawie wyników pomiarów z konkretnych lokalizacji i ich korelacji z polami wielkoskalowymi.  Do prac nad taką strategią zaangażowani są klimatolodzy.

A w Polsce?  A w  Polsce strategią adaptacji zmian klimatycznych będzie kierował profesor L. Marks.  który nie wie co to są modele numeryczne klimatu, nie wierzy w wyniki IPCC, i który był autorem kompromitującego stanowiska Komitetu Nauk Geologicznych  PAN. Zgodzono się, iż procesy [zmian klimatu]  mają charakter przede wszystkim naturalny. Rzeczywisty wkład człowieka w obserwowane obecnie zmiany jest niewielki. Dostarczycielem CO2 do atmosfery jest nie tylko przemysł ale i hodowla zwierząt rzeźnych, z której trudno rezygnować. Zauważono, że podejmowane globalne działania, prowadzące do ograniczenia emisji CO2, mają głównie wydźwięk polityczny, a proponowane kary za przekroczenie limitów mogą mieć dramatyczne konsekwencje dla polskiej gospodarki. Ustalono, że społeczność geologów, którą reprezentuje KNG, powinna aktywnie włączyć się do publicznej dyskusji, wskazując na faktyczne przyczyny zachodzących procesów. Postanowiono, że Komitet sformułuje swoje stanowisko w sprawie zmian klimatu oraz zagrożenia globalnym ociepleniem oraz zadba o możliwie najszersze jego rozpowszechnienie (Komitet Nauk Geologicznych PAN w Warszawie w dniu 14.11.2008 roku)

PS Profesor L. Marks zakomunikował o powołaniu rządowgo Komitetu Sterującego ds. Opracowania Sektorowych Strategii Adaptacji do Zmian Klimatu, do którego został oddelegowany przez prezesa PAN. Cały protokol można znaleźć tutaj
http://www.kngeol.pan.pl/images/stories/pliki/protokolkng_25_11_2009.doc

Nieprawdopodobne.

sobota, 20 marca 2010

Poniżej jest odpowiedź M. Manna z 11 marca 2010 na list Łukasza Turskiego - „Prof. Łukasz Turski: uznajmy błędy raportu IPCC i zrewidujmy go” w  Gazecie Wyborczej. Przetłumaczyłem artykuł Turskiego na angielski i wysłałem do Manna.

Bardzo dziękuję za zwrócenie uwagi [na publikację w Gazecie Wyborczej]. Niestety, są ludzie tacy jak Lukasz Turski, którzy maja silne opinie na temat spraw,  na których się mało a może wcale nie znają. Trudno się zorientować czy działają z powodu ignorancji czy ze złośliwości. W obu przypadkach czynią szkodę nauce bezsensownymi wypowiedziami tego rodzaju. Wydaje mi się, że nic nie da jeżeli odpowiem.  Wzmocnię jego pozycję i uwiarygodnię nieprawdziwe wypowiedzi, które są chyba wzięte z typowych przemówień nieuczciwych przeciwników badań zmian klimatycznych. Wydaje się, że byłoby lepiej gdyby ktoś w Polsce zareagował. Pozostawię to twojej decyzji czy zajmiesz stanowisko czy nie. Oczywiście,  jeżeli coś napiszesz to będę zobowiązany. Wypowiedzi [Turskiego] są półprawdami i mitami, na które już wielokrotnie odpowiadano. W szczególności, na  stronie Universytetu Penn State jest dokumentacja, że nie ma żadnego dowodu na to, że zrobiłem cokolwiek nieprawidłowego w związku z „climategate”

http://switchboard.nrdc.org/blogs/paltman/melting_climategate_the_vindic.html

http://climateprogress.org/2010/02/04/penn-state-michael-mann-hockey-stick-science

Twierdzenie, że mój artykuł jest w jakikolwiek sposób zdyskredytowany i pełen „błędów” jest nieprawdziwe. Amerykańska Akademia Nauk stwierdziła coś dokładnie przeciwnego:

http://www.realclimate.org/index.php/archives/2006/06/national-academies-synthesis-report

Ostatni raport  IPCC  dodatkowo potwierdził naszą publikację sprzed klikunastu lat, że ostatnie ocieplenie jest z dużym prawdopodobieństwem anomalią (przynajmniej w ostatnich 1300 latach). Do emailu dołączam kilka listów jakie napisałem do  czasopism w odpowiedzi na podobne ataki. Naturalnie możesz użyć cokolwiek z tych listów w odpowiedzi na artykuł Turskiego.

Jeszcze raz dziekuję za informację i za miłe słowa.

Mike [Mann]

Przypomnijmy, że Mann był krytykowany w artykule Turskiego w następujący sposób: „Zasadniczym powodem mojej krytyki ... jest  ... przemilczenie sprawy działalności naukowej dr. Michaela Manna, autora tzw. krzywych hokejowych i osoby, której przypisywane są najbardziej drastyczne fragmenty tekstów wyciekłych z CRU [...]  Krzywe te, o czym wiemy od lat, są otrzymane w drodze "zadziwiająco" popełnionych błędów matematycznych w analizie danych, między innymi zgromadzonych w CRU, do których dostęp dla innych badaczy był, w świetle tychże przecieków, celowo utrudniany."

http://pl.wikipedia.org/wiki/Michael_E._Mann
http://pl.wikipedia.org/wiki/Kontrowersja_kija_hokejowego

Trudno nie sympatyzować z odpowiedzią Manna patrząc na wyniki badań komisji, które nie znalazły błędów matematycznych w jego pracach. W lutym 2010 komisja etyczna Uniwersytetu Penn State, w którym Mann jest profesorem,  nie znalazła też żadnego dowodu, że Mann opublikował cokolwiek drastycznego lub niezgodnego z etyką zawodową.

PS. Tak na marginesie - Mann skończył matematykę stosowaną w Uniwersytecie Kalifornijskim  w Berkeley (jeden z najlepszych wydziałów matematyki w Stanach), skończył fizykę w Yale, i zrobił doktorat na Yale z geofizyki.          

piątek, 12 marca 2010

Przeczytałem wczoraj artykuł M. Manna i współautorów dotyczący paleoklimatycznej i statystycznej oceny liczby cyklonów tropikalnych na Atlantyku w ostatnich 1500 latach  (Mann, M.E., Woodruff, J.D., Donnelly, J.P., Zhang, Z., Atlantic hurricanes and climate over the past 1,500 years , Nature, 460, 880-883, 2009). Sam pomysł, że coś takiego można zrobić był dla mnie zaskoczeniem. Główne wyniki są takie, że rok 2005, który miał najwyższą obserwowaną bezpośrednio (to ważne) liczbę cyklonów tropiklanych na Atlantyku był unikalny w ostatnim tysiącu lat, ale że w średniowieczu, pomiędzy latami 900 i 1100 był także okres dużej  ilości cyklonów tropikalnych. Ma to znaczenie dla obecnej dyskusji na temat zmian ilości cyklonów tropiklanych wraz ze zmianą temperatury oceanu.  Więcej informacji, łacznie z artykułem, wywiadem, i notatkami prasowymi można znaleźć na stronie
http://www.meteo.psu.edu/~mann/Mann/research/research.html
klikając na link do badań o cyklonach tropikalnych.  

Jak oni to zrobili? Pomysł oceny ilości cyklonów tropikalnych polega na dwóch metodach. Jedna z nich opiera się na pomiarach rodzaju osadów w częściowo odciętych od otwartego oceanu lagunach. Dlaczego to jest ważne?  Dlatego bo wzrost ilości cyklonów tropikalnych wraz ze wzrostem temperatury nie jest obecnie dobrze zrozumiany i w środowisku naukowym istnieją na ten temat rozbieżne opinie.  Wprawdzie rok 2005 był wyjątkowy, ale istnieją argumenty (wysuwane m.in. przez Chrisa Landsea), że analiza ilości cyklonów tropikalnych jest obarczona błędem związanym ze zmianą technik pomiarowych.  Np, że 50 lat temu cyklony tropikalne, które nie wylądowały na lądzie,  nie były obserwowane.  Z tego względu przeprowadza się obecnie reanalizę danych meteorologicznych dotyczących obserwacji ilości cyklonów tropikalnych korzystając z dostępnych danych satelitarnych.  Tylko, że pierwszy amerykański satelita meteorologiczny, Tiros I, był wystrzelony dopiero 1 kwietnia 1960 roku.
http://pl.wikipedia.org/wiki/TIROS_1
(o Vernerze Suomi i jego meteorologicznej grupie satelitarnej w Uniwersytecie Wisconsin będę musiał kiedyś napisać więcej).

Mann wraz ze współpracownikami patrzyli na osady w normalnie zamkniętych lagunach, założyli przy tym, że przejście cyklonu tropiklanego powoduje osadzanie się sedymentów z otwartego morza. Musieli wyeliminować efekty tsunami, które mogą powodować podobne zjawisko przelewania się wody do laguny z otwartego oceanu. Dane pochodziły z Puerto Rico, Zatoki Meksykańskiej, i południowego wybrzeża amerykańskiej (USA) części Atlantyku. Używano techniki datowania radiowęglowego, podobnie jak w technice oceny zmian temperatury na powierzchni Ziemi z pomiarów słoi drzew. Mann i jego współpracownicy zastosowali także inną, kompletnie niezależną technikę oceny ilości cyklonów tropikalnych, opartą na statystycznym modelu.  Do tego celu użyli sposobu wymyślonego pierwszy raz przez Williama Graya z Uniwersytetu Stanowego w Kolorado (pisałem o Grayu). Okazuje się, że można przewidywać ilość cyklonów tropikalnych w danym sezonie na podstawie oceny wielkoskalowych zjawisk meteorolgicznych takich jak temperatura Atlantyku, Oscylacja Północnoatlantycka (NAO), zjawisko ENSO, czy opady deszczu w poprzednium roku na Sahelu. Wszystkie te czynniki wpływają na atmosferę tropikalną pomiędzy Saharą i wybrzeżem USA (gdzie powstają atlantyckie cyklony tropikalne). Mann wraz ze współpracownikami opracował podobną technikę do tej zaproponowanej przez Graya i w 2007 roku wraz ze swoim studentem Tomem Sabbatellim opublikował prognozę ilości cyklonów tropikalnych na Atlantyku opierającą się na ich modelu statystycznym (Mann, M.E., Sabbatelli, T.A., Neu, U., Evidence for a Modest Undercount Bias in Early Historical Atlantic Tropical Cyclone Counts, Geophys. Res. Lett., 34, L22707, doi:10.1029/2007GL031781, 2007).  Żeby zastosować prognozę sezonową musieli ocenić parametry stanu atmosfery w ostatnich 1500 lat. Okazuje sie, ze obie techniki nie zgadzają się kompletnie, ale pokazują wzrost ilosci cyklonów tropikalnych pomiędzy latami 900-1100.

Tak na marginesie - przypuszczam że dla wielu czytelników zajmujących się meteorologią sprawą fascynującą jest fakt,  że Mann wykorzystuje wyniki i pomysły Graya.  Dla osób mniej wtajemniczonych dodam, że Gray do upadłego krytykuje Manna ze jego rekonstrukcję temperatury powierzchni Ziemi.

poniedziałek, 08 marca 2010

W obecnej dyskusji na temat climagate – wykradzonych emailach z instytutu badawczego zajmujacego się zmianami klimatu w Uniwersytecie Wschodniej Anglii znalazł się ciekawy polski wątek. Otóż na początku 2010 Polska, a także Kanada, Szwecja, Rosja i kilka innych krajów odmówiło swobodnego dostępu do swoich danych klimatycznych.  Poinformowano o tym m.in. w czasie przesłuchania w brytyjskim parlamencie przed komisją do spraw nauki i technologii (UK Parliamentary Science and Technology Committee) 3 marca 2010 roku. 
Więcej informacji na ten temat można znaleźć na video z przesłuchania Phila Jonesa
http://www.youtube.com/watch?v=cAj_lZv4Gxc
http://www.youtube.com/watch?v=AK0oGnqtVXo
http://www.youtube.com/watch?v=pBInhAVeixk
http://www.youtube.com/watch?v=1tskv-rX8F4
http://www.youtube.com/watch?v=h8KUm4AEZ5E

Brytyjska służba meteorologiczna poprosiła o zgodę na dystrybucję 170 krajów, do tej pory odpowiedziało 59, z czego  7 nie wyraziło zgody na rozprowadzanie danych przez Uniwerytet Wschodniej Anglii. Dlaczego stanowisko Polski i kilku innych krajów jest ważne? Poprzez odmowę dystrybucji danych, Polska daje argument Uniwersytetowi Wschodniej Anglii, że ten nie mógł spełnić wymagania swobodnego dostępu do danych na podstawie angielskiego prawa -  tzw. freedom of information legislation (FOI).   Dla przypomnienia –  jeden z głównych wątków  „climategate” dotyczy zarzutów wysuwanych pod adresem Universytetu Wschodniej Anglii Climate Research Unit, że nie udostępnił swobodnego dostepu do globalnych danych klimatycznych.  CRU bronił się, że ma podpisane umowy dwustronne z poszczególnymi krajami, które zabraniają dalszego przekazywania danych. 

W jaki sposób dochodzi do dość absurdalnej sytuacji,  w których rutynowe pomiary klimatyczne, takie jak temperatura powietrza czy temperatura powierzchni Ziemi są chronione przez poszczególne kraje? Jest kilka przyczyn. Dane mają wartość eknomiczna, można je sprzedać. W krajach takich jak Polska, instytut meteorologiczny (IMGW) ogranicza dostęp do danych ze względów na ich komercyjną wartość, a kiedyś, a może i teraz,  ze względu na słabą infrastrukturę badawczą. Dochodzi do dziwacznych sytuacji, w których początkowe dane do prognoz pogody są przesyłane spoza Polski. Z kolei Kanada jako argument podała, że woli rozprowadzać dane samodzielnie,  ze swojego serwera w Kanadzie niż z Uniwersytetu we Wschodniej Anglii.  Możliwość zabraniania dystrybucji danych daje Polsce niesławna rezolucja 40 Światowej Organizacji Meteorologicznej (WMO) działającej pod egidą Organizacji Narodów Zjednoczonych. Napisałem o tym więcej na Wikipedii
http://pl.wikipedia.org/wiki/Rezolucja_Światowej_Organizacji_Meteorologicznej

Rezolucja numer 40 WMO stwierdza, że narodowe służby meteorologiczne mogą określić listę  „Dodatkowych Danych i Produktów”, do których wolny dostęp jest ograniczony. Większość krajów europejskich stosuje w większym lub w mniejszym wymiarze rezolucję 40 WMO,  poprzez ograniczanie dostępu do zarchiwizowanych danych klimatycznych. Wyjątkiem w skali światowej są Stany Zjednoczone ze względu na silne przekonanie w społeczeństwie amerykańskim, że za wyniki pracy opłacanej z funduszy publicznych nie można dwukrotnie pobierać opłat. Dlatego archiwalne i aktualne dane meteorologiczne dostępne w Stanach są bezpłatne - zawieraja zresztą dane z innych krajów.  Dochodzi tu jednak do kolizji pomiędzy rezolucją numer 40 WMO a prawem amerykańskim. Większość naukowców zajmujących się badaniami środowiska popiera usankcjonowanie bezpłatnego dostępu i swobodną wymianę danych meteorologicznych, oceanograficznych i hydrologicznych,  ze względu na światowy rozmiar problemu zmian klimatu.

Ogólna publiczność nie jest często zorientowana, że dostęp do danych klimatycznych może być ograniczony przez poszczególne kraje.  Widać to na przykładzie „climategate”. Powoduje to przekonanie o zmowie naukowców. W rzeczywistości sytuacja jest bardziej złożona. Być może sprawa climategate spowoduje silny nacisk na organizacje meteorologiczne i umozliwienie swobodnego przepływu danych klimatycznych. Próby takie podejmuje brytyjska służba meteorologiczna.

sobota, 06 marca 2010

Dzisiaj  (5 marca 2010) pojawił sie artykuł w  NYTimesie dotyczący wymiany korespondencji emailowej pomiędzy członkami Amerykańskiej Akademii Nauk z sekcji badań o otoczeniu i ekologii. Jeden z nich - Stephen Schnieder przyrównał obecne ataki na naukowców związanych z "climategate" do neo Makkartyzmu. Paul Falkowski, profesor z Uniwersytetu w Rutgers,  napisał że naukowcy powinni występowąc w swojej obronie w publicznym radio i w telewizji. Falkowski http://lifesci.rutgers.edu/~molbiosci/faculty/falkowski.html  nie tylko jest członkiem Amerykańskiej Akademi Nauk, ale niedawno został  wybrany do jej rady nadzorczej. Pamiętam go z publikacji biologi morza i ciekawego eksperymentu dotyczącego zakwitu fitoplanktonu i deficytu żelaza.

Taki Makkartyzm naukowy związany z "climategate" pojawia się ostatnio w Polsce. Pierwszego marca "Gazeta Wyborcza" opublikowała artykuł "Naukowcy, święte krowy"  Marcina Bosackiego, w którym dostaje się naukowcom poczynając od tych związanych z badaniami zmian klimatu a kończąc na epidemiologach.  Bosacki podsumowuje swój artykuł "Ale naukowcy to nie są święte krowy. Oni i ich panele muszą wreszcie nauczyć się tego, czego dawno uczą się (z różnymi skutkami) politycy i ich partie oraz dziennikarze i ich media. Jeśli wkraczasz w sferę publiczną, jeśli wpływasz na życie milionów i wydawanie miliardów, pole do pomyłki się zmniejsza. Jeśli mylisz się lub manipulujesz, ludzie przestają ci wierzyć. Kropka." Zresztą wypowiedż Bosackiego to kontynuacja dość agresywnych ostatnio w Polsce wypowiedzi dotyczących nauk o zmianach klimatu, m.in.  Ł. A. Turskiego, Zbigniewa Jaworowskiego, czy Komitetu Nauk Geologicznych Polskiej Akademii Nauk (ta dość nieprawdopodobna sytuacja, w której naukowcy z innej dziedziny atakują  inną dziedzine wiedzy wymaga osobnego wpisu).   Wszystko to powoduje spadek zaufania do nauki, nie tylko o zmianach klimatu.

Warto prześledzić artykuł Bosackiego, żeby zrozumieć o co chodzi członkom Amerykańskiej Akademi Nauk.

Wypowiedż Bosackiego nie ma nic wspólnego z popularyzacją nauki czy faktami a sam artykuł jest jednostronną opinią.  Widać, że  autor  nie ma pojęcia o badaniach klimatycznych  - o tym za chwilę. Przypuszczam, że tego typu poglądy odzwierciedlają nastroje wśród "ogółu publiczności",  zaczynają to dostrzegac sami naukowcy.  O tym jest artykuł w NYT i tutaj te wątki amerykańskie i polskie się łaczą.  Sam Falkowski twierdzi, że jest "naukowcem i obywatelem", i że ma obowiązek bronienia nauki.  Zaczynam się z nim zgadzać czytając wypowiedzi Bosackiego w "Gazecie".

Warto prześledzić artykuł Bosackiego.  Jest tam bład na błędzie jeżeli chodzi o fakty. Dla przykładu jest opisany Mark Siddall, oceanograf pracując m.in. nad modelowaniem zmian poziomu oceanu.  Sidall opublikował artykuł w 2009 roku, który wycofał z powodu dwóch błędów jakie w nim zrobił. Napisałem email do Siddala, z prośbą o interpretacje wypowiedzi Bosackiego.  Odpisał dośc szybko mówiąc, że wycofał artykuł i jest to opisane na blogu czasopisma Nature
http://blogs.nature.com/news/thegreatbeyond/2010/02/sea_level_paper_withdrawn_on_a.html
napisał też,  że skontaktowała się z nim tylko jedna gazeta
http://www.guardian.co.uk/environment/2010/feb/21/sea-level-geoscience-retract-siddall
a wszystkie inne artykuły są komentarzem.  W komentarzu Bosackiego czytamy  "Siddall przeprasza i mówi, że nie wie, o ile poziom oceanów wzrośnie".  W rzeczywistości Siddal nie kwestionuje oceny IPCC, że poziom oceanów wzrośnie tylko pisze, że w jego pracy, opublikowanej w 2009 roku (czyli już po publikacji IPCC w 2007)  były dwa techniczne błędy i praca nie mogła byc poprawiona, ale powinna być wycofana.  Ocena poziomu wody w oceanach  była szacowana przez IPCC na 18cm-59cm w roku 2100 i podkreślała, że nie ma jeszcze dobrej oceny wpływu topnienia lodu. Nowsze oceny zrobione przez Martina Vermeera i  Stefan Rahmstorfa opublikowane w grudniu 2009 dają wartości 0.75m-1.9m w 2100.  Komentarz Bosackiego stwarza wrażenie, że błędy Siddala podważają sekcję raportu IPCC dotyczącą zmian poziomu oceanu co nie jest prawdą.

W artykule Bosackiego czytamy też taki komentarz: "Już w 2005 r. szef Narodowego Centrum Huraganów w USA Christopher Landsea wycofał się z prac IPCC, gdyż szefowie Panelu straszyli ludzkość, że ocieplenie (które też uważa za fakt) powoduje silniejsze huragany - na co już zdaniem Landsea dowodów nie ma. Ostrzegł Pachauriego, że pisanie raportu jest w IPCC "z góry motywowane przez partykularne interesy i gwałci zasady nauki". Pachauri go zignorował."

Oczywiście Chris Landsea nie jest szefem Narodowego Centrum Huraganów, a sam raport IPCC IV z 2007 roku (opublikowany dwa lata po wycofaniu się Landsea z jego prac) jest bardzo konserwatywny w ocenie zmian zarówno intenywności jak i powstawania cyklonów tropiklanych.  Pachauri nie zignorował Landsea, bo Pachuri nie zajmuje się cyklonami tropikalnymi, a tę część raportu pisali fizycy atmosfery a nie Pachuri, który nie miał tu nic do gadania.  To, że Landsea wycofał się z pracy nad raportem nie oznacza, że poglądy w nim zawarte są  błędne. Żeby to wszystko zrozumieć, trzeba trochę znać meteorologię  i małe środowisko naukowe zajmujące się cyklonami.  Po przeczytaniu artykułu Bosackiego napisałem email do Landsea z prośbą o referencje do jego nowej publikacji. Chris odpisał i podał  link do swojej strony  sieciowej
http://www.aoml.noaa.gov/hrd/Landsea/landsea_bio.html 
i do artykułu  opublikowanego w 2010 w Nature Geoscience. Artykuł  ma dzisięciu autorów, zwraca zresztą uwagę, że obok Chrisa Landsea jest też Kerry Emanuel (dla nie ekspertów - obaj są nieco po innej stronie barykady w dyskusji o wpływie temperatury na intensywnosc cyklonów).  Co z tego artykułu wynika?  W streszczeniu czytamy, że modele numeryczne przewidują wzrost o  2-11% w intensywności cyklonów tropikalnych w roku 2100. Artykuł podkreśla też, że w analizie używane są nowe techniki oparte na pomiarach satelitarnych.  Dla mniej wtajemniczonych wyjasniam o co chodzi. Otóż ocena zmian klimatycznych intesywności cyklonów tropiklanych i ich rozwoju po cyklogenezie (powstaniu) oparta jest na technikach (tzw metoda Dvoraka), które zależą od jakości danych satelitarnych.  A te zmieniały się poprzez ostatnie dekady; trzeba z tego powodu zrobić "ujednorodnienie" pomiarów, co jest dość trudne.   Szczerze mówią dla mnie stanowisko Landsea i dalsze prace środowiska naukowego zajmującego się badaniem cyklonów tropikalnych  jest przykładem szalenie pozytywnym - stałego rozwoju fizyki atmosfery, a nie jak chce Bosacki, jej upadkiem. Ta część badań klimatycznych zależy od pomiarów satelitarnych - jeszcze w latach 1950 takie pomiary nie istniały! Gdyby nie meteofologia satelitarna to obecne ostrzeżenia o cyklonach tropiklanych byłyby znacznie gorsze. 

Pomijając sprawy naukowe - Bosacki wypisuje głupstwa o samym  IPCC. Dla przykładu czytamy -  "Pachauri to wie, bo im za grube pieniądze doradzał. Teraz tłumaczy, że wszystkie honoraria szły nie do jego prywatnej kasy, tylko na instytut, który "nie działa dla zysku". Ale krytykuje go nawet bardzo przychylny z reguły "New York Times". Czyż nie jest przyjemniej rozbijać się po świecie jako szef wielkiego instytutu, niż być nikomu nieznanym ekspertem w Delhi? Czyż nie jest lepiej dostać pokojowego Nobla, niż go nie dostać?". Sprawia to wrażenie, ze Pachuri jest jakąś niebywale ważną osobą w procesie pisania raportów IPCC i jest szefem wielkiego instytutu. W rzeczywistości IPCC  nie jest żadnym "wielkim instytutem" bo raport jest pisany przez naukowców rozproszonych po całym świecie i pracujących instytucjach takich jak NASA,  Uniwersytet Kalifornijski, Yale, Princeton, Harward, MIT. Pachuri nie finansuje żadnych badań naukowych.  Ma kilka osób, które pomagają w publikacji raportów. Sam Pachuri jest praktycznie mało znany w środowisku naukowym. Już bardziej znaną osobą jest Susan Solomon, która była szefowa I grupy roboczej IPCC  i dostała medal Rossbiego, najwyższe odnaczenie dla fizyka atmosfery w Stanach, za prace badawcze nad dziurą ozonową. 

Co z tego wszytkiego wynika dla Bosackiego? Otóż z tego, że nauka się rozwija, że naukowiec który zrobił błąd i się do tego przyznał, że naukowcy między sobą dyskutują i się ze sobą nie zgadzają, ale starają się dojść do wspólnego stanowiska Boscaki wyciąga wniosek, że naukowcy manipulują.  Nie jest to pogląd odosobniony. Obecny napad na badania klimatyczne jest bez precedensu.  Dla większości naukowców zajmująych się zmianami klimatu ta sytuacja jest zaskoczeniem.  Pokazuje to, że naukowcy muszą  zajmować się popularyzacją nauki, czy tego chcą czy nie. Jednocześnie musi istnieć ochrona działalności naukowej ze strony stowarzyszeń naukowych, bo wielokrotnie badania klimatyczne wkraczają na pole polityki, działalności  o której fizyk atmosfery, meteorolog, klimatolog, oceanograf nie mają pojęcia.  Żeby jednak nie zwalać całej odpowiedzialności na samych badaczy za knot Bosackiego -  dobrze by było, żeby opiniotwórcze dzienniki w Polsce miały dobrych dziennikarzy naukowych. Gazeta Wyborcza miała kiedyś dobry dział naukowy, który został rozmontowany. Popularyzacja nauki nie może polegać na czytaniu opini z drugiej ręki.

 

PS 4 marca 2010 umarła Joanne Simpson,  pierwsza kobieta, która uzyskała doktorat z metorolologii.  Joanne była "feministką naukową" i dzięki niej wiele kobiet zaczęło i kontynuowało pracę w oceanografii i fizyce atmosfery.  Zajmowała się atmosferą tropikalną, m.in.była szefową  misji satelitarnej TRMM. Dostała  za swoją prace Medal Rossbiego - najwyższe wyróżnienie Amerykanskiego Towarzystwa Meteorologicznego.