Blog poświęcony popularyzacji badań klimatycznych
wtorek, 30 marca 2010

To,  że debata dotycząca zmian klimatu powoduje rozdział pomiędzy środowiskiem naukowców i ogólną publicznością  nie jest specjalnie dziwny.  Dzisiejszy New York Times (Leslie Kaufman,  „Among Weathercasters, Doubt on warming”, NYT 29 marca 2010) opublikował artykuł pokazujący na znaczne różnice w zapatrywaniach pomiędzy synoptykami a naukowcami zajmującymi się badaniami zmian klimatu. Podczas gdy amerykanscy klimatolodzy prawie w całości popierają wyniki badań klimatycznych,  to amerykańscy synoptycy, wicherkowie i chmurki, telwizyjni i radiowi przepowiadacze pogody, nie tak do końca.   Z 571 telewizyjnych prognostyków tylko połowa wierzy, że zachodzi globalne ocieplenie a tylko 1/3 wierzy,  że zmiany te zachodzą głównie poprzez działalność człowieka.  Wg New York Timesa (NYT) jest to nieoczekiwany obrót wydarzeń. W Stanach ogólna publiczność uważa, że to synoptyk  ma rację w sprawach klimatycznych.  Powody różnic są dość złożone.  Wprawdzie Amerykańskie Towarzystwo Meteorologiczne popiera raporty IPCC w swoim oficjalnym stanowisku, jednak synoptycy używają do prognoz pogody modeli numerycznych, które są wrażliwe na warunki początkowe i przewidują pogodę zaledwie na kilka dni do przodu.   Daje to okazję do pytań, w jakim stopniu numeryczne modele klimatu są w stanie ocenić pogodę w przyszłości?  Odpowiedź jest dość prosta – klimatyczne modele wcale nie  przewidują pogody ale są wykorzystywane do oceny czy klimat będzie cieplejszy czy zimniejszy; podobnie jak styczeń jest średnio zimniejszy niż czerwiec, tak modele klimatu przewidują zmiany przy zmienionych scenariuszach (np zmianach ilości dwutlenku węgla w atmosferze).  Modele klimatyczne z raportu IPCC IV nie uwzględniają nawet warunków początkowych w atmosferze (to się zmieni w raporcie IPCC V przygotowywanym na rok 2013 roku, ale o tym napiszę kiedy indziej). Innym powodem rozdziału pomiędzy synoptykami i naukowcami zajmującymi się zmianami klimatycznymi jest wykształcenie -  typowy naukowiec pracuje w uniwerytecie i ma doktorat, natomiast synoptycy (w Stanach) mają podstawowe wykształcenie uniwersyteckie.  Powoduje to spięcia na granicy elity z populizmem.

Dlaczego o tym piszę i jak się to przekłada na warunki polskie?  Nie chodzi o to, żeby polscy przeciwnicy badań zmian klimatycznych dostali nowy argument do ręki. Są tutaj pewne lekcje. Po pierwsze,  poziom zrozumienia różnic pomiędzy modelami klimatu i modelami prognozy pogody jest w polskim i w amerykańskim społeczeństwie żaden. Ulubiony argument przeciwników zmian klimatycznych jest taki, że modele numeryczne nie potrafią prognozować pogody na kilka dni, więc nie mogą dać dobrych rezultatów po 100 latach. To, że modele klimatu nie prognozują pogody nie jest rozumiane.   Po drugie, w Polce mamy przepaść w przygotowaniu naukowym, jeszcze większą niż ta opisywana w NYT.  Powoduje to zderzenie pomiędzy  „szalonymi ekologami”  i „szalonymi profesorami”.  Myślę tutaj o szalonych profesorach spoza środowiska klimatycznego.

poniedziałek, 29 marca 2010

To jest początek serii blogów-odpowiedzi na, moim zdaniem, głupstwa wypowiadane przez polskich przeciwników hipotezy o antropogenicznym efekcie globalnego ocieplenia. Pomysł pochodzi częściowo z materiału umieszczonego przez Johna Renniea na stronie sieciowej „Scientific American” w listopadzie 30, 2009 („Seven Answers to Climate Contrarian Nonsense”) oraz z idei artykułu na Wikipedii
http://pl.wikipedia.org/wiki/Kontrowersje_wokół_globalnego_ocieplenia
Doszedłem jednak do wniosku, że neutralność Wikipedii nie pozwala na dobitne odpisanie polskim przeciwnikom globalnego ocieplenia, którzy nie starają się przedstawiać w swoich wypowiedziach informacji w sposób neutralny - uwzględniający inne punkty widzenia. Od czasu do czasu będę modyfikował/poprawiał odpowiedzi.

Krytyka: Dwutlenek węgla nie wpływa na klimat ponieważ jest gazem śladowym w atmosferze a produkcja przez ludzi jest znacznie mniejsza niż emisja przez wulkany lub przez inne źródła naturalne.

Odpowiedź: Wprawdzie koncentracja dwutlenku węgla jest mała, ale nawet przy małych koncentracjach dwutlenek węgla absorbuje promieniowanie podczerwone i działa jako gaz cieplarniany.  Po raz pierwszy pokazał to  John Tyndall w 1859 roku.  Chemik Svante Arrhenius oszacował w 1896 wpływ CO2 na klimat – w długich obliczeniach na kartce papieru stwierdził, że podwojenie dwutlenku wegla może zwiększyć temperaturę o  prawie 6 stopni Celsiusza -  rezultat zbliżony (ale nie dokładnie) do bardziej dokładnych obliczeń wykonanych obecnie. Efekt cieplarniany dwutlenku węgla jest mały, porównywalny z ociepleniem powodowanym przez żaróweczki od choinki umieszczone na całej ziemi co 1 metr kwadratowy.  Jednak ten efekt trwa cały czas, w dzień i w nocy,  przez wiele lat,  na całej kuli ziemskiej.   

Aktywność człowieka jest najwiekszym źródłem obserwowanego wzrostu  CO2 w atmosferze, jest ponad 130 razy większa niż całkowita produkcja przez działalność wulkaniczną.  Rzeczywiście 95 percent produkcji CO2 jest związane z procesami zachodzącymi w przyrodzie związanymi z fotosyntezą, ale produkcja i  pochłanianie  CO2 przez oceany są dość dokładnie zrównoważone. Produkcja dwutlenku węgla przez człowieka jest jedynym istotnym mechanizmem powodujacym wzrost jego  stężenia w atmosferze w skali roku.  Badania eksperymentalne pokazują na zmieniający się stosunek izotopów węgla w powietrzu, co dodatkowo potwierdza, że spalanie paliw kopalnianych jest głównym mechanizmem wzrostu dwutlenku węgla – o prawie  35%  od  roku 1832  (284ppm)  do  388 ppm obserwowanego obecnie.

http://pl.wikipedia.org/wiki/Efekt_cieplarniany

Krytyka: Dwutlenek węgla nie jest dobrze wymieszany w atmosferze i pomiary na Mauna Loa nie mają żadnego znaczenia

Odpowiedź: Jednym z najbardziej znanym wykresów obecnej dyskusji o zmianach klimatu jest tzw. Krzywa Keelinga (wymawiaj  „kilinga”). Krzywa Keelinga jest wykresem pokazującym zmiany stężenia dwutlenku węgla od roku 1958 kiedy Charles David Keeling zaobserwował zmiany stężenia atmosferycznego dwutlenku węgla (CO2) w obserwatorium na szczycie Mauna Loa (wymawiaj "mona loa") na Hawajach. W 1955 Keeling zaobserwował, że ilość dwutlenku węgla w atmosferze praktycznie nie zależy od miejsca pomiaru, co było w sprzeczności z publikacjami na ten temat w owym czasie. Wywnioskował z tych obserwacji, że dwutlenek węgla jest gazem dobrze wymieszanym w atmosferze (uwaga: obecnie wiemy, na podstawie pomiarów satelitarnych AIRS, że CO2 tylko w przybliżeniu jest gazem dobrze wymieszanym i że istnieją regionalne róznice). Keeling postanowił zorganizować ciągłe pomiary stężenia dwutlenku węgla w nowo utworzonym wtedy, wysokogórskim obserwatorium na Mauna Loa. Kierował się przy tym przeświadczeniem, że skoro dwutlenek węgla jest dobrze wymieszany w atmosferze, to pomiary w jednym miejscu dadzą reprezentatywny wynik dla całego globu Krzywa Keelinga pokazuje systematyczny wzrost stężenia dwutlenku węgla w atmosferze od około 315 cząsteczek na milion objętościowo (ppmv) w 1958 do ponad 380 ppmv w 2006. Wykres Keelinga pokazuje także cykliczne zmiany o około 5 ppmv w ciągu każdego roku związane ze zmianą aktywności roślinności. Na półkuli północnej jest więcej lądów niż na półkuli południowej, dlatego jest tam też więcej roślinności (pomijając fitoplankton). Poziom dwutlenku węgla zaczyna zmniejszać się, gdy na półkuli północnej trwa wiosna. Rośliny wówczas intensywnie rosną, pobierając dwutlenek węgla z otoczenia i zużywając go w procesie fotosyntezy. Stężenie dwutlenku węgla wzrasta ponownie jesienią, kiedy na półkuli północnej kończy się okres wegetacyjny i zużywa się dużo opału do ogrzewania.

http://pl.wikipedia.org/wiki/Krzywa_Keelinga

Krytyka: Istniały sytuacje geologiczne,  kiedy koncentracja dwutlenku węgla wzrosła po zmianie temperatury. Wobec tego obecne zmiany nie są związane z dwutlenkiem węgla.

Odpowiedź:  Okresy końca epoki lodowcowej związane są z szybkim ociepleniem Jednak ten fakt nie przeczy hipotezie, że CO2 jest odpowiedzialne za globalne ocieplenie związane z działalnością ludzi. W konkretnym przypadku opisywanym przez przeciwników, zmiana temperatury po epoce lodowcowej zajęła około 5000 lat, pierwsze 800 lat nie było związane z CO2, ale 4200 mogło być związane ze wzrostem CO2. Innymi słowy, koncentracja CO2 nie jest jedynym czynnikiem, jaki wpływa na klimat, zmiany w całkowitej ilości energii słonecznej dochodzącej do Ziemi czy zmiany cyrkulacji oceanu są istotnymi czynnikami. CO2 może być przechowane w oceanie w czasie epok lodowcowych i emitowane do atmosfery w sytuacji kiedy klimat się ociepla i powodować dalsze ocieplenie.

http://pl.wikipedia.org/wiki/Cykle_Milankovicia

Krytyka: Para wodna jest najważniejszym gazem cieplarnianym w związku z tym efekt dwutlenku węgla nie jest istotny.

Odpowiedź: Przeciwnicy badań zmian klimatycznych twierdzą, że para wodna a nie  CO2 jest najważniejszym gazem cieplarnianym, i że badacze zmian klimatu zaniedbują parę wodną w modelach zmian klimatu.  Jest to nieprawda.  Klimatolodzy uwzględniają parę wodną w  modelach klimatu.  Wraz ze wzrostem temperatury wywołanym początkowo przez  CO2 wzrasta także efekt cieplarniany wywołany przez parę wodną.  Przegląd literatury naukowej na ten temat w IV raporcie  IPCC pokazuje, że para wodna podwaja efekt cieplarniany wywołany przez CO2.  Innymi słowy, dwutlenek węgla jest pierwotna przyczyną a para wodna jest efektem. 

(Źródła. Odpowiedź jest częściowym, i czasami zmienionym, tłumaczeniem materiału John Rennie, Seven Answers to Climate Contrarian Nonsense,  Scientific American, listopad 30, 2009.  Wykorzystałem materiały dotyczące Charlesa Davida Keelinga z Instytutu Oceonografii imienia Scripps w Uniwersytecie Kalifornijskim, które początkowo zamieściłem na polskiej Wikipedii, i inne informacje).

piątek, 26 marca 2010

Moja dzisiejsza przemowa dotyczy czegoś, co może wydawać się kompletnie niepraktycznym tematem: dotyczy zmienności chmur. Od momentu kiedy meteorologia stała się modnym tematem, badania różnych form wody zawieszonej w atmosferze stały się interesujące a nawet konieczne. Gdyby chmury były tylko rezultatem kondensacji pary wodnej w masie powietrza, gdyby ich zmienność związana była tylko z ruchem atmosfery, wtedy istotnie badania chmur byłyby bezużytecznym śledzeniem cieni, próbą opisu form, które są tylko igraszką wiatrów, ciągle zmieniające się, a więc niemożliwe  do opisania. Ale tak nie jest w przypadku chmur.  Tak pisał Luke Howard, twórca nowoczesnej klasyfikacji chmur, w roku 1802 (większość informacji w tym blogu pochodzi z czarującej ksiązki Richarda Hamblina, The Invention of Clouds, How an Amateur Meteorologist Forged the Language of the Skies, 2001, New York). Z drugiej jednak strony noblistka pisze

Z opisywaniem chmur
musiałabym się bardzo śpieszyć -
już po ułamku chwili
przestają być te, zaczynają być inne.

Ich właściwością jest
nie powtarzać się nigdy
w kształtach, odcieniach, pozach i układzie.
(W. Szymborska, Chmury) 

Dzięki Howardowi używamy do tej pory podstawowe nazwy cirrus, stratus i cumulus na powtarzalne w kształcie, odcieniach, pozach i układach chmury występujące w atmosferze.   W grudniu 1802  roku Howard przedstawił publicznie swoja klasyfikację w Londynie, a w 1803 opublikował "On the Modifications of Clouds" w czasopiśmie Philosophical Magazine. Publikacja wywołała duże wrażenie w Europie. Niemiecki poeta Goethe zapoznał się z nią w przedruku w Annalen der Physik w 1815 roku i napisał wiersz na cześć Howarda.  
http://pl.wikipedia.org/wiki/Luke_Howard

Makroskopowe klasyfikacje chmur wskazały na pewną powtarzalność zjawisk atmosferycznych wymuszających powstawanie chmur złożonych z kryształów lodu lub kropel wody (powtarzalność zjawisk chmurowych daje okazje, żeby je uwzględnić w komputerowych modelach zmian klimatycznych). W tym czasie odbywały się pierwsze loty balonem na rozgrzane powietrze. Dzięki temu można było się ostatecznie przekonać, że chmury złożone są z kropel wody a nie z malutkich baloników powietrza otoczonego cienką warstwą wody - ludziom wydawało, że krople wody są za ciężkie, żeby unosić się w powietrzu. Dało to początek badaniom mikrofizyki chmur. Okazało się, że chmury mają dobrze określony cykl życia –  rozwoju i zaniku - i pamietają o procesach, które je tworzyły poprzez kształt i wielkość kropel, zanieczyszczeń i rodzaju kryształów lodowych (z analizy rozgałęzień śnieżnych kryształków lodu można wywnioskować jaka była temperatura i wilgotność w atmosferze na róznych wysokościach w czasie opadania kryształu lodu na Ziemię).   Niektóre z nich, np chmury stratocumulus, żyją bardzo długo mimo że są cały czas przygniatane przez zstępujące powietrze. Pamiętają o tym, że przepływał poniżej nich statek poprzez zmienioną wielkość kropelek wody.


Nie obciążone pamięcią o niczym,
unoszą się bez trudu nad faktami.

Jacy tam z nich świadkowie czegokolwiek -
natychmiast rozwiewają się na wszystkie strony
(W. Szymborska, Chmury)

Wiadomo, że chmury mogą być modyfikowane przez działalność człowieka m.in. poprzez modyfikację wielkości kropli. Innymi słowy, dla tej samej całkowitej masy wody, mogą istnieć chmury, które mają mniej lub więcej kropli.  Bardzo cienkie chmury, zwłaszcza tam gdzie latają wysoko samoloty, są słabo widzialne gołym okiem. Mówimy o nich „ledwo widzialne”.  Ale większość chmur łatwo zaobserwować mimo, że krople wody są przeźroczyste.

Nie mają obowiązku razem z nami ginąć.
Nie muszą być widziane, żeby płynąć.
(W. Szymborska, Chmury)

 

czwartek, 25 marca 2010

Jest jeden gość, który jest pewnie  najwybitnieszym popularyzatorem nauki w Polsce, a którego nikt prawie nie zna.  Ma ksywę „filip_em” i napisał kilka tysięcy haseł dotyczących medycyny i botaniki
http://pl.wikipedia.org/wiki/Wikipedysta:Filip_em/wkład_chronologicznie

tylko, że na Wikipedii. Jak dla mnie to wymogiem każdego grantu naukowego powinno być napisanie przynajmniej jednego hasła medalowego na polskiej Wikipedii. Wikipedia jest postrzegana jako zjawisko internetowe i populistyczne. Ale trzeba dostrzec jej potencjał naukowy, i to że niektóre hasła z zakresu nauk ścisłych czy humanistycznych są i mogą być świetnie napisane. Wracając do Filipa. Ma największy wkład w pisanie haseł medycznych i botanicznych „na medal” w polskiej Wikipedii. Status medalowego artykułu jest przyznawany przez innych wikipedystów
http://pl.wikipedia.org/wiki/Wikipedia:AnM

Sytuacja jest beznadziejna jeżeli chodzi o motywację dla naukowców. Kilka miesięcy temu starałem sie nominować Filipa do nagrody Karola Sabatha przyznawanej dla najlepszego dzienikarza naukowego w Polsce
http://www.varianx.cal.pl/naukowi/

i niewiele z tego wyszło. Publikacje naukowe na Wikipedii są tak unikalne, nie są podpisywane nazwiskiem głównego autora, że trudno ten fenomen nagrodzić (chociaż istnieje tam pojęcie głównych autorów).   Dyskutowaliśmy z Filipem co zrobić i napisał do mnie „Jeszcze raz bardzo dziękuję za uznanie dla mojego wkładu w wikipedię, to dla mnie dużo znaczy. Zastanowię się co napisać o popularyzacji nauki w ramach wikipedii (wydaje mi się że są tu plusy i pewne ograniczenia - np. na wikipedii merytoryka jest wyżej niż walory literackie, nie powinno się pisać umyślnie "ciekawie" - priorytetem jest rzetelne i dokładne przedstawienie tematu), ale mamy też wymóg jasnego i przejrzystego pisania, każde hasło powinno być napisane w sposób umożliwiający zrozumienie nawet laikowi, nie stosujemy drażniących skrótów jak encyklopedie papierowe, zawsze można coś wytłumaczyć dokładniej w odnośniku lub osobnym haśle”.

Na świecie i w Polsce przeciwnicy hipotezy o zmianach klimatu wprost nie znoszą haseł w Wikipedii. Dlaczego?  Bo jest tam nacisk na używanie źródeł pierwotnych i neutralny punkt wiedzenia.  Jest kilka haseł klimatycznych, które są na medal w polskiej wikipedii
http://pl.wikipedia.org/wiki/Globalne_ocieplenie
http://pl.wikipedia.org/wiki/Efekt_cieplarniany
http://pl.wikipedia.org/wiki/Stała_słoneczna

 i w których sam maczałem palce - wiem co piszę. Jak napisać artykuł doskonały? W.g Wikipedii Doskonałego artykułu w zasadzie nie sposób napisać bez oparcia się na publikowanych źródłach informacji. Wiele informacji znaleźć można w Internecie, jednak należy być wymagającym wobec tego źródła. Nie powinno się opierać treści hasła na stronach mało wiarygodnych (hobbystycznych, blogach, komercyjnych) przedstawiających prywatne opinie i doświadczenia twórcy strony, nie podlegające żadnej krytycznej weryfikacji. Wartościowe są natomiast umieszczane w Internecie wszelkie dane oficjalne, publikowane przez rozmaite instytucje publiczne, strony czasopism z ogólnodostępnymi artykułami, naukowe bazy danych. W przypadku znalezienia wtórnych informacji, wskazane jest dotarcie do oryginalnego źródła danych, by nie powielać ewentualnych błędów wynikających z uproszczenia wiadomości lub niefachowej jego interpretacji.

Nic dodać nic ująć.


PS Oh, filip_em to Filip Marcinowski, młody lekarz ze Szczecina.

środa, 24 marca 2010

Dziś będzie o adaptacji do zmian klimatycznych i aspektach jak i kto robi takie plany w Kalifornii.  Pełen dokument (niedawno opracowany) jest tutaj:
http://www.energy.ca.gov/2009publications/CNRA-1000-2009-027/CNRA-1000-2009-027-D.PDF

Dokument został napisany przez kilku autorów,  ale główny przyczynek do części naukowej ma grupa  Dana Cayana, który pracuje w Uniwersytecie Kalifornijskim i jest klimatologiem (a nie geologiem lub, powiedzmy, lekarzem).
http://meteora.ucsd.edu/~cayan/cayan.html

Zacznijmy od tego jaka jest strategia adaptacyjna Kalifornii jeżeli chodzi o zmiany klimatu. Główne cele są takie. 

  1. Należy użyć wyniki najwiarygodniejszych obecnie badań naukowych identyfikujących ryzyko i pozwalająch na stworzenie strategi adaptacji do zmian klimatycznych.
  2. Należy uwzględnić fakt, że nasza wiedza na temat zmian klimatycznych nadal jest uzupełniana.
  3. Należy uwzględnić pozycję wszystkich organizacji, które mogą przyczynić się do rozwoju planów adaptacyjnych.
  4. Należy współpracować z rządem,  z przemysłem i organizacjami pozarządowymi w celu rozwoju i implementacji planów adaptacyjnych.
  5. Należy uwzględnić, że najważniejszymi aspektami są ekonomiczne i socjalne względy, bezpieczeństwo i zdrowie publiczne, prawidłowa gospodarka zasobami, ochrona przyrody i ekologii.
  6. Należy uwzględnic już istniejące strategie adaptacyjne.
  7. Należy zrozumieć, że strategie adaptacyjne muszą być dostosować się do  sytuacji, które nie są w pełni przewidywalne.

Co to znaczy, że należy użyć wyników z najwiarygodniejszych obecnie badań naukowych identyfikujących ryzyko i pozwalających na stworzenie strategi adaptacji do zmian klimatycznych?  W Kalifornii przyjęto, że najwiarygodniejszymi obecnie wynikami przewidującymi zmiany klimatyczne są modele Globalnej Cyrkulacji Atmosfery (GCM). To właśnie te modele stanowią podstawę IV raportu IPCC. Do analizy zmian klimatycznych w Kalifornii użyto wyników ze specjalnego raportu  Special Report on Emissions Scenarios (SRES) i tzw scenariuszy  A2 oraz  B1 otrzymanych na podstawie wielu modeli ale skoncentrowano się tylko na sześciu: modelu PCM z Narodowego Centrum Badań Atmosferycznch (NCAR),  modelu NOAA z Narodowej Administracji Atmosferycznej i Oceanicznej,  modelu GFDL z Laboratorium Geofizycznej Dynamiki Cieczy,  modelu CCSM z NCAR, niemieckiego modelu  z Instytutu Max Planka  ECHAM5/MPI-OM; japońskiego modelu z Uniwersytetu w Tokio MIROC 3.2, i francuskiego modelu z Narodowego Centrum Badań Meteorologicznych CNRM
http://www.energy.ca.gov/2009publications/CEC-500-2009-014/CEC-500-2009-014-D.PDF

Teraz przechodzimy do sprawy technicznie najtrudniejszej. Jak wyniki z modeli globalnych odnieść do skali kraju?  W tym celu należy przewidywania pół meteorologicznych, które w modelach globalnych są  robione, powiedzmy co 100 kilometrów, przenieść do skali znacznie mniejszej. Np dokonać oceny  temperatury co 10 kilometrów. W tym celu używa się metodologii przeskalowania wyników (ang. downscaling). Robi się to obecnie na dwa sposoby. Albo używa się modeli numerycznych, które przewidują pogodę w mniejszej skali (tzw. modele mezoskalowe), albo używa się technik statystycznych, które na podstawie danych z większej skali wybierają możliwą sytuację pogodową. Mówią poglądowo – na podstawie ogólnego rozkładu temperatury i ciśnienia, staramy się ocenić temperaturę w jakimś wybranym miejscu.

Podsumowując, w Stanach naukową część strategii adaptacyjnej  opracowuje się na podstawie wyników z modeli IPCC IV oraz na podstawie wyników pomiarów z konkretnych lokalizacji i ich korelacji z polami wielkoskalowymi.  Do prac nad taką strategią zaangażowani są klimatolodzy.

A w Polsce?  A w  Polsce strategią adaptacji zmian klimatycznych będzie kierował profesor L. Marks.  który nie wie co to są modele numeryczne klimatu, nie wierzy w wyniki IPCC, i który był autorem kompromitującego stanowiska Komitetu Nauk Geologicznych  PAN. Zgodzono się, iż procesy [zmian klimatu]  mają charakter przede wszystkim naturalny. Rzeczywisty wkład człowieka w obserwowane obecnie zmiany jest niewielki. Dostarczycielem CO2 do atmosfery jest nie tylko przemysł ale i hodowla zwierząt rzeźnych, z której trudno rezygnować. Zauważono, że podejmowane globalne działania, prowadzące do ograniczenia emisji CO2, mają głównie wydźwięk polityczny, a proponowane kary za przekroczenie limitów mogą mieć dramatyczne konsekwencje dla polskiej gospodarki. Ustalono, że społeczność geologów, którą reprezentuje KNG, powinna aktywnie włączyć się do publicznej dyskusji, wskazując na faktyczne przyczyny zachodzących procesów. Postanowiono, że Komitet sformułuje swoje stanowisko w sprawie zmian klimatu oraz zagrożenia globalnym ociepleniem oraz zadba o możliwie najszersze jego rozpowszechnienie (Komitet Nauk Geologicznych PAN w Warszawie w dniu 14.11.2008 roku)

PS Profesor L. Marks zakomunikował o powołaniu rządowgo Komitetu Sterującego ds. Opracowania Sektorowych Strategii Adaptacji do Zmian Klimatu, do którego został oddelegowany przez prezesa PAN. Cały protokol można znaleźć tutaj
http://www.kngeol.pan.pl/images/stories/pliki/protokolkng_25_11_2009.doc

Nieprawdopodobne.

wtorek, 23 marca 2010

W Polsce dyskusja o zmianach klimatu została porwana przez grupę dobrze zorganizowanego emerytowanego lekarza popierającego rozwój energii atomowej, fizyka materii skondensowanej, inzyniera i jednego geologa. Dlatego dziś będzie o kuchni fizyki atmosfery w Polsce. Przyznaję, że piszę to trochę z rozpaczy. Zacznijmy od tego jak wygląda fizyka atmosfery na uczelniach amerykańskich. Popatrzmy na listę profesorów na wydziale fizyki atmosfery w Uniwersytecie Stanowym w Kolorado.

http://www.atmos.colostate.edu/faculty/index.php

Thomas Birner jest dynamikiem atmosfery; dokładniej zajmuje się składem atmosfery i oddziaływaniem pomiędzy górną troposferą, czyli tam gdzie latają samoloty na trasach międzykontynentalnych, jakieś 10-15km ponad powierzchnią Ziemi; jest z Niemiec.  Jeff Collett skończył słynną uczelnię Caltech w Pasadenie (tam pracował Noblista Richard Feynman) i zajmuje sie chemią atmosfery czyli w jaki sposób powstają  cząstki płynnych zanieczyszczeń i w jaki sposób te zanieczyszczenia są wymywane przez deszcz.  Podobnie jak Sonia Kreidenweiss, która ukończyła Caltech, i zajmuje się atmosferycznymi pyłami zawieszonymi,  bada jak piasek wędrujący przez Pacyfik z Chin tworzy wysokie chmury (nazywają się cirrusy, ale nie „pcirrusy”). Dalej na liście profesorów jest Bill Cotton -  fizyk od chmur, napisał klika książek o tym jak powstają chmury, jak łączą się w wielkie kompleksy w skali 100 kilometrów. Bill zajmuje się też mikrofizyką chmur, tym jak oddziaływują ze sobą drobne kropelki wody opisywane równaniem wymyślonym przez polskiego fizyka  Mariana Smoluchowskiego (Smoluchowski zajmował się też geofizyka, fałdowaniem gór, kolorem nieba, zagadnieniem górnej granicy atmosfery; patrz Roman Teisseyre, Publ. Inst. Geoph. Pol. Acad.Sc. 1996 M-18 (273) s.47-50, Marian Smoluchowski jako geofizyk).  W Polsce podobnymi problemami fizyki chmur zajmuje się Szymon Malinowski i Hanka Pawłowska.  Cotton jest żeglarzem, miał własny zaprzęg psów huskies i biega po okolicznych górach ze swoimi studentami.  Dave Randall używa komputerowego modelu klimatu, którym stara się teraz zrozumiec jak uwzględnić chmury i ich cykl życia.  Sama technika uwzględniania tych chmur w modelach klimatycznych zostala wymyślona niedawno przez polsko-amerykańskiego fizyka atmosfery Wojtka Grabowskiego a metody numeryczne używane w tego typu modelach sa rozwijane przez polsko-amerykanskiego fizyka atmosfery Piotra Smolarkiewicza.  Dalej  jest Wayne Schubert. Geniusz matematyki stosowanej i dynamiki atmosfery. Wayne  wymyślił parametryzację Arakawy-Schuberta (to był jego doktorat w UCLA), której wersje używane są w wielu modelach klimatu i modelach wielkoskalowych prognoz pogody.  Dalej na liście profesorów jest Steve Rutledge – postawny  facet, kiedyś szef wydziału, zajmuje się meteorologią radarową. Jego grupa ma radar koło Denver, ale czasami używa podobnego radaru na statkach w eksperymentach meteorologicznych. Takie radary są używane w Polsce w prognozach powodzi i burz. Ostatnio spotkałem Steva , kiedy planowaliśmy eksperyment DYNAMO w tropikach w 2010 roku - nie wiem czy dojdzie do skutku. Dalej jest Graeme Stephens, który  jest  Australijczykiem. Uwielbia grać w piłkę nożną i w golfa, jego syn spędził rok na fizyce w Krakowie. Graeme ma własny program satelitarny  (Cloudsat) i zajmuje się problemami teledetekcyjnymi – jak z satelity zmierzyć własności chmur. Jego grupa ma osobny budynek.  Jest „dziadkiem naukowym” polskiego fizyka atmosfery – Krzysztofa Markowicza. Dalej jest Tom von der Haar - legenda metorologii satelitarnej, uczył się u samego Vernera Suomi „ojca meteorologii satelitarnej”. Innym profesorem jest Dick Johnson – to synoptyk. Zna się na mapach atmosferycznych, kiedy przyjdzie front i jaka będzie pogoda. Scott Denning – zajmuje się cyklami geochemicznymi w atmosferze. Colette Head – skończyła słynny uniwersytet Harvarda, zajmuje się modelami transportu zanieczyszczeń. No i na koniec  Bill Gray, patykowaty emerytowany profesor, jeden z najbardziej znanych na świecie przeciwników hipotezy o globalnym ociepleniu.  Dodam, że na wydziale uczy się około 100 doktorantów.

Jak wygląda uniwersytecka fizyka atmosfery w Polsce w 2010 roku? Przypomnijmy, jesteśmy już po olbrzymich przemianach, po wejściu Polski do Unii Europejskiej, gdzie sprawy klimatu, konwencji klimatycznych, chemii atmosfery, wpływu człowieka na pogodę są wielkimi problemami.  Jedynym ośrodkiem uniwersyteckim  fizyki atmosfery  w Polsce jest  Wydział Fizyki Uniwersytetu Warszawskiego.  W zakładzie pracuje klika osób, profesorami są tylko Szymon Malinowski, Krzysztof Haman, Hanka Pawłowska (szefowa), z młodszych osób jest Krzysztof Markowicz.  Jakby rozszerzeniem zakładu jest współpraca z kilkoma naukowcami, którzy wyemigrowali w latach 1980 – Piotrem Smolarkiewiczem, Wojtkiem Grabowskim, którzy pracują w amerykańskim Narodowym Centrum Badań Atmosfery (NCAR) i Piotrem Flatauem z Uniwersytetu Kalifornijskiego.

http://www.igf.fuw.edu.pl/

W Polsce meteorologia jest też wykładana na wydziałach rolniczych i wydziałach geografii. Tylko, że współczesne badania klimatu i prognozy pogody nie opierają się na metodach statystycznych i klasyfikacyjnych.  Natomiast opierają się na fizyce, chemii, symulacjach komputerowych, danych radarowych, modelach transportu zanieczyszczeń, asymilacji danych, równaniu transferu promieniowania,  metodach teledetekcyjnych, dynamice atmosfery.

I to by było na tyle. Właśnie dlatego emerytowany lekarz jest przesłuchiwany jako ekspert od klimatu w polskim Sejmie.

PS Rektorem Uniwersytetu Warszawskiego jest Katarzyna Macukow, która pracuje w Instytucie Geofizyki (gdzie jest Zakład Fizyki Atmosfery) Uniwersytetu Warszawskiego. I własnie dla niej napisałem ten tekst. Ciao Kasia.

sobota, 20 marca 2010

Tłumaczę tutaj ocenę prac naukowych Zbigniewa Jaworowskiego opublikowaną przez  Hansa Oeschgera (ESPR - Environ Sci. & Pollut. Res. 2 (1) 1995, pp. 60-61).

Z trudnością przychodzi mi odpowiadać na artykuł Jaworowskiego, bo ten artykuł powinien być szybko zapomniany. Niestety udało mu się opublikowac inne artykuły w czasopismach i wprowadzić zamieszanie w  ocenie składu atmosfery opartej na analizie powietrza w lodzie z obszarów polarnych [...]

Od lat Jaworowski podkreśla tylko trudności w tych badaniach,  podejmuje niesłuszne założenia i krtykuje na lewo i prawo prace innych. Robi to bez żadnego zrozumienia co zrobiono w tej dziedzinie w kilku ostatnich dziesięcioleciach. Ekstrapoluje problemy zwiazane z metodologią badawczą z początków lat 1960, kiedy dopiero zaczynano te studia, na techniki pomiarowe z lat 1990 kiedy do pomiarów lodu na Grenlandii zaczęto używać nowych technik. Niektóre z jego wypowiedzi są skrajnie niesłuszne z punktu widzenia fizyki, np stwierdzenie, że CO2  na głębokości 70 m w głąb lodu zmienia się w klatrat.  Innym przykładem jest process okluzji w firnie i w młodym lodzie [...]  Jaworowski twierdzi, że wiek lodu i zawartego w nim powietrza jest taka sama i  przesuwa okres zmian CO2  […]

Artykuły Jaworowskiego oraz Heyke nie są traktowane na serio w literaturze naukowej. Istnieje jednak problem z tymi artykułami bo szeroka publiczność, zainteresowana zmianami klimatu, może dojśc do wniosku, że nasze wyniki są częściowo oparte na mylnych informacjach, że  istnieją błędy lub słabości w procedurze badawczej i że cały problem globalnych zmian nie powinien byc traktowany na serio, i że nie ma żadnego powodu, żeby kontrolowac emisje CO2 [...]

Badania historii atmosfery Ziemi są kontynuowane i rozwijane, coraz większa liczba laboratoriów przeprowadza prace pomiarowe i zaczyna ze sobą współpracować.  Tak jak w wielu dziedzinach nauki, badania są ciągle sprawdzane i podejmowane są próby poprawienia technik pomiarowych.  Badania rdzeni lodowych w ostatnich dziesięcioleciach są jednym z fundamentalnych problemów. Opierając się na mojej wiedzy z wielu lat, uważam że jest mało szans, żeby badania gazów cieplarnianych w rdzeniach lodowych były w sposób zasadniczy złe; publikacje Jaworowskiego są nieprawidłowe i nieodpowiedzialne.

Dr Hans Oeschger,  profesor fizyki
Physical Institute
Universytet w Brnie
Chl-3012 Brno, Szwajcaria

Co tu dodać?  W Polsce Jaworowski jest ekspertem od zmian klimatu, mimo że swoją wiedze czerpie z blogów pseudonaukowych.  Tak jak w pracy naukowej tak w wypowiedziach publicznych dotyczacych zmian klimatu Jaworowski mówi nieprawdę w nieodpowiedzialny sposób.

Czytam wypowiedzi polskich publicystów i niektórych naukowców na temat tego czym jest Międzyrządowy Panel do Spraw Zmian Klimatu (IPCC)  i robię przy tym ROTLF, czyli tarzam się ze śmiechu po podłodze.  Wydaje im się, że IPCC to jakiś olbrzymi instytut, sterowany przez polityczne cele, na którym wydawane są olbrzymie pieniądze.

Dlatego bloguję o Lynne F. Talley.

http://www.youtube.com/watch?v=bSFsaIdkc0E

Lynne jest drobną kobietą w średnim wieku. Skończyła College Oberlin i jest koncertową pianistką. Na drzwiach jej pokoju w pracy są zdjęcia dwóch synów, jakieś  żarty rysunkowe wycięte z gazet. Jej pokój jest w budynku nazwanym Nierenberg Hall, który znajduje się na kampusie Instytutu Oceanografii imienia Scripps w malowniczej miejscowości La Jolla, w północnej części San Diego, dość blisko granicy USA z Meksykiem. Pokój jest na pierwszym piętrze  a okna wychodzą na Pacyfik i jest zawalony artykułami i książkami. Ocean jest rzeczywiście tutaj prawie zawsze spokojny. Z  okien można zobaczyć molo, pływa w nim najczęsciej  kilku surferów i nie wiadomo wtedy czy lepiej pójść na plażę, czy pracować.

http://pl.wikipedia.org/wiki/Scripps_Institution_of_Oceanography

Z zawodu Lynne jest oceanografem. Oceanografia ma wiele specjalności – Lynne jest hydrografem. Przez ponad  dwadzieścia lat pływa na statkach badawczych w rozmaite miejsca na świecie i bada własności fizyczne wody od powierzchni oceanu aż do kilku kilometrów w głąb. Wtedy przemienia się z drobnej kobiety w szefową wielkiego statku badawczego i ma pod sobą koło 30 naukowców i studentów.  Przynajmniej raz w roku, w ćwiartce semestru, bo w Universytecie Kalifornijskim jest system krótkich (3 miesiące) semestrów, Lynne wykłada oceanografię fizyczną dla kliku, czasami kilkunastu studentów, którzy zaczynają program doktorancki. Lynne niedawno skończyła pisać książkę na temat oceanografii fizycznej, które jest rozszerzeniem znanego podręcznika Emerego i Pickarda, używanego przez oceanografów przez wiele lat. Siedziała nad pisaniem tego podręcznika przez ostatnie kilka lat.  Teraz to ona będzie pierwszym autorem. Lynne wie jak i gdzie płynie woda w oceanie. Wie jakie są procesy konwekcyjne w oceanie, kiedy powierzchnia oceanu wybrzusza się, bo poniżej przepływa jakiś prąd oceaniczny, wie ile  silikatów jest przenoszona z Pacyfiku na Ocean Indyjski i jak zmienia się temperatura oceanu na dużych głębokościach. Lynne wykłada o pasie transmisyjnym przenoszącym wodę z obszarów biegunowych do równika, i o wszystkich innych meandrach oceanu, jego wielkich i małych wirach i obrotach. Lynne była związana przez długie lata ze Światowym Eksperymentem Cyrkulacji Oceanu, żmudnej roboty polegającej na przypływaniu co kilka lat lub miesięcy w to samo miejsce na oceanie i wypuszczaniu długiego kabla, do którego przyczepione na końcu jest killkanaście butelek pobierających wodę z różnych głębokości. Te stacje pomiarowe robione były co kilkaset kilometrów wzdłuż prostej, stąd słynne w oceanografii – linie Światowego Eksperymentu Cyrkulacji Oceanu (WOCE lines).   Obok pokoju Lynne wiszą duże, długie i bajecznie kolorowe diagramy konturów własności fizycznych wody na różnych głębokościach. To dzięki takim rysunkom można ocenić jak i gdzie płynie woda w oceanie. Lynn wie jaka część oceanu jest podobnie zasolona i co z tego wynika.

Aha - Lynne była pomiędzy 2004 a 2007 rokiem szefową grupy naukowców, podobnie jak ona oceanografów fizycznych, którzy napisali rozdział 5 raportu IPCC na temat cyrkulacji oceanu i jego zmian.    

Tutaj jest troche o Lynne, chociaż powinno być więcej
http://pl.wikipedia.org/wiki/Lynne_Talley

Kiedyś napiszę o zmowie naukowców i o spiskowej teorii dziejów. Bo jak czytam o tym, że Lynne Talley jest w spisku to też tarzam się ze śmiechu po podłodze.

Poniżej jest odpowiedź M. Manna z 11 marca 2010 na list Łukasza Turskiego - „Prof. Łukasz Turski: uznajmy błędy raportu IPCC i zrewidujmy go” w  Gazecie Wyborczej. Przetłumaczyłem artykuł Turskiego na angielski i wysłałem do Manna.

Bardzo dziękuję za zwrócenie uwagi [na publikację w Gazecie Wyborczej]. Niestety, są ludzie tacy jak Lukasz Turski, którzy maja silne opinie na temat spraw,  na których się mało a może wcale nie znają. Trudno się zorientować czy działają z powodu ignorancji czy ze złośliwości. W obu przypadkach czynią szkodę nauce bezsensownymi wypowiedziami tego rodzaju. Wydaje mi się, że nic nie da jeżeli odpowiem.  Wzmocnię jego pozycję i uwiarygodnię nieprawdziwe wypowiedzi, które są chyba wzięte z typowych przemówień nieuczciwych przeciwników badań zmian klimatycznych. Wydaje się, że byłoby lepiej gdyby ktoś w Polsce zareagował. Pozostawię to twojej decyzji czy zajmiesz stanowisko czy nie. Oczywiście,  jeżeli coś napiszesz to będę zobowiązany. Wypowiedzi [Turskiego] są półprawdami i mitami, na które już wielokrotnie odpowiadano. W szczególności, na  stronie Universytetu Penn State jest dokumentacja, że nie ma żadnego dowodu na to, że zrobiłem cokolwiek nieprawidłowego w związku z „climategate”

http://switchboard.nrdc.org/blogs/paltman/melting_climategate_the_vindic.html

http://climateprogress.org/2010/02/04/penn-state-michael-mann-hockey-stick-science

Twierdzenie, że mój artykuł jest w jakikolwiek sposób zdyskredytowany i pełen „błędów” jest nieprawdziwe. Amerykańska Akademia Nauk stwierdziła coś dokładnie przeciwnego:

http://www.realclimate.org/index.php/archives/2006/06/national-academies-synthesis-report

Ostatni raport  IPCC  dodatkowo potwierdził naszą publikację sprzed klikunastu lat, że ostatnie ocieplenie jest z dużym prawdopodobieństwem anomalią (przynajmniej w ostatnich 1300 latach). Do emailu dołączam kilka listów jakie napisałem do  czasopism w odpowiedzi na podobne ataki. Naturalnie możesz użyć cokolwiek z tych listów w odpowiedzi na artykuł Turskiego.

Jeszcze raz dziekuję za informację i za miłe słowa.

Mike [Mann]

Przypomnijmy, że Mann był krytykowany w artykule Turskiego w następujący sposób: „Zasadniczym powodem mojej krytyki ... jest  ... przemilczenie sprawy działalności naukowej dr. Michaela Manna, autora tzw. krzywych hokejowych i osoby, której przypisywane są najbardziej drastyczne fragmenty tekstów wyciekłych z CRU [...]  Krzywe te, o czym wiemy od lat, są otrzymane w drodze "zadziwiająco" popełnionych błędów matematycznych w analizie danych, między innymi zgromadzonych w CRU, do których dostęp dla innych badaczy był, w świetle tychże przecieków, celowo utrudniany."

http://pl.wikipedia.org/wiki/Michael_E._Mann
http://pl.wikipedia.org/wiki/Kontrowersja_kija_hokejowego

Trudno nie sympatyzować z odpowiedzią Manna patrząc na wyniki badań komisji, które nie znalazły błędów matematycznych w jego pracach. W lutym 2010 komisja etyczna Uniwersytetu Penn State, w którym Mann jest profesorem,  nie znalazła też żadnego dowodu, że Mann opublikował cokolwiek drastycznego lub niezgodnego z etyką zawodową.

PS. Tak na marginesie - Mann skończył matematykę stosowaną w Uniwersytecie Kalifornijskim  w Berkeley (jeden z najlepszych wydziałów matematyki w Stanach), skończył fizykę w Yale, i zrobił doktorat na Yale z geofizyki.          

sobota, 13 marca 2010

Ponieważ ocena globalnego ocieplenia zależy od pomiarów temperatury warto zablogować na temat tego jak się mierzy temperaturę. Sprawa jest o tyle ważna i kontrowersyjna bo jeden z argumentów przeciw hipotezie globalnego ocieplenia jest oparty na tym, że nie ma żadnego ocieplenia tylko mierzymy zmiany temperatury w coraz większych, i przez to cieplejszych, miastach - tzw. efekt wyspy cieplnej. Tyle tylko, że wzrost temperatury obserwuje się też w pomiarach temperatury oceanu na całym globie, gdzie nie ma miast. Dlatego zaczniemy od pomiarów temperatury powierzchni oceanu

http://pl.wikipedia.org/wiki/Temperatura_powierzchni_oceanu

Sprawa jest skomplikowana bo trudno zmierzyć termometrem temperaturę samej powierzchni oceanu. Termometrem łatwiej to zrobić pod powierzchnią oceanu. Takie pomiary robione są ze statków na głębokości zazwyczaj około 20 metrów. Można jednak wykonać pomiary temperatury oceanu za pomoców obserwacji w podczerwieni (efekt cieplarniany jest związany z tymi długościami promieniowania) lub w mikrofalach. Takie pomiary wykonuje się zazwyczaj satelitarnie. W podczerwieni pomiary temperatury są rzeczywiście robione bardzo blisko powierzchni oceanu dlatego bo gdyby nasze oczy widziały w podczerwieni, to patrząc na ocean widzelibyśmy prawie czarną powierzchnię – powiedzmy powierzchnię doskonale szarą, przez którą promieniowanie nie przenika. Natomiast za pomocą pomiarów mikrofalowych oceniamy temperaturę kilka milimetrów pod powierzchnią oceanu. Gdyby temperatura ostatnich kilkunastu metrów oceanu była jednorodna nie byłoby kłopotu. W rzeczywistości tak nie jest. Promieniowanie widzialne przenika kilka metrów w głąb oceanu, co można zaobserwować kąpiąc się w basenie, i górna warstwa, zwłaszcza kiedy nie ma wiatru, ma stosunkowo dużą dzienną amplitudę temperatury. Ta temperatura nazywa się temperaturą ciepłej warstwy powierzchniowej. Podsumujmy. Mamy tych temperatur powierzchni oceanu przynajmniej 4 - temperaturę naskórka oceanu (1 mikron w głąb, czyli znacznie mniej niż średnica ludzkiego włosa, nawet blondynki, które mają najcieńsze włosy i dlatego są atrakcyjne), temperaturę blisko naskórka (kilka milimetrow od powierzchni), temperaturę warstwy ciepłej (pierwsze kilka metrów), i temperaturę objetościową (około 20 m pod powierzchnią). Dane satelitarne umożliwiają pomiary na całym prawie oceanie, pomiary z dryfujących boi, boi zakotwiczonych, ze statków, są znacznie bardziej ograniczone w czasie i w przestrzeni. Sprawę ujednorodnienia tych pomiarów z różnych platform rozwiązano w ten sposób, że pomiary satelitarne są porównywane z pomiarami bezpośrednimi. W ten empiryczny sposób znajduje się relację pomiędzy pomiarem satelitarnym a temperaturą na głębokości 20 m. Dzieki temu możemy zmierzyc zmiany temperatury oceanu nawet w obszarach gdzie jest mało statków – np na południowym Oceanie Światowym. Łatwo zauważyć, że istnieje problem czy temperatura na głębokości 20m jest identyczna z temperaturą powierzchniowej warstwy ciepłej czy temperaturą naskórka oceanu, ale to już inna sprawa na inny blog. Zmiany klimatyczne powierzchni oceanu ocenia się na podstawie takich mieszanych pomiarów. Istnieją niebywale interesujące techniki pomiarowe oparte na sieci dryfujących i profilujacych sond pomiarowych o czym kiedyś indziej.

 

 

piątek, 12 marca 2010

Przeczytałem wczoraj artykuł M. Manna i współautorów dotyczący paleoklimatycznej i statystycznej oceny liczby cyklonów tropikalnych na Atlantyku w ostatnich 1500 latach  (Mann, M.E., Woodruff, J.D., Donnelly, J.P., Zhang, Z., Atlantic hurricanes and climate over the past 1,500 years , Nature, 460, 880-883, 2009). Sam pomysł, że coś takiego można zrobić był dla mnie zaskoczeniem. Główne wyniki są takie, że rok 2005, który miał najwyższą obserwowaną bezpośrednio (to ważne) liczbę cyklonów tropiklanych na Atlantyku był unikalny w ostatnim tysiącu lat, ale że w średniowieczu, pomiędzy latami 900 i 1100 był także okres dużej  ilości cyklonów tropikalnych. Ma to znaczenie dla obecnej dyskusji na temat zmian ilości cyklonów tropiklanych wraz ze zmianą temperatury oceanu.  Więcej informacji, łacznie z artykułem, wywiadem, i notatkami prasowymi można znaleźć na stronie
http://www.meteo.psu.edu/~mann/Mann/research/research.html
klikając na link do badań o cyklonach tropikalnych.  

Jak oni to zrobili? Pomysł oceny ilości cyklonów tropikalnych polega na dwóch metodach. Jedna z nich opiera się na pomiarach rodzaju osadów w częściowo odciętych od otwartego oceanu lagunach. Dlaczego to jest ważne?  Dlatego bo wzrost ilości cyklonów tropikalnych wraz ze wzrostem temperatury nie jest obecnie dobrze zrozumiany i w środowisku naukowym istnieją na ten temat rozbieżne opinie.  Wprawdzie rok 2005 był wyjątkowy, ale istnieją argumenty (wysuwane m.in. przez Chrisa Landsea), że analiza ilości cyklonów tropikalnych jest obarczona błędem związanym ze zmianą technik pomiarowych.  Np, że 50 lat temu cyklony tropikalne, które nie wylądowały na lądzie,  nie były obserwowane.  Z tego względu przeprowadza się obecnie reanalizę danych meteorologicznych dotyczących obserwacji ilości cyklonów tropikalnych korzystając z dostępnych danych satelitarnych.  Tylko, że pierwszy amerykański satelita meteorologiczny, Tiros I, był wystrzelony dopiero 1 kwietnia 1960 roku.
http://pl.wikipedia.org/wiki/TIROS_1
(o Vernerze Suomi i jego meteorologicznej grupie satelitarnej w Uniwersytecie Wisconsin będę musiał kiedyś napisać więcej).

Mann wraz ze współpracownikami patrzyli na osady w normalnie zamkniętych lagunach, założyli przy tym, że przejście cyklonu tropiklanego powoduje osadzanie się sedymentów z otwartego morza. Musieli wyeliminować efekty tsunami, które mogą powodować podobne zjawisko przelewania się wody do laguny z otwartego oceanu. Dane pochodziły z Puerto Rico, Zatoki Meksykańskiej, i południowego wybrzeża amerykańskiej (USA) części Atlantyku. Używano techniki datowania radiowęglowego, podobnie jak w technice oceny zmian temperatury na powierzchni Ziemi z pomiarów słoi drzew. Mann i jego współpracownicy zastosowali także inną, kompletnie niezależną technikę oceny ilości cyklonów tropikalnych, opartą na statystycznym modelu.  Do tego celu użyli sposobu wymyślonego pierwszy raz przez Williama Graya z Uniwersytetu Stanowego w Kolorado (pisałem o Grayu). Okazuje się, że można przewidywać ilość cyklonów tropikalnych w danym sezonie na podstawie oceny wielkoskalowych zjawisk meteorolgicznych takich jak temperatura Atlantyku, Oscylacja Północnoatlantycka (NAO), zjawisko ENSO, czy opady deszczu w poprzednium roku na Sahelu. Wszystkie te czynniki wpływają na atmosferę tropikalną pomiędzy Saharą i wybrzeżem USA (gdzie powstają atlantyckie cyklony tropikalne). Mann wraz ze współpracownikami opracował podobną technikę do tej zaproponowanej przez Graya i w 2007 roku wraz ze swoim studentem Tomem Sabbatellim opublikował prognozę ilości cyklonów tropikalnych na Atlantyku opierającą się na ich modelu statystycznym (Mann, M.E., Sabbatelli, T.A., Neu, U., Evidence for a Modest Undercount Bias in Early Historical Atlantic Tropical Cyclone Counts, Geophys. Res. Lett., 34, L22707, doi:10.1029/2007GL031781, 2007).  Żeby zastosować prognozę sezonową musieli ocenić parametry stanu atmosfery w ostatnich 1500 lat. Okazuje sie, ze obie techniki nie zgadzają się kompletnie, ale pokazują wzrost ilosci cyklonów tropikalnych pomiędzy latami 900-1100.

Tak na marginesie - przypuszczam że dla wielu czytelników zajmujących się meteorologią sprawą fascynującą jest fakt,  że Mann wykorzystuje wyniki i pomysły Graya.  Dla osób mniej wtajemniczonych dodam, że Gray do upadłego krytykuje Manna ze jego rekonstrukcję temperatury powierzchni Ziemi.

wtorek, 09 marca 2010

Najwspanialszym  przeciwnikiem poglądu, że globalne ocieplenie jest powodowane przez ludzi jest Bill Gray.  Gray jest teraz emerytowanym profesorem w  Stanowym Uniwersytecie Kolorado w Fort Collins.  Jest starszym panem z niezwykłą energią.

http://www.youtube.com/watch?v=1QDbsYXA5eA
http://www.youtube.com/watch?v=mzedKJxohAY
http://www.youtube.com/watch?v=z-NybQwA2hY


Przez kilka dekad wychował ponad 70 studentów. Zajmuje się meteorologią tropikalną. Przez wiele lat wojsko amerykańskie wysyłało do Graya studentów,  którzy po skończeniu studiów pracowali na całym świecie prognozując cyklony tropiklane. Jak do tego doszło, że u podnóża Gór Skalistych w Kolorado, o kilka tysięcy kilometrów od najbliższego oceanu, powstała znakomita grupa zajmująca się cyklonami – to opowieść na inny wpis.

Gray jest meteorologiem starej daty.  Jako młody naukowiec (na zdjęciu siedzi i patrzy wprost) przewidywał pogodę na Atlantyku jeszcze w czasie II Wojny Światowej. Na wydziale fizyki atmosfery w Fort Collins wykładał globalną cyrkulację atmosfery i meteorologie tropikalną.  Wszystkie jego wykłady były w większości pomysłami w jaki sposób atmosfera może działac. Jego ulubionym powiedzeniem było „up moist – down dry” (do góry powietrze wilgotne, w dół powietrze suche) a jego studenci chodzili w podkoszulkach z takim właśnie napisem. Walczył na wykładach o to, żeby podręczniki meteorologii uczyły o  „w góre wilgotnym a w dół suchym” powietrzu - skrócie myślowym,  że najważniejszym procesem jest przenoszenie masy w chmurach burzowych i zwiazany z tym opad deszczu.  Walczył z „suchymi dynamikami”, czyli uczonymi badającymi  tylko ruch atmosfery bez uwzględnienia procesów konwekcyjnych.  Był uwielbiany przez swoich studentów - na zebraniach grupy naukowej Graya dochodziło do najbardziej gwałtownych dyskusji. Jednak publikował stosunkowo mało, wiele z jego pomysłów pozostawało w sferze zamysłów, było nie do końca udokumentowanych.  Trochę  dlatego, bo studenci z wojska musieli kończyć magisteria przez dwa lata a doktoraty przez cztery lata i nie bardzo mieli czas na kończenie prac badawczych. Jego największym sukcesem publicznym jest sezonowa prognoza ilości cyklonów tropiklanych na Atlantyku. Metoda jest czysto statystyczna,  oparta na kilkunastu czynnikach prognostycznych – np na tym jaki był opad w poprzednim roku, lub na tym czy będzie El Nino. 

Prawie wszystkie komisje ekspertów badające klimatyczny wpływ zmiany temperatury oceanu na intensywność cyklonów tropikalnych mają teraz przynajmniej kilku studentów, którzy kiedyś byli uczniami Graya.  Chris Landsea jest najbardziej znanym z jego studentów i w dużej  mierze kontynuatorem poglądów.

Gray znany jest z tego, że występuje publicznie przeciwko hipotezie, że intensywność oraz ilość cyklonów tropikalnych jest związana ze zmianami klimat. Uważa, że poglądy o zmianie klimatu to czysta konspiracja.  Wdaje się w częste awantury i dyskusje publiczne. W 2006 roku  (patrz The Wall Street Journal, Hurricane Debate Shatters Civility Of Weather Science) Judith Curry, profesor fizyki atmosfery,  powiedziała o Grayu, że jest „wapniakiem”, „którego nikt nie słucha poza kikoma wyznawcami”. Na co Gray odpalił, że „nie czuje się wapniakiem, a jak połowa z jego studentów z doktoratami powie, że jest zwariowanym staruszkiem, to sam odejdzie.”

Można by pisać o Grayu w nieskonczoność. Napisałem o nim trochę na Wikipedii, ale za mało. Może kiedyś napiszę więcej.

http://pl.wikipedia.org/wiki/William_Gray

poniedziałek, 08 marca 2010

W obecnej dyskusji na temat climagate – wykradzonych emailach z instytutu badawczego zajmujacego się zmianami klimatu w Uniwersytecie Wschodniej Anglii znalazł się ciekawy polski wątek. Otóż na początku 2010 Polska, a także Kanada, Szwecja, Rosja i kilka innych krajów odmówiło swobodnego dostępu do swoich danych klimatycznych.  Poinformowano o tym m.in. w czasie przesłuchania w brytyjskim parlamencie przed komisją do spraw nauki i technologii (UK Parliamentary Science and Technology Committee) 3 marca 2010 roku. 
Więcej informacji na ten temat można znaleźć na video z przesłuchania Phila Jonesa
http://www.youtube.com/watch?v=cAj_lZv4Gxc
http://www.youtube.com/watch?v=AK0oGnqtVXo
http://www.youtube.com/watch?v=pBInhAVeixk
http://www.youtube.com/watch?v=1tskv-rX8F4
http://www.youtube.com/watch?v=h8KUm4AEZ5E

Brytyjska służba meteorologiczna poprosiła o zgodę na dystrybucję 170 krajów, do tej pory odpowiedziało 59, z czego  7 nie wyraziło zgody na rozprowadzanie danych przez Uniwerytet Wschodniej Anglii. Dlaczego stanowisko Polski i kilku innych krajów jest ważne? Poprzez odmowę dystrybucji danych, Polska daje argument Uniwersytetowi Wschodniej Anglii, że ten nie mógł spełnić wymagania swobodnego dostępu do danych na podstawie angielskiego prawa -  tzw. freedom of information legislation (FOI).   Dla przypomnienia –  jeden z głównych wątków  „climategate” dotyczy zarzutów wysuwanych pod adresem Universytetu Wschodniej Anglii Climate Research Unit, że nie udostępnił swobodnego dostepu do globalnych danych klimatycznych.  CRU bronił się, że ma podpisane umowy dwustronne z poszczególnymi krajami, które zabraniają dalszego przekazywania danych. 

W jaki sposób dochodzi do dość absurdalnej sytuacji,  w których rutynowe pomiary klimatyczne, takie jak temperatura powietrza czy temperatura powierzchni Ziemi są chronione przez poszczególne kraje? Jest kilka przyczyn. Dane mają wartość eknomiczna, można je sprzedać. W krajach takich jak Polska, instytut meteorologiczny (IMGW) ogranicza dostęp do danych ze względów na ich komercyjną wartość, a kiedyś, a może i teraz,  ze względu na słabą infrastrukturę badawczą. Dochodzi do dziwacznych sytuacji, w których początkowe dane do prognoz pogody są przesyłane spoza Polski. Z kolei Kanada jako argument podała, że woli rozprowadzać dane samodzielnie,  ze swojego serwera w Kanadzie niż z Uniwersytetu we Wschodniej Anglii.  Możliwość zabraniania dystrybucji danych daje Polsce niesławna rezolucja 40 Światowej Organizacji Meteorologicznej (WMO) działającej pod egidą Organizacji Narodów Zjednoczonych. Napisałem o tym więcej na Wikipedii
http://pl.wikipedia.org/wiki/Rezolucja_Światowej_Organizacji_Meteorologicznej

Rezolucja numer 40 WMO stwierdza, że narodowe służby meteorologiczne mogą określić listę  „Dodatkowych Danych i Produktów”, do których wolny dostęp jest ograniczony. Większość krajów europejskich stosuje w większym lub w mniejszym wymiarze rezolucję 40 WMO,  poprzez ograniczanie dostępu do zarchiwizowanych danych klimatycznych. Wyjątkiem w skali światowej są Stany Zjednoczone ze względu na silne przekonanie w społeczeństwie amerykańskim, że za wyniki pracy opłacanej z funduszy publicznych nie można dwukrotnie pobierać opłat. Dlatego archiwalne i aktualne dane meteorologiczne dostępne w Stanach są bezpłatne - zawieraja zresztą dane z innych krajów.  Dochodzi tu jednak do kolizji pomiędzy rezolucją numer 40 WMO a prawem amerykańskim. Większość naukowców zajmujących się badaniami środowiska popiera usankcjonowanie bezpłatnego dostępu i swobodną wymianę danych meteorologicznych, oceanograficznych i hydrologicznych,  ze względu na światowy rozmiar problemu zmian klimatu.

Ogólna publiczność nie jest często zorientowana, że dostęp do danych klimatycznych może być ograniczony przez poszczególne kraje.  Widać to na przykładzie „climategate”. Powoduje to przekonanie o zmowie naukowców. W rzeczywistości sytuacja jest bardziej złożona. Być może sprawa climategate spowoduje silny nacisk na organizacje meteorologiczne i umozliwienie swobodnego przepływu danych klimatycznych. Próby takie podejmuje brytyjska służba meteorologiczna.

sobota, 06 marca 2010

Wśród wszystkich przeciwników hipotezy globalnego ocieplenia jest jedna grupa, którą bym określił grupą Syndromu Dysona.

Freeman Dyson jest niezwykle barwnym fizykiem.  Znany jest ze swoich przyczynków do elektrodynamiki kwantowej, pracował nad problemami fizyki matematycznej, topologii, teorii liczb. Spotkałem go, przez chwilę, w Instytucie Studiów Zaawansowanych w Princeton wiele lat temu, na początku lat 1990.  Już wtedy pisał pasjonujace eseje i książki dotyczące własciwie wszystkiego. „Zaburzając wszeświat” (Disturbing the Universe, 1977), „Nieskończone we wszystkich kierunkach” (Infinite in all directions 1988),  „Słońce, genom, internet”  (The Sun, the Genome, and the Internet -- Tools of Scientific Revolutions, 1999), „Światy wyobraźni” (Imagined World, 2000), „Początki życia” (Origins of Life, 1985) to tylko niektóre z jego książek.   Dyson należał do grupy JASON, naukowców doradzających rządowi amerykańskiem na temat róznych problemów naukowych dotyczące broni balistycznej, optyki, komunikacji z łodziami podwodnymi. Uważa się za naukowego buntownika. Ma zdecydowane stanowisko dotyczące badań klimatycznych.  W marcu  2009 roku niedzielny ilustrowany dodatek do New York Timesa opublikował wielostronicowy artykuł Nicholasa Dawidoffa dotyczący poglądów Dysona na klimat. Freeman uważa, że skoro dwutlenek węgla ogrzewa Ziemię, to jest to dobre dla roślin natomiast problem dwutlenku węgla można ewentualnie rozwiązać poprzez inżynierię genetyczną modyfikując genetycznie drzewa, tak żeby spowodowac zwiększoną sekwestrację. Freeman mówi o badaniach klimatycznych „Po prostu uważam, że wiele z wypowiedzi ekspertów klimatycznych jest absurdalnych. Nie dlatego, że wiem o tym lepiej,  chociaż nieco wiem. Moje obiekcje na temat propagandy o globalnym ociepleniu nie są związane ze sprawami technicznymi, o których wiem mało. Raczej, chodzi mi o sposób w jaki ci ludzie się zachowują, i o ich brak tolerancji na krytykę. Wydaje mi się, że własnie to najbardziej mnie denerwuje. Uważam, że główną różnicą pomiędzy mną i większościa ekspertów od badań klimatu jest to, że mam znacznie szerszy pogląd na całość problemu”  (wywiad z Freemanem Dysonem, 4 czerwca 2009, Freeman Dyson Takes on  the Climate Establishment, Yale, e360). 

Polskim Dysonem Freemanem jest Łukasz Turski.  Podobnie jak Dyson, Turski jest fizykiem. Zajmuje się materią skondensowaną, problemami adsorbcji gazów na powierzchni kryształów, falami spinowymi w ferromagnetykach (tutaj mają z Dysonem identyczne zainteresowania). Podobnie jak Dyson, Turski ma duży wkład w popularyzację nauki. To on wymyślił potrzebę istnienia w Polsce ekploratorium naukowego, realizowanego w Warszawie Centrum Nauki Kopernik. Turski też określa siebie jako buntownika naukowego.  Wprawdzie nie jest meteorologiem (chociaż krótko pracował w Instytucie Geofizki Uniwersyteu Warszawskiego i wsławił się tym, że chciał rozwiazać miejsce, w którym pracował), ale uważa, że naukowcy piszący raport IPCC manipulowali badaniami naukowymi. W lutym 2010 opublikował list w Gazecie Wyborczej  (Gazeta Wyborcza, Prof. Łukasz Turski: uznajmy błędy raportu IPCC i zrewidujmy go)   „Nie wiem, ile takich konfabulacji lub wyrzutek lobbystycznych jest w Raporcie, ale zapewniam czytelników "Gazety Wyborczej", że w prawdziwej nauce nie liczymy fałszerstw na procenty tekstu ... Dlaczego więc nie uznać błędu raportu i przystąpić natychmiast do jego szczegółowej rewizji. Sprawa ocieplenia klimatu jest zbyt ważna dla rozwoju cywilizacji na świecie, by ją podporządkować politycznie motywowanym decyzjom wynikającymi z politycznie motywowanych manipulacji badaniami naukowymi.”

Merytorycznie wypowiedzi Turskiego są wątpliwe - w pisaniu raportu i zbieraniu danych do raportu IPCC nie uczestniczyli oszuści i manipulanci tylko wybitni naukowcy o moralnym autorytecie tej samej klasy co Dyson czy Turski - członkowie Amerykańskiej Akademii Nauk, lauraci najwyższych nagród stowarzyszeń oceanograficznych i meteorologicznych, laureaci nagrody Nobla (Crutzen, Molina).   Dość łatwo dyskutować z głównym zarzutem Turskiego o manipulacji  rekonstrukcji temperatury. Napisałem o tym wiecej na Wikipedii w haśle Kontrowersja kija hokejowego
http://pl.wikipedia.org/wiki/Kontrowersja_kija_hokejowego

Sprawa manipulacji rekonstrukcji temperatury była kilkakrotnie rozważana. M.in. na  życzenie Kongresu Stanów Zjednoczonych powstał specjalny komitet złożony z niezależnych ekspertów, którego zadaniem była analiza pracy krtykownej przez Turskiego (tzw rekonstrukcja MBH98). Panel opublikował wyniki swoich badań w 2006 i potwierdził wyniki artykułu MBH98.

Mimo, że wypowiedzi obu naukowców leżą poza zasięgiem ich wiedzy, to  możliwosci  polemiki są ograniczone.  Powodem jest, że obaj występują pod płaszczem buntownika naukowego działającego ponad „istniejącym układem”.   Przejechał się na tym Jim Hansen,  znany klimatolog amerykański, który na informację o rewelacjach Dysona w New York Times Magazine w 2009 odpowiedział telefonicznie -  „Musimy usmażyć większe rybki niż Freeman Dyson, który nie wie co mówi ... Skoro Dyson błądzi w meandrach spraw, które mają istotne znaczenie dla ludzkości i życia to powinien najpierw odrobić pracę domową – ale z tematu globalne ocieplenie jeszcze tego nie zrobił”.  Hansen natychmiast dostał po głowie za burzenie autorytetu i musiał odpowiedzieć w bardziej elegancki sposób.  

Oczywiście nie ma nic lepszego dla nauki niż krytyka i powtarzalność rezultatów. W nauce mie ma problemu z błednymi hipotezami (np o globalnym ociepleniu), bo te łatwo obalić, natomiast błędne dane pomiarowe to prawdziwy problem.  Tyle, że to co pisze Turski w „Gazecie Wyborczej” o oszustach z IPCC to duża przesada. 

Dzisiaj  (5 marca 2010) pojawił sie artykuł w  NYTimesie dotyczący wymiany korespondencji emailowej pomiędzy członkami Amerykańskiej Akademii Nauk z sekcji badań o otoczeniu i ekologii. Jeden z nich - Stephen Schnieder przyrównał obecne ataki na naukowców związanych z "climategate" do neo Makkartyzmu. Paul Falkowski, profesor z Uniwersytetu w Rutgers,  napisał że naukowcy powinni występowąc w swojej obronie w publicznym radio i w telewizji. Falkowski http://lifesci.rutgers.edu/~molbiosci/faculty/falkowski.html  nie tylko jest członkiem Amerykańskiej Akademi Nauk, ale niedawno został  wybrany do jej rady nadzorczej. Pamiętam go z publikacji biologi morza i ciekawego eksperymentu dotyczącego zakwitu fitoplanktonu i deficytu żelaza.

Taki Makkartyzm naukowy związany z "climategate" pojawia się ostatnio w Polsce. Pierwszego marca "Gazeta Wyborcza" opublikowała artykuł "Naukowcy, święte krowy"  Marcina Bosackiego, w którym dostaje się naukowcom poczynając od tych związanych z badaniami zmian klimatu a kończąc na epidemiologach.  Bosacki podsumowuje swój artykuł "Ale naukowcy to nie są święte krowy. Oni i ich panele muszą wreszcie nauczyć się tego, czego dawno uczą się (z różnymi skutkami) politycy i ich partie oraz dziennikarze i ich media. Jeśli wkraczasz w sferę publiczną, jeśli wpływasz na życie milionów i wydawanie miliardów, pole do pomyłki się zmniejsza. Jeśli mylisz się lub manipulujesz, ludzie przestają ci wierzyć. Kropka." Zresztą wypowiedż Bosackiego to kontynuacja dość agresywnych ostatnio w Polsce wypowiedzi dotyczących nauk o zmianach klimatu, m.in.  Ł. A. Turskiego, Zbigniewa Jaworowskiego, czy Komitetu Nauk Geologicznych Polskiej Akademii Nauk (ta dość nieprawdopodobna sytuacja, w której naukowcy z innej dziedziny atakują  inną dziedzine wiedzy wymaga osobnego wpisu).   Wszystko to powoduje spadek zaufania do nauki, nie tylko o zmianach klimatu.

Warto prześledzić artykuł Bosackiego, żeby zrozumieć o co chodzi członkom Amerykańskiej Akademi Nauk.

Wypowiedż Bosackiego nie ma nic wspólnego z popularyzacją nauki czy faktami a sam artykuł jest jednostronną opinią.  Widać, że  autor  nie ma pojęcia o badaniach klimatycznych  - o tym za chwilę. Przypuszczam, że tego typu poglądy odzwierciedlają nastroje wśród "ogółu publiczności",  zaczynają to dostrzegac sami naukowcy.  O tym jest artykuł w NYT i tutaj te wątki amerykańskie i polskie się łaczą.  Sam Falkowski twierdzi, że jest "naukowcem i obywatelem", i że ma obowiązek bronienia nauki.  Zaczynam się z nim zgadzać czytając wypowiedzi Bosackiego w "Gazecie".

Warto prześledzić artykuł Bosackiego.  Jest tam bład na błędzie jeżeli chodzi o fakty. Dla przykładu jest opisany Mark Siddall, oceanograf pracując m.in. nad modelowaniem zmian poziomu oceanu.  Sidall opublikował artykuł w 2009 roku, który wycofał z powodu dwóch błędów jakie w nim zrobił. Napisałem email do Siddala, z prośbą o interpretacje wypowiedzi Bosackiego.  Odpisał dośc szybko mówiąc, że wycofał artykuł i jest to opisane na blogu czasopisma Nature
http://blogs.nature.com/news/thegreatbeyond/2010/02/sea_level_paper_withdrawn_on_a.html
napisał też,  że skontaktowała się z nim tylko jedna gazeta
http://www.guardian.co.uk/environment/2010/feb/21/sea-level-geoscience-retract-siddall
a wszystkie inne artykuły są komentarzem.  W komentarzu Bosackiego czytamy  "Siddall przeprasza i mówi, że nie wie, o ile poziom oceanów wzrośnie".  W rzeczywistości Siddal nie kwestionuje oceny IPCC, że poziom oceanów wzrośnie tylko pisze, że w jego pracy, opublikowanej w 2009 roku (czyli już po publikacji IPCC w 2007)  były dwa techniczne błędy i praca nie mogła byc poprawiona, ale powinna być wycofana.  Ocena poziomu wody w oceanach  była szacowana przez IPCC na 18cm-59cm w roku 2100 i podkreślała, że nie ma jeszcze dobrej oceny wpływu topnienia lodu. Nowsze oceny zrobione przez Martina Vermeera i  Stefan Rahmstorfa opublikowane w grudniu 2009 dają wartości 0.75m-1.9m w 2100.  Komentarz Bosackiego stwarza wrażenie, że błędy Siddala podważają sekcję raportu IPCC dotyczącą zmian poziomu oceanu co nie jest prawdą.

W artykule Bosackiego czytamy też taki komentarz: "Już w 2005 r. szef Narodowego Centrum Huraganów w USA Christopher Landsea wycofał się z prac IPCC, gdyż szefowie Panelu straszyli ludzkość, że ocieplenie (które też uważa za fakt) powoduje silniejsze huragany - na co już zdaniem Landsea dowodów nie ma. Ostrzegł Pachauriego, że pisanie raportu jest w IPCC "z góry motywowane przez partykularne interesy i gwałci zasady nauki". Pachauri go zignorował."

Oczywiście Chris Landsea nie jest szefem Narodowego Centrum Huraganów, a sam raport IPCC IV z 2007 roku (opublikowany dwa lata po wycofaniu się Landsea z jego prac) jest bardzo konserwatywny w ocenie zmian zarówno intenywności jak i powstawania cyklonów tropiklanych.  Pachauri nie zignorował Landsea, bo Pachuri nie zajmuje się cyklonami tropikalnymi, a tę część raportu pisali fizycy atmosfery a nie Pachuri, który nie miał tu nic do gadania.  To, że Landsea wycofał się z pracy nad raportem nie oznacza, że poglądy w nim zawarte są  błędne. Żeby to wszystko zrozumieć, trzeba trochę znać meteorologię  i małe środowisko naukowe zajmujące się cyklonami.  Po przeczytaniu artykułu Bosackiego napisałem email do Landsea z prośbą o referencje do jego nowej publikacji. Chris odpisał i podał  link do swojej strony  sieciowej
http://www.aoml.noaa.gov/hrd/Landsea/landsea_bio.html 
i do artykułu  opublikowanego w 2010 w Nature Geoscience. Artykuł  ma dzisięciu autorów, zwraca zresztą uwagę, że obok Chrisa Landsea jest też Kerry Emanuel (dla nie ekspertów - obaj są nieco po innej stronie barykady w dyskusji o wpływie temperatury na intensywnosc cyklonów).  Co z tego artykułu wynika?  W streszczeniu czytamy, że modele numeryczne przewidują wzrost o  2-11% w intensywności cyklonów tropikalnych w roku 2100. Artykuł podkreśla też, że w analizie używane są nowe techniki oparte na pomiarach satelitarnych.  Dla mniej wtajemniczonych wyjasniam o co chodzi. Otóż ocena zmian klimatycznych intesywności cyklonów tropiklanych i ich rozwoju po cyklogenezie (powstaniu) oparta jest na technikach (tzw metoda Dvoraka), które zależą od jakości danych satelitarnych.  A te zmieniały się poprzez ostatnie dekady; trzeba z tego powodu zrobić "ujednorodnienie" pomiarów, co jest dość trudne.   Szczerze mówią dla mnie stanowisko Landsea i dalsze prace środowiska naukowego zajmującego się badaniem cyklonów tropikalnych  jest przykładem szalenie pozytywnym - stałego rozwoju fizyki atmosfery, a nie jak chce Bosacki, jej upadkiem. Ta część badań klimatycznych zależy od pomiarów satelitarnych - jeszcze w latach 1950 takie pomiary nie istniały! Gdyby nie meteofologia satelitarna to obecne ostrzeżenia o cyklonach tropiklanych byłyby znacznie gorsze. 

Pomijając sprawy naukowe - Bosacki wypisuje głupstwa o samym  IPCC. Dla przykładu czytamy -  "Pachauri to wie, bo im za grube pieniądze doradzał. Teraz tłumaczy, że wszystkie honoraria szły nie do jego prywatnej kasy, tylko na instytut, który "nie działa dla zysku". Ale krytykuje go nawet bardzo przychylny z reguły "New York Times". Czyż nie jest przyjemniej rozbijać się po świecie jako szef wielkiego instytutu, niż być nikomu nieznanym ekspertem w Delhi? Czyż nie jest lepiej dostać pokojowego Nobla, niż go nie dostać?". Sprawia to wrażenie, ze Pachuri jest jakąś niebywale ważną osobą w procesie pisania raportów IPCC i jest szefem wielkiego instytutu. W rzeczywistości IPCC  nie jest żadnym "wielkim instytutem" bo raport jest pisany przez naukowców rozproszonych po całym świecie i pracujących instytucjach takich jak NASA,  Uniwersytet Kalifornijski, Yale, Princeton, Harward, MIT. Pachuri nie finansuje żadnych badań naukowych.  Ma kilka osób, które pomagają w publikacji raportów. Sam Pachuri jest praktycznie mało znany w środowisku naukowym. Już bardziej znaną osobą jest Susan Solomon, która była szefowa I grupy roboczej IPCC  i dostała medal Rossbiego, najwyższe odnaczenie dla fizyka atmosfery w Stanach, za prace badawcze nad dziurą ozonową. 

Co z tego wszytkiego wynika dla Bosackiego? Otóż z tego, że nauka się rozwija, że naukowiec który zrobił błąd i się do tego przyznał, że naukowcy między sobą dyskutują i się ze sobą nie zgadzają, ale starają się dojść do wspólnego stanowiska Boscaki wyciąga wniosek, że naukowcy manipulują.  Nie jest to pogląd odosobniony. Obecny napad na badania klimatyczne jest bez precedensu.  Dla większości naukowców zajmująych się zmianami klimatu ta sytuacja jest zaskoczeniem.  Pokazuje to, że naukowcy muszą  zajmować się popularyzacją nauki, czy tego chcą czy nie. Jednocześnie musi istnieć ochrona działalności naukowej ze strony stowarzyszeń naukowych, bo wielokrotnie badania klimatyczne wkraczają na pole polityki, działalności  o której fizyk atmosfery, meteorolog, klimatolog, oceanograf nie mają pojęcia.  Żeby jednak nie zwalać całej odpowiedzialności na samych badaczy za knot Bosackiego -  dobrze by było, żeby opiniotwórcze dzienniki w Polsce miały dobrych dziennikarzy naukowych. Gazeta Wyborcza miała kiedyś dobry dział naukowy, który został rozmontowany. Popularyzacja nauki nie może polegać na czytaniu opini z drugiej ręki.

 

PS 4 marca 2010 umarła Joanne Simpson,  pierwsza kobieta, która uzyskała doktorat z metorolologii.  Joanne była "feministką naukową" i dzięki niej wiele kobiet zaczęło i kontynuowało pracę w oceanografii i fizyce atmosfery.  Zajmowała się atmosferą tropikalną, m.in.była szefową  misji satelitarnej TRMM. Dostała  za swoją prace Medal Rossbiego - najwyższe wyróżnienie Amerykanskiego Towarzystwa Meteorologicznego.