Blog poświęcony popularyzacji badań klimatycznych
sobota, 01 maja 2010

Marian Smoluchowski
http://pl.wikipedia.org/wiki/Marian_Smoluchowski

opracował matematyczną teorię, która stanowi podstawę mikrofizyki chmur. Równanie koagulacji Smoluchowskiego z 1917 roku
http://en.wikipedia.org/wiki/Smoluchowski_coagulation_equation

(Marian Smoluchowski, Versuch Einer Mathematischen Theorie der Koagulationkinetik kolloider losungen, Zeitschrift fur physikalishe Chemie, XCII, 1917, 129-168) opisuje m.in. jak zderzają się krople wody w chmurach i w jaki sposób powstaje deszcz. Równanie Smoluchowskiego jest używane w  modelach rozwoju chmur i, w uproszczonej formie, w modelach prognoz pogody i modelach klimatycznych (parametryzacja typu Kesslera).

Wyobraźmy sobie, że staramy się opisać problem wzrostu małych kropel utrzymujących się w chmurach aż do rozmiarów, kiedy następuje deszcz. Jednym z mechanizmów jest zderzanie i zlewanie kropel, proces który nazywamy koagulacją. Starając się opisać liczbę kropli o  określonej wielkości mamy do czynienia z dwoma procesami. Jeden proces jest procesem źródłowym – doprowadzającym do tego, że kropel o danym rozmiarze jest coraz więcej. Drugi proces jest procesem zmniejszającym (ściek) ilość kropli o danej wielkości.  Smoluchowski zauważył, że istnieje wiele kombinacji,  w których dwie małe krople zderzając i zlewając się  tworzy kroplę o konkretnym rozmiarze.  Łatwo to zrozumieć rozważając następującą analogię. Powiedzmy, że interesują nas kombinacje liczb, które po zsumowaniu dają liczbę 7=1+6=2+5=3+4.  Jak widać jest kilka możliwości (1,6), (2,5), (3,4). Podobnie jest w chmurach, krople o różnych rozmiarach zlewając się tworzą większą krople o konkretnej wielkości.  Inaczej jest dla ścieku: jakakolwiek kropla zderzająca się z kroplą o interesującym nas rozmiarze spowoduje, że ilość tych kropli się zmniejszy. Zastanówmy ile jest kombinacji dodawania do liczby 7 innej (nie zerowej) liczby, tak żeby po dodaniu nadal pozostało 7.  Nie ma takiej możliwości.  Te dwa procesy to w skrócie równanie Smoluchowskiego.

Tak na marginesie ciekawe są uwagi Smoluchowskiego o fizyce atmosfery w 1916 roku kiedy podkreślał że meteorologia przestaje być dziedziną opisową a staje się dziedziną fizyki: „Podręcznik meteorologii [Rudzkiego ...], pod pewnym względem stoi również  na poziomie wyższym niż podobne dzieła zagraniczne, ponieważ meteorologia nie występuje w nim jako zbiór statystycznych reguł empirycznych, lecz przybiera postać, o ile to możliwe w dzisiejszym stanie wiedzy, nauki o fizyce atmosfery. Taki zaś jest oczywiście kierunek, w którym ta nauka dzisiaj się rozwija, i w którym postępując, stanie się kiedyś gałęzią nauk ścisłych, równorzędną z innymi działami nauk ścisłych
http://matwbn.icm.edu.pl/ksiazki/pms/pms3/pms318.pdf

(Marian Smoluchowski, „Maurycy Rudzki jako geofizyk”, przemówienie wygłoszone w dniu 21 listopada 1916 roku na posiedzeniu Krakowskiego Oddziału Polskiego Towarzystwa Przyrodników im. Kopernika, Kosmos, tom XLI, 105-119).  Z perspektywy prawie 100 lat widać, że meteorologia jest dziedziną fizyki (a także chemii i matematyki stosowanej).  Czasami mam wrażenie, że nie dostrzeżono tego jeszcze do końca w Polsce w 2010 roku, gdzie meteorologia jest nadal domeną studiów geograficznych z jednym, chlubnym, wyjątkiem Uniwersytetu Warszawskiego. Potwierdza to też niski poziom, czasami na poziomie znachorstwa, obecnej dyskusji o zmianach klimatu w Polsce.

Jeden z najbardziej aktywnie badanych współczesnych problemów zmian klimatu opiera sie na pionierskich pracach polsko-amerykańskiego  fizyka atmosfery – Wojtka Grabowskiego. Wojtek pracuje od lat w Narodowym Centrum Badań Atmosferycznych w Boulder w Kolorado. To dzięki jego badaniom powstało centrum  nauki i technologii Wielkoskalowych Badań Procesów Atmosferycznych
http://www.cmmap.org/

Centrum stara się w realistyczny sposób uwzględnić procesy chmurowe w numerycznych modelach klimatu. Wojtek napisał kilka artykułów, które zapoczątkowały zainteresowanie tym tematem. Jeden z nich dotyczy parametryzacji konwekcji za pomocą modeli chmurowych (patrz np. Grabowski, W. W., and P. K. Smolarkiewicz, 1999: CRCP: A cloud resolving convection parameterization for modeling the tropical convective atmosphere. Physica D, 133, 171-178).

O co tutaj chodzi? Komputerowe modele zmian klimatu polegają na uwzględnieniu wielu wpływów na element powietrza.  To, że wieje wiatr zależy od tego jakie są różnice ciśnienia. To, ile promieniowania słonecznego dochodzi do Ziemi zależy od tego czy jest noc czy dzień i od tego ile promieniowania jest odbijane od chmur. To czy są chmury zależy od tego czy jest dostatecznie dużo wilgotności w atmosferze i od tego czy cząstce powietrza łatwo czy trudno przemieszczać się do góry (mówimy o stabilności atmosfery). Komputerowe modele  starają się uwzględniać wszystkie istotne procesy atmosferyczne:  transport promieniowania słonecznego, mieszanie turbulencyjne, tworzenie się chmur, oddziaływanie powietrza z przepływem nad górami, adwekcję powietrza z jednego miejsca do drugiego. Takich elementów powietrza może być szalenie dużo,  na wszystkie oddziaływują różne procesy i w zasadzie każdy z tych elementów ma wpływ na wszystkie inne. Ze względu na ograniczenia w szybkości obliczeń wyniki są liczone dla pewnej określonej rozdzielczości. Chcemy nie tylko uwzględnić dużą ilość elementów powietrza – daje to możliwość dobrej prognozy w konkretnym miejscu, ale też dokonać takiego podziału, w którym wszystkie istotne procesy są uwzględnione. Mimo to pewne procesy są zawsze podskalowe, innymi słowy nie są w sposób bezpośredni opisane.  Fizycy od dawna nauczyli się żyć z takimi podskalowymi zjawiskami.   Dla przykładu, temperatura w butelce jest przejawem ruchu wszystkich molekuł. Śledząc je wszystkie można wyznaczyć temperaturę.  Ale można też zmierzyć temperaturę termometrem, który mierzy uśrednioną wartość wszystkich molekularnych oddziaływań (uwaga tylko dla fizyków, którzy to czytają; chodzi o różnice pomiędzy opisem makroskopowym i mikroskopowym;  mechanika statystyczna vs termodynamika).

Jednym z procesów podskalowych w modelach prognozy pogody i klimatu jest powstawanie chmur. W globalnych modelach cyrkulacji ziemskiej rozważa się obecnie elementy powietrza w horyzontalnej skali około 100x100 kilometrów.  Chmury mają skalę zazwyczaj znacznie mniejszą niż 100x100 kilometrów. W tak dużym elemencie może być tysiące znacznie mniejszych chmur. Jednak pewną informację o uśrednionych własnościach można uzyskać nawet w tak dużym elemencie. Dla przykładu, jeżeli jest kompletnie sucho, to niezależnie od tego czy w środku  elementu jest góra czy jezioro, chmury nie mają szans powstać. Jest to przykład parametryzacji procesów podskalowych na podstwie informacji z większej skali.

Na czym polegał pionierski pomysł Grabowskiego?  Otóż Wojtek postanowił użyć do opisu chmur  „modelu w modelu”. Innymi słowy połączył ze sobą dwa modele. Jeden to ten jaki opisałem powyżej. W nim obliczane są prognozy dla elementu w skali 100x100km. Natomiast drugi model stara się obliczyć pole zachmurzenia wewnątrz elementu 100x100km dzieląc go na znacznie mniesze elementy.  Następnie wyniki z tego podskalowego modelu są uśredniane (np pole zachmurzenia) i przekazywane do modelu w większej skali. Tego typu schemat nazywany jest  obecnie w meteorologii superparametryzacją.

środa, 28 kwietnia 2010

Joanna Simpson była piewszą kobieta, która uzyskała doktorat z meteorologii. Peggy LeMone jest  prezydentem Amerykańskiego Towarzystwa Meteorolgicznego. Eugenia Kalney jest autorem najczęściej cytowanego artykułu w historii meteorologii.

Kariera Joanne Simpson zaczęła się w latach 1940 od kilku porad: „Żadna kobieta nie ma doktoratu z meteorologii. Żadna kobieta nie będzie miała doktoratu  z meteorologii. A nawet jak dostanie doktorat, to nikt jej nigdy nie zatrudni” (1946, profesor w Uniwersytecie Chicago).   „To nieprawdopodobna tragedia, kiedy widzę umysł mężczyzny z ciałem kobiety” (słynny meteorolg z Helsinek w 1948 roku).  „Badania chmur cumulus sa dobre dla małej dziewczynki, ponieważ żaden szanujący się meteorolog nie będzie się tym zajmował”  (profesor z MIT, 1946).  Simpson przez lata była modelem w USA dla kobiet zaczynających karierę meteorologiczną. Zajmowała się wieloma zagadnienieniami. M.in. problemem transporu energii z obszarów tropikalnych, cyklonami tropikalnymi,  pomiarami satelitarnymi  deszczu. W czasie II Wojny Światowej wiele kobiet w USA pracowało w meteorologii. Po wojnie, w latach 1940 był nacisk na dawanie miejsc pracy mężczyznom, ale wiele z kobiet zostało na swoich stanowiskach.   Problemy jakie miały kobiety zajmujące się w latach 1950-70  badaniami oceanograficznymi i meteorologicznymi związane były nie tylko ze stereotypami, ale też z regułami dotyczącymi zatrudniania rodziny w tym samym miejscu pracy.

Peggy LeMone pamiętam z artykułu o zabawnym tytule „Wszystko co zawsze chciałeś wiedzieć o chmurach stratocumulus ale bałeś się zapytać”. Peggy pracowała przez wiele lat w Narodowym Centrum Badań Atmosferycznych (NCAR).  W roku 1972, kiedy zaczynała swoją karierę w NCAR było tam tylko kilka kobiet, m.in. Joan Feynman, młodsza siostra znanego fizyka.  Mniej więcej w tym czasie Simpson i LeMone  opracowały razem raport na temat sytuacji kobiet w badaniach meteorologicznych, który opublikowały w 1974 w Biuletynie Amerykańskiego Stowarzyszenia Meteorolgicznego. Jednym z dużych problemów w intytucjach rządowych USA były wtedy reguły nepotyzmu – instytucje nie mogły zatrudniać rodzin.   NCAR wyrzucił wtedy Nancy Knight, która pracowała przez 11 lat ze swoim mężem Charlie Knightem (o nich też warto napisać bo opublikowali kiedyś artykuł ... o dwóch takich samych kryształkach lodu – podobno takich nie ma).  W meteorologii wiele problemów bada się za pomoca pomiarów w kampaniach pomiarowych gdzie gromadzi się kilkunastu  naukowców z unikalna aparaturą badawczą,  wykorzystywane są samoloty do lotów na róznych wysokościach (np do badania wpływu pyłu wulkanicznego na silniki samolotów).  Start samolotów odbywał się  np  w bazach wojskowych. Cześć problemów  w badaniach meteorologicznych było prozaicznych – nie było ubikacji dla kobiet w bazach wojskowych. Peggy LeMone prowadzi program dla młodych meteorologów, który istnieje do dziś i nazywa się GLOBE
http://classic.globe.gov/fsl/html/templ.cgi?new_cloud_quiz

Jest też szefową Amerykańskiego Towarzystwa Meteorologicznego.

(a tak przy okazji - w Polsce  meteorologiczną część programu GLOBE prowadzi Krzysztof Markowicz z Instytutu Geofizyki UW).

Eugenia Kalnay napisała artykuł meteorologiczny, który jest najczęściej cytowanym artykułem naukowych w historii meteorologii. Do dzis był cytowany w innych publikacjach naukowych 6871 (sześć tysięcy osiemset siedemdziesiąt jeden) razy. Ten artykuł  powinien przeczytać  każdy polski przeciwnik badań zmian klimatu, który plecie głupstwa, że dane meteorologiczne nie są dostępne dla wszystkich.  Tak naprawdę ten artykuł powinien znać każdy - blogerzy też - piszący o zmianch klimatu. Artykuł dotyczy tzw. reanalizy danych meteorologicznych.  Jednym z największych osiągnięć badań klimatu ostatniej dekady jest opracowanie w miarę spójnego zbioru danych meteorologicznych.   Co to jest reanaliza?  Jest to próba ujedorodnienia pomiarów z róznych okresów, gdzie były stosowane rózne techniki pomiarowe uwzględniając modele prognoz pogody. Tylko, że, uwaga, uwaga,  prognoza pogody jest robiona nie na przyszłość tylko w chwili kiedy zostały zrobione pomiary. Idea wydaje się z początku absurdalna, ale prawa fizyki wykorzystywane w modelach ograniczają błędy pomiarowe w miejscach gdzie te pomiary są rzadkie. Daje to możliwość na utworzenie zbioru danych, który uwzględnia pomiary nie tylko w danej chwili ale też i w poprzednich dniach.

Literatura obowiązkowa: E. Kalnay  oraz  współautorzy, 1996: The NCEP/NCAR 40-Year Reanalysis Project. Bull. Amer. Meteor. Soc., 1996, 77,437-431.

wtorek, 20 kwietnia 2010

 

Modele transportu pyłów zawieszonych w powietrzu są dostępne na sieci. Jeden z nich naywa sie Model Prognozy i Przewidywania Transportu Zanieczyszczeń Marynarki Wojennej USA (ang. Navy Aerosol Analysis and Prediction System).
http://www.nrlmry.navy.mil/aerosol/

 

W części strony  „aerosol modeling” można dostać rysunki i animacje zanieczyszczeń (uwaga NIE ma tam uwzględnionego aerozolu pochodzenia wulkanicznego – o tym za chwilę).

W meteorologii używa się terminu aerozole, który w Polsce kojarzy się raczej z zakładem fryzjerskim,  klasyfikując w tym słowie różne pyły zawieszone w atmosferze i  kropelki zanieczyszczeń. Model transportu zanieczyszczeń ma dwie główne części.  Najważniejsza część to globalna prognoza pogody. Innymi słowy trzeba wiedzieć jak i skąd wieje wiatr przez następne kilka  dni, jaki jest opad deszczu,  czy na ziemi leży śnieg czy nie,  czy są chmury czy nie.  Tę informację uzyskuje się ze średnioterminowych i globalnych prognoz pogody. Drugim składnikiem modelu jest informacja o żródłach zanieczyszczeń. Do tego używa się różnych technik w zależności od typu zanieczyszczenia. Dla przykładu,  „ilość piasku”, dokładnie - pyłów zawieszonych w powietrzu,  zależy od prędkości wiatru na powierzchni Ziemi i od tego czy powierzchnia Ziemi jest pustynna.  Trzeba wiedzieć, czy przez ostatnie kilka dni padał deszcz, bo od tego zależy ilość piasku, która może być uniesiona do atmosfery. Transport do atmosfery zależy też od tego czy jest w atmosferze ruch pionowy. Po dostaniu się do atmosfery cząsteczki pyłu mogą opadać,  te które są duże, powyżej mikrometra,  opadają dość szybko. W atmosferze zostają  zazwyczaj bardzo małe pyły zawieszone, o wielkości mniejszej niż jeden mikrometr. Pyły zawieszone mogą osiadać lub być wymywane, nazywa się to suchą i wilgotną depozycją. „Wilgotna depozycja” jest związana z wymywaniem przez deszcze. Bardzo małe cząstki, którą są bardzo wysoko (kilkanaście kilometrów ponad powierzchnią Ziemi), mogą przebywać w atmosferze przez kilka miesięcy i wpływać na globalną temperaturę Ziemi. Efekt taki jest obserwowany na rocznych średnich temperaturach Ziemi.  Dlatego aerozole wpływają na globalne ocieplenie.  Ocenia się, że aerozole średnio oziębiają powierzchnię Ziemi.  Podobnym naturalnym czynnikiem jest emisja soli morskiej, chociaż jest to efekt głównie nad powierzchnią oceanów a nie nad lądem. Tutaj znowu wiatr jest głównym mechanizmem emisji. Z tym, że  bezpośrednią przyczyną tworzenia się cząstek soli morskiej są załamujące się fale, które wprowadzają duże ilości powietrza w głąb wody. To powietrze rozdrabnia się  w warstwie powierzchniowej oceanu  na bardzo małe pęcherzyki, które wyskakując z powierzchni zabierają ze sobą niezwykle małą ilość słonej wody, która paruje i tworzy mikroskopijne cząsteczki soli.   W obszarch "pustyń morskich", na środku oceanów, jest czysto i chmury powstają cześciowo przez oddziaływanie z cząsteczkami soli morskiej zawieszonymi w powietrzu.

Poza pyłami piasku i soli morskiej, których ilość prognozuje się na podstawie prognozy pogody,  zródłami są też emisje zanieczyszczeń. Informację o emisji dostaje się z inwentaryzacji zanieczyszczeń z ośrodków przemysłowych i częściowo z pomiarów satelitarnych.  Dwie duże grupy zanieczyszczeń tego typu to siarczany i sadza. Z punktu widzenia wpływu na klimat te dwie grupy działają inaczej. Siarczany wpływają na zwiększenie odbijania promieniowania słonecznego, podczas gdy cząstki sadzy wpływają na ocieplanie.  Innymi źródłami aerozoli są pożary i wybuchy wulkaniczne. Źródła emisji dla tych zanieczyszczeń są mniej przewidywalne. Stosuje się techniki oparte na pomiarach satelitarnych. Dla przykładu ilość emisji zanieczyszczeń z pożarów można ocenić na podstawie temperatury pożarów z pomiarów satelitarnych.

Na podobnej zasadzie można ocenić jak rozprzestrzeniają się zanieczyszczenia w atmosferze ze żródeł w określonym miejscu.  Takie linie nazywają się liniami wysnutymi - moim zdaniem bardzo ładnie się te linie nazywają.  Samemu można wyświetlić rysunki z tych modeli. Patrz model HYSPLIT 
http://ready.arl.noaa.gov/HYSPLIT.php

Istnieją też grupy dyskusyjne poświęcone chmurom wulkanicznym
http://tech.groups.yahoo.com/group/volcanicclouds/

Animacje SO2 i pyłów z wulkanu Eyjafjallajökull na podstawie norweskiego modelu EMEP z Norweskiego Instytutu Meteorologii są tutaj

ftp://ftp.met.no/pub/emep/AMVB/ppm10_tcol_20100420.mpg
ftp://ftp.met.no/pub/emep/AMVB/so2_tcol_20100420.mpg

Opis modelu można znależć tutaj
https://wiki.met.no/emep/emep_volcano_plume
ale podstawy fizyczne (prognoza pogody + źródła) są takie jak opisałem powyżej.

piątek, 09 kwietnia 2010

Artykul w Der Spiegel wydrukowany w kwietniu (wersja angielska)
http://www.spiegel.de/international/world/0,1518,686697-4,00.html

zawiera krytyczny materiał dotyczący badań zmian klimatu.  W części dotyczących badań naukowych artykuł nie ma nic wspólnego z rzetelną relacją i jest powtórzeniem znanych i nieprawdziwych banałów. Warto jednak zwrócic uwagę na nowy wątek – wypowiedź Petera Webstera. Webster jest profesorem fizyki atmosfery i wybitnym naukowcem.  Jego komentarze przytoczone w Spieglu są  istotnie krytyczne w stosunku do Phila Jonesa, profesora klimatologii w Uniwersytecie Wschodniej Anglii.  Ale w rzeczywistości chodzi o coś innego. Napisałem dzisiaj do Webstera, żeby skomentował swoje wypowiedzi do Der Spiegela.  Peter odpowiedział, że istotnie udzielił telefonicznego wywiadu dwa miesiące temu. Potwierdził swoje krytyczne wypowiedzi, ale napisał  że jego krytycyzym dotyczy głównie metodologii naukowej (a nie wyników Jonesa).   

Instytut CRU Uniwersytetu Wschodniej Anglii dostał dane od innych ośrodków na temat średniej miesięcznej temperatury.  Chodzi to o bezpośrednie pomiary od około 1880 roku. Webster dostał kopię danych od CRU i stwierdził, że pomiary sprzed 1940 roku nie mają dobrego opisu "danych o danych" (metadata).  Nie jest to związane z procedurą CRU, ale ze sposobem dokumentacji danych przez ośrodki krajowe, sprzed 70 lat.  Webster nie kwestionuje wyników Jonesa, przeciwnie pisze do mnie  „wierzę, że wyniki pokazują zmiane globalnej temperatury, i że te wyniki związane są z antropogenicznym wzrostm gazów cieplarnianych” (ang. „I believe that there is a trend in global temperatures and that trend is due to AGW increases”). Jednocześnie Peter napisał  "ale w danych są fascynujace podksoki i spadki, które warto wyjaśnić”.  Już teraz w blogach i w artykule Der Spiegela wypowiedź Webstera jest wywracana do góry nogami.     

O co chodzi?  Chodzi o to, że AGW (antropogeniczne efekty gazów cieplarnianych) nie muszą być jedynymi przyczynami zmian temperatury.  Dane zmian temperatury nie pokazuja stałego wzrostu.  W ostatnich 100 latach, są spadki i wzrosty, które są związane z kilkoma czynnikami:  (a) zmianą sposobu i otoczenia pomiarów, (b) wpływem wulkanicznym i innych cząstek zawieszonych w atmosferze, (c)  efektami zmian naturalnych (nie związanych z  AGW), (d) zmianami w przepływie oceanu światowego.  W szczególności Webster zwrócił uwagę na dwie zmiany temperatury z okresem kilku lat.  Pierwszy przypadek jest z okresu 1930-1940, temperatura zmieniła się wtedy zarówno na półkuli pólnocnej i południowej i miała dużą amplitudę – aż 0,35C.   Drugi ciekawy przypadek nastąpił  w latach 1970 i skok temperatury jest przypisywany wprowadzeniu bardziej restrykcyjnych standardów emisji zanieczyszczeń, co (według zwolenników tego wytłumaczenia) powoduje,  że więcej promieniowania słonecznego dochodzi do powierzchni Ziemi. Jednak Webster zwrócił uwagę na fakt, że zmiany temperatury są widoczne zarówno na półkuli północnej i na półkuli południowej. Skoro półkula południowa ma znacznie mniej lądu i przemysłu musi być też znacznie mniej zanieczyszczona. Dlatego, w.g. Webstera, to nie zmiany emisji  są wytłumaczeniem kiwniecia się temperatury w latach 1970. Webster szuka mechanizmu dynamicznego, poza AGW. Ale z tego nie wynika, ze AGW nie ma sensu, lub że CRU i Phil Jones nie maja racji.  Wynika z tego tyle, że klimatolodzy rozważają różne mechanizmy zmiany temperatury na Ziemi. Hipoteza AGW (gazy cieplarniane) nie jest sprzeczna z tym, że istnieją naturalne czynniki zmian temperatury.

PS Reszta jest tylko dla profesorów meteorologii i oceanografii. No to dlaczego są oscylacje dekadalne około 1940 i około 1970 w rekordzie temperatury? W czasie II Wojny Światowej nastąpiła zmiana z pomiarów temperatury z wody pobieranej za pomocą wiadra i z wody pobieranej dla chłodzenia silników (D. Thompson, Nature, 2008). To nie  może być wytłumaczeniem bo oscylacja była pomiędzy 1930-1940.  W.g. Webstera pomiary na lądzie korelują się z pomiarami  temperatury powierzchni oceanu (baza danych COADS) ale z pewnym przesunięciem czasowym.  Czyli zmiany są związane z z oddziaływaniem ocean-atmosfera w skali dekadalnej,  ale raczej nie bezpośrednio  z ENSO (za krótka skala). Rzeczywiście efekty aerozolowe nie muszą być mechanizmem dominującym w dekadalnych oscylacjach w latach 1970
http://pl.wikipedia.org/wiki/Globalne_zaciemnienie

skoro  na południe od stefy konwergencji tropikalnej (ITCZ)
http://pl.wikipedia.org/wiki/ITCZ

też widać zmiany temperatury (tam jest czysto, co widać było z pomiarów w eksperymencie INDOEX)
http://pl.wikipedia.org/wiki/INDOEX

Wyspy cieplne, wpływ słońca (mimo, że jest dekadalny), efekty wulkaniczne nie sa tutaj istotne. No to może ACW (Antarctic Circumpolar Wave) opisane pierwszy raz przez Warrena White. Ma skalę 10 lat i oddziaływuje z ENSO? Webster ma mi przysłac draft artykułu. Zobaczymy. Fascynujące.

piątek, 02 kwietnia 2010

Dziś o globalnych modelach klimatu, pomyśle na pracę magisterską,  i Polce która dostała (wraz z innymi)  w 2007 roku Nagrodę Nobla za  Raport Międzyrządowego Panelu Zmian Klimatu (IPCC IV).

Renata McCoy pracuje w amerykańskim Narodowym Laboratorium w Lawrence Livermore. Renata jest fizykiem i programistką,  uczestniczy m.in. w projekcie, który umożliwia bezpłatny dostęp do wyników ze wszystkich modeli klimatu, jakie były używane do prognozy globalnego ocieplenia w raporcie IPCC IV (AR4).  Program nazywa się Diagnostyka i Porównanie  Modeli Klimatycznych.

Renata zrobiła doktorat w Instytucie Fizyki Polskiej Akademii Nauk w 1994 roku u Marka Cieplaka na temat automatów komórkowych a następnie pracowała w Instytucie Geofizyki Polskiej Akademii Nauk. W 1995 przyjechała do Stanów (do piszacego ten blog), zakochała się (w kimś innym), a reszta to już historia. Teraz zajmuje się obserwacjami klimatu i analizą globalnych modeli klimatycznych i równoległymi algorytmami używanymi w modelach - chodzi o to, żeby te modele szybko się liczyły na superkomputerach z wieloma procesorami. Dziełem Renaty jest  nowy portal, jeszcze nie w pełni funkcjonalny, gdzie będą umieszczane dane z modeli klimatu nowej generacji (tzw. CMIP5 - piąte porównanie modeli klimatu )

http://cmip-pcmdi.llnl.gov/cmip5/data_portal.html?submenuheader=3

Dla niewtajemniczonych dodam, że nie bylo czwartego projektu porównujacego modele klimatu, a a poprzedni projekt badań zmian klimatu za pomoca modeli numerycznych nazywał sie CMIP3. Ponieważ następny dokument IPCC będzie miał numer V, to postanowiono, że wyniki z porównan modeli klimatyczych będa miały akronim CMIP5.  W.g.  Renaty:  większość ośrodków dopiero zaczeło symulacje do CMIP5, zapewne zajmie im to rok, a moźe i dluźej. Pierwsze wyniki pewnie zaczna napływać w najbliższych miesiącach. Nastepny IPCC AR jest w 2012, więc myślę,  że wyniki zostaną zamrożone w 2011, ale nie znam dokladniejszych dat.  Muszę wytłumaczyć co oznacza „zamrożone”. Projekt scenariuszy modeli, innymi słowy na jakim pytaniu fizycznym modelowanie klimatu ma dać odpowiedź, trwa kilka lat. W nastepnym raporcie - IPCC V - jednym z pytań są problemy międzydekadalnych zmian klimatu oraz tzw. wymuszone modele klimatyczne z ustaloną temperaturą w tropikach.  Wyniki maja dać m.in. odpowiedź na pytania typu "co jaki czas można się spodziewać silniejszych niż zwykle zim"?  Po opracowaniu scenariuszy następuje faza obliczania komputerowego, w naszym żargonie mówimy na to „puszczanie modeli”.  Wyniki muszą być skończone  (zamrożone) na rok czy dwa przed publikacją raportu IPCC.

W Polsce nie ma modelu ogólnej cyrkulacji atmosfery używanej do przebiegów klimatycznych, ale można przeprowadzić przeskalowanie do obszaru Polski na podstawie wyników z modeli globalnych. Dane z modeli CMIP3 (dane do IPCC AR4) sa kompletne.
http://www-pcmdi.llnl.gov/ipcc/about_ipcc.php

Żeby dostać (bezpłatnie) dane  trzeba sie zarejestrować, napisać parę zdań.  A pomysł na magisterium „Przeskalowanie warunków klimatycznych do obszaru Polski na podstawie CMIP3” jest taki

Mam też pomysł na recenzentów: Turski, Jaworowski, lub Marks.

czwartek, 01 kwietnia 2010

Poniżej jest tłumaczenie materiału Associated Press z 29 marca 2010. Jest to już druga komisja, która oczyściła naukowców z jakichkolwiek spiskowych intencji. Inna komisja badała w Stanach Zjednoczonych pracę M. Manna i w lutym 2010 nie znalazła nic nieprawidłowego w jego działalności naukowej. Tłumaczę ten materiał, bo nie wiem czy np Gazeta Wyborcza go przedrukuje. Oczywiście nie miałem wątpliwości że tak sie sprawa potoczy.  Nic w tym emailach nie wskazuje na spisek.    

Jedna z kilku komisji w Wielkiej Brytanii badających sprawę emaili wykradzonych z jednego z najważniejszych ośrodków klimatycznych na świecie w większości oczysciła naukowców ze stawianych im zarzutów.

Komisja Nauki i Technologi Parlamentu Brytyjskiego ogłosiła w środę, że nie ma dowodów na to, że dyrektor Climate Research Unit (CRU) Uniwersytetu Wschodniej Anglii zmieniał dane lub wpływał na proces recenzji artykułów naukowych w celu złej reprezentacji  badań globalnego ocieplenia. Te dwa punkty były najważniejszą częscią krytyki wysuwanej przeciw klimatologom.

Komisja stwierdziła, że na podstawie informacji jakie zdołała zebrać, „reputacja naukowa profesora Jones i CRU jest nienaruszona”. Komisja dodała też, że  naukowe podstawy badań zmian klimatu i antropogenicznego wpływu na klimat nie zostały zachwiane poprzez publikację ponad 1000 wykradzionych emaili i związanej z tym dyskusji.

Komisja składała się z 14 członków i jest jedną z trzech komisji w Wielkiej Brytanii jakie badają sprawę wykradzonych email. Emaile wydawały się wskazywać na to, że naukowcy angażowali się w osobiste wycieczki w stosunku do przeciwników zmian klimatu, dyskutowali sposoby w jaki sposób dane nie powinny być udostepniane i w jaki sposób uniemożliwić przeciwnikom publikację wyników w recenzowanych czasopismach. Jeden z nagłośnionych emaili używał słowa „trick” w kontekście „ukrycia spadku” temperatury.

Publikacja emaili nastąpiła przed konferencją klimatyczna w Kopenhadze w 2009. Wywołała furię internetowych ataków wśród sceptyków zmain klimatycznych, którzy nadali sprawie nazwę „klimatgate”. Przeciwnicy  twierdzili, że emaile wskazują na to, że badania naukowe zmian klimatu są kompletnie zmyślone lub przesadzone.

Posłowie brytyjskiego parlamentu zdecydowali się zbadać sprawę ze względu na poważne implikacje dla brytyjskiej nauki.

Przewodniczący komisji Phil Willis powiedział, że niektóre z emaili dosadnie krtykuje przeciwników zmian badań klimatycznych.  Jednak jedynym problemem jaki komisja znalazła była niechęć do rozprowadzania danych. Willis dodał, że Jones nie był związany z żadnym spiskiem związanym z badaniem zmian klimatycznych.

W czasie konferencji prasowej  Willis powiedział, że kontrowersja pewnie pomoże badaniom klimatycznym, ponieważ dane będą ogólnie dostępne.

 “Na końcu wygrają badania naukowe klimatu”  - powiedział Willis.

W środę zwycięzcą został Jones, który nie jest dyrektorem CRU – ustąpił  na pewien czas, tydzien po opublikowaniu emaili. Komisja wyraziła sympatię dla Jonesa,  Willis powiedział, że Jones stał sie dzieckiem do bicia, chociaż prawdziwe problemy leża gdzie indziej.

W raporcie napisano, że „niesłusznie  koncentruje się  krytykę na profesorze Jonesie i CRU”.

Posłowie skrytykowali sposób w jaki Jones i jego wspópracownicy uwzgledniali prośby o dystrybucję danych w ramach angielskiego prawa swobodnego dostepu do danych. Komisja stwierdziła, że naukowcy mieliby mniej kłopotów, gdyby publikowali dane, zamiast zastanawiać się jak odpowiadać na krytykę przeciwników zmian klimatycznch.  

Posłowie pokreślili w swoim raporcie, który opierał sie na jednym dniu zeznań, że nie byli w stanie zając się wszystkimi wysuwanymi zarzutami. Dwie inne komisje nadal obradują w tych sprawach.

Willis powiedział, że jego komisja musiała coś opublikowac przez następnymi wyborami w Wielkiej Brytanii, które nastąpić za  miesiąc.

Oczywiście wolelibyśmy mieć więcej czasu dodał. Śmiejąc się powiedział “musieliśmy coś napisać zanim nas wywiozą”.

Przewodniczącym jednej z dwóch komisji, jakie nadal badają sprawę,  jest Muir Russell. Zadaniem tej  komisji jest sprawdzenie czy naukowcy i Jones, zmieniali lub manipulowali danymi. Raport ma byc opublikowany na wiosnę.

Geolog Ernest Oxburgh jest szefem komisji, która bada czy badania były prowadzone w sposób naukowy. Ta komisja ma w składzie osoby z wykształceniem akademickim. M.in.  w skład komisji wchodzi Kerry Emanuel,  professor meteorologi z MIT oraz Huw Davies,  były prezydent  Miedzynarodowego Stowarzyszenia Meteorologii i Fizyki Atmosfery.

Komisja stwierdziła, że naukowcy badający klimat powinni być w przyszłości bardziej otwarci – np powinni publikować nieobrobione dane, dane przetworzone, oraz programy komputerowe używane do analizy danych. Willis stwierdził, że jest za dużo środków finansowych związanych z badaniami, żeby ignorować wymagania ogólnej publiczności.  

Rządy na świecie wydają olbrzymie sumy pieniędzy na badania naukowe. Wobec tego rezultaty naukowe powinny byc nieskazitelne.

Właśnie wracam z telekonferencji, na której omawialiśmy planowany eksperyment na Oceanie Indyjskim w 2011, który ma badać jak powstaje oscylacja Maddena-Juliana i w jaki sposób ocean oddziaływuje na atmosferę.  
http://pl.wikipedia.org/wiki/Oscylacje_Maddena-Juliana

Było nas kilka osób z różnych miejsc (między innymi z Polski).  Eksperyment odbędzie się z wykorzystaniem statków badawczych, samolotów, może samolotów zdalnie sterowanych.  W eksperymencie ma uczestniczyć statek Indyjski (Sagar Kanya), Japoński (MIRAI), i amerykański (chyba Ravelle).  Francuzi planują eksperyment TRIO w tym samym mniej więcej miejscu i czasie. Od kilkunastu lat interesujące problemy klimatyczne są z pogranicza badań oceanograficznych i atmosferycznych. Jednak zrobienie badań, w których pomiary oceaniczne i atmosferyczne sa razem graniczy z cudem, bo te dwie grupy naukowców rzadko ze sobą współpracują - ponieważ nakłady finansowe na badania klimatyczne są małe. Tym razem mamy jednak współpracować z projektem DYNAMO, który może dostanie fundusze z Narodowej Fundacji Nauk i  Amerykańską Służbę  Oceaniczną i Meteorologiczną. Projekt DYNAMO zajmuje się pomiarami atmosferycznymi, a nasza grupa koncentruje się na badaniach oceanograficznych w oceanicznej warstwie dobrze wymieszanej - górna warstwa oceanu. Ten obszar Oceanu Indyjskiego jest ciekawy, znajduje się tam prąd strumieniowy Wyrtki, termoklina (warstwa w oceanie pomiedzy wodą głęboką i powierzchniowa)  zmienia się ze względu na równikowe prądy oceaniczne i tworzy wybrzuszenie pomiędzy Chagos i Seyschelami.   Nad tym wszystkim przechodzą zaburzenia atmosferyczne, zarówno cyklony tropikalne jak i oscylacje Maddena-Juliana. W projekcie uczestniczą też modelarze, czyli osoby zajmujące się numerycznym modelowaniem procesów fizycznych zachodzących w oceanie. Będziemy wykorzystywać nowy system zakotwiczonych boi - RAMA, które są ustawiane w równikowym Oceanie Indyjskim przez niestrudzonego Mikea McPhadena. Sieć tych boi jest już w dużej części ustawiona, za wyjątkiem zachodniego Oceanu Indyjskiego przy Afryce ze względu na problemy z piratami (Somalia).  Ustawianie tych eksperymentów trwa zazwyczaj kilka lat. Odbywają się zebrania, planowanie instrumentów, rozwiązywane są problemy logistyczne – np czy można użyc pomiary z wód terytorialnych Indii (nie można).  Najbliższe lotniska to Diego Garcia, Male i wyspa Gunn. To właśnie na Male, stolicy Malediwów, odbyło się niedawno spotkanie rządu pod wodą, żeby zrócić uwagę na problem wzrostu poziomu wody w oceanie światowym.  Diego Garcia należy do Wielkiej Brytanii, ale nie można tam swobodnie wpływać.   Tego typy eksperymenty pozwalają na zrozumienie jak zaczyna się El Nino
http://pl.wikipedia.org/wiki/El_Niño

i jak wygląda rozkład temperatury w tropikach, i jak on wpływa na pogodę i klimat także w polskich szerokościach geograficznych.

Karawana idzie dalej do przodu. Polska idzie do tyłu wraz z Komitetem Nauk Geologicznych PAN, który nie przeczytał raportu IPCC.  W następnej edycji IPCC V, obecnie planowanym na rok 2013, jednym z problemów będą tzw. wymuszone scenariusze klimatyczne, w których zadawana jest temperatura w tropikach.  To jest dość trudny technicznie temat, ale może warto napisac co to jest w dwóch zdaniach.   Otóż, ogólne modele klimatu nie są prognozami pogody i dlatego można przewidywać zmiany klimatu w skali stu lat bez zadawania warunków początkowych, czyli nie trzeba zadawać jaka pogoda była dziś, żeby zrozumieć anomalie klimatyczne w skali 100 lat
http://pl.wikipedia.org/wiki/Model_ogólnej_cyrkulacji 

Z kolei modele prognoz pogody, gdzie musimy wiedzieć jaka jest pogoda dziś,  są dobre na kilka dni. Istnieje przepaść pomiędzy skalą kilku dni i stu lat, gdzie modele klimatu nie działają. Ale gdyby udało się znaleźć jakieś silne ale znane procesy systemu klimatycznego w jakimś konkretnym miejscu w skali kilku lat?  Największą szansą jest zrozumienie procesów w obszarach równikowych. Jeżeli znajdziemy metodę na opisanie periodyczności zjawisk w obszarach tropikalnych to możemy użyć ogólnych modeli numerycznych, ale wymuszonych przez znane zjawiska w tropikach, żeby przewidziec procesy klimatyczne w innych nawet odległych miejscach.  Trochę tak jak popychanie huśtawki w jednym miejscu - system się buja w sposób dość przewidywalny, jeżeli jest wymuszony.  To, w dużym skrócie,  jest jednym z zadań nowego IPCC V. I dlatego robimy prace eksperymentalne w  atmosferze równikowej  – chcemy zrozumieć jak działa klimat w stosunkowo prostych sytuacjach.

Pisząc ten blog mam świadomość, że polscy przeciwnicy badań klimatycznych twierdzą, że badania klimatyczne są robione przez oszustów naukowych, których jedynym celem jest dobranie się do kasy.  Jest akurat przeciwnie. Ani te eksperymenty nie są bajecznie drogie, nie uczestniczą w nich oszuści, ani nikt nie rozbija kasy.   Co ja tu będę się długo rozwodził - polski student,  który uczestniczy w projekcie ma stypendium doktoranckie w wysokości około 1300 złotych.

wtorek, 30 marca 2010

To,  że debata dotycząca zmian klimatu powoduje rozdział pomiędzy środowiskiem naukowców i ogólną publicznością  nie jest specjalnie dziwny.  Dzisiejszy New York Times (Leslie Kaufman,  „Among Weathercasters, Doubt on warming”, NYT 29 marca 2010) opublikował artykuł pokazujący na znaczne różnice w zapatrywaniach pomiędzy synoptykami a naukowcami zajmującymi się badaniami zmian klimatu. Podczas gdy amerykanscy klimatolodzy prawie w całości popierają wyniki badań klimatycznych,  to amerykańscy synoptycy, wicherkowie i chmurki, telwizyjni i radiowi przepowiadacze pogody, nie tak do końca.   Z 571 telewizyjnych prognostyków tylko połowa wierzy, że zachodzi globalne ocieplenie a tylko 1/3 wierzy,  że zmiany te zachodzą głównie poprzez działalność człowieka.  Wg New York Timesa (NYT) jest to nieoczekiwany obrót wydarzeń. W Stanach ogólna publiczność uważa, że to synoptyk  ma rację w sprawach klimatycznych.  Powody różnic są dość złożone.  Wprawdzie Amerykańskie Towarzystwo Meteorologiczne popiera raporty IPCC w swoim oficjalnym stanowisku, jednak synoptycy używają do prognoz pogody modeli numerycznych, które są wrażliwe na warunki początkowe i przewidują pogodę zaledwie na kilka dni do przodu.   Daje to okazję do pytań, w jakim stopniu numeryczne modele klimatu są w stanie ocenić pogodę w przyszłości?  Odpowiedź jest dość prosta – klimatyczne modele wcale nie  przewidują pogody ale są wykorzystywane do oceny czy klimat będzie cieplejszy czy zimniejszy; podobnie jak styczeń jest średnio zimniejszy niż czerwiec, tak modele klimatu przewidują zmiany przy zmienionych scenariuszach (np zmianach ilości dwutlenku węgla w atmosferze).  Modele klimatyczne z raportu IPCC IV nie uwzględniają nawet warunków początkowych w atmosferze (to się zmieni w raporcie IPCC V przygotowywanym na rok 2013 roku, ale o tym napiszę kiedy indziej). Innym powodem rozdziału pomiędzy synoptykami i naukowcami zajmującymi się zmianami klimatycznymi jest wykształcenie -  typowy naukowiec pracuje w uniwerytecie i ma doktorat, natomiast synoptycy (w Stanach) mają podstawowe wykształcenie uniwersyteckie.  Powoduje to spięcia na granicy elity z populizmem.

Dlaczego o tym piszę i jak się to przekłada na warunki polskie?  Nie chodzi o to, żeby polscy przeciwnicy badań zmian klimatycznych dostali nowy argument do ręki. Są tutaj pewne lekcje. Po pierwsze,  poziom zrozumienia różnic pomiędzy modelami klimatu i modelami prognozy pogody jest w polskim i w amerykańskim społeczeństwie żaden. Ulubiony argument przeciwników zmian klimatycznych jest taki, że modele numeryczne nie potrafią prognozować pogody na kilka dni, więc nie mogą dać dobrych rezultatów po 100 latach. To, że modele klimatu nie prognozują pogody nie jest rozumiane.   Po drugie, w Polce mamy przepaść w przygotowaniu naukowym, jeszcze większą niż ta opisywana w NYT.  Powoduje to zderzenie pomiędzy  „szalonymi ekologami”  i „szalonymi profesorami”.  Myślę tutaj o szalonych profesorach spoza środowiska klimatycznego.

poniedziałek, 29 marca 2010

To jest początek serii blogów-odpowiedzi na, moim zdaniem, głupstwa wypowiadane przez polskich przeciwników hipotezy o antropogenicznym efekcie globalnego ocieplenia. Pomysł pochodzi częściowo z materiału umieszczonego przez Johna Renniea na stronie sieciowej „Scientific American” w listopadzie 30, 2009 („Seven Answers to Climate Contrarian Nonsense”) oraz z idei artykułu na Wikipedii
http://pl.wikipedia.org/wiki/Kontrowersje_wokół_globalnego_ocieplenia
Doszedłem jednak do wniosku, że neutralność Wikipedii nie pozwala na dobitne odpisanie polskim przeciwnikom globalnego ocieplenia, którzy nie starają się przedstawiać w swoich wypowiedziach informacji w sposób neutralny - uwzględniający inne punkty widzenia. Od czasu do czasu będę modyfikował/poprawiał odpowiedzi.

Krytyka: Dwutlenek węgla nie wpływa na klimat ponieważ jest gazem śladowym w atmosferze a produkcja przez ludzi jest znacznie mniejsza niż emisja przez wulkany lub przez inne źródła naturalne.

Odpowiedź: Wprawdzie koncentracja dwutlenku węgla jest mała, ale nawet przy małych koncentracjach dwutlenek węgla absorbuje promieniowanie podczerwone i działa jako gaz cieplarniany.  Po raz pierwszy pokazał to  John Tyndall w 1859 roku.  Chemik Svante Arrhenius oszacował w 1896 wpływ CO2 na klimat – w długich obliczeniach na kartce papieru stwierdził, że podwojenie dwutlenku wegla może zwiększyć temperaturę o  prawie 6 stopni Celsiusza -  rezultat zbliżony (ale nie dokładnie) do bardziej dokładnych obliczeń wykonanych obecnie. Efekt cieplarniany dwutlenku węgla jest mały, porównywalny z ociepleniem powodowanym przez żaróweczki od choinki umieszczone na całej ziemi co 1 metr kwadratowy.  Jednak ten efekt trwa cały czas, w dzień i w nocy,  przez wiele lat,  na całej kuli ziemskiej.   

Aktywność człowieka jest najwiekszym źródłem obserwowanego wzrostu  CO2 w atmosferze, jest ponad 130 razy większa niż całkowita produkcja przez działalność wulkaniczną.  Rzeczywiście 95 percent produkcji CO2 jest związane z procesami zachodzącymi w przyrodzie związanymi z fotosyntezą, ale produkcja i  pochłanianie  CO2 przez oceany są dość dokładnie zrównoważone. Produkcja dwutlenku węgla przez człowieka jest jedynym istotnym mechanizmem powodujacym wzrost jego  stężenia w atmosferze w skali roku.  Badania eksperymentalne pokazują na zmieniający się stosunek izotopów węgla w powietrzu, co dodatkowo potwierdza, że spalanie paliw kopalnianych jest głównym mechanizmem wzrostu dwutlenku węgla – o prawie  35%  od  roku 1832  (284ppm)  do  388 ppm obserwowanego obecnie.

http://pl.wikipedia.org/wiki/Efekt_cieplarniany

Krytyka: Dwutlenek węgla nie jest dobrze wymieszany w atmosferze i pomiary na Mauna Loa nie mają żadnego znaczenia

Odpowiedź: Jednym z najbardziej znanym wykresów obecnej dyskusji o zmianach klimatu jest tzw. Krzywa Keelinga (wymawiaj  „kilinga”). Krzywa Keelinga jest wykresem pokazującym zmiany stężenia dwutlenku węgla od roku 1958 kiedy Charles David Keeling zaobserwował zmiany stężenia atmosferycznego dwutlenku węgla (CO2) w obserwatorium na szczycie Mauna Loa (wymawiaj "mona loa") na Hawajach. W 1955 Keeling zaobserwował, że ilość dwutlenku węgla w atmosferze praktycznie nie zależy od miejsca pomiaru, co było w sprzeczności z publikacjami na ten temat w owym czasie. Wywnioskował z tych obserwacji, że dwutlenek węgla jest gazem dobrze wymieszanym w atmosferze (uwaga: obecnie wiemy, na podstawie pomiarów satelitarnych AIRS, że CO2 tylko w przybliżeniu jest gazem dobrze wymieszanym i że istnieją regionalne róznice). Keeling postanowił zorganizować ciągłe pomiary stężenia dwutlenku węgla w nowo utworzonym wtedy, wysokogórskim obserwatorium na Mauna Loa. Kierował się przy tym przeświadczeniem, że skoro dwutlenek węgla jest dobrze wymieszany w atmosferze, to pomiary w jednym miejscu dadzą reprezentatywny wynik dla całego globu Krzywa Keelinga pokazuje systematyczny wzrost stężenia dwutlenku węgla w atmosferze od około 315 cząsteczek na milion objętościowo (ppmv) w 1958 do ponad 380 ppmv w 2006. Wykres Keelinga pokazuje także cykliczne zmiany o około 5 ppmv w ciągu każdego roku związane ze zmianą aktywności roślinności. Na półkuli północnej jest więcej lądów niż na półkuli południowej, dlatego jest tam też więcej roślinności (pomijając fitoplankton). Poziom dwutlenku węgla zaczyna zmniejszać się, gdy na półkuli północnej trwa wiosna. Rośliny wówczas intensywnie rosną, pobierając dwutlenek węgla z otoczenia i zużywając go w procesie fotosyntezy. Stężenie dwutlenku węgla wzrasta ponownie jesienią, kiedy na półkuli północnej kończy się okres wegetacyjny i zużywa się dużo opału do ogrzewania.

http://pl.wikipedia.org/wiki/Krzywa_Keelinga

Krytyka: Istniały sytuacje geologiczne,  kiedy koncentracja dwutlenku węgla wzrosła po zmianie temperatury. Wobec tego obecne zmiany nie są związane z dwutlenkiem węgla.

Odpowiedź:  Okresy końca epoki lodowcowej związane są z szybkim ociepleniem Jednak ten fakt nie przeczy hipotezie, że CO2 jest odpowiedzialne za globalne ocieplenie związane z działalnością ludzi. W konkretnym przypadku opisywanym przez przeciwników, zmiana temperatury po epoce lodowcowej zajęła około 5000 lat, pierwsze 800 lat nie było związane z CO2, ale 4200 mogło być związane ze wzrostem CO2. Innymi słowy, koncentracja CO2 nie jest jedynym czynnikiem, jaki wpływa na klimat, zmiany w całkowitej ilości energii słonecznej dochodzącej do Ziemi czy zmiany cyrkulacji oceanu są istotnymi czynnikami. CO2 może być przechowane w oceanie w czasie epok lodowcowych i emitowane do atmosfery w sytuacji kiedy klimat się ociepla i powodować dalsze ocieplenie.

http://pl.wikipedia.org/wiki/Cykle_Milankovicia

Krytyka: Para wodna jest najważniejszym gazem cieplarnianym w związku z tym efekt dwutlenku węgla nie jest istotny.

Odpowiedź: Przeciwnicy badań zmian klimatycznych twierdzą, że para wodna a nie  CO2 jest najważniejszym gazem cieplarnianym, i że badacze zmian klimatu zaniedbują parę wodną w modelach zmian klimatu.  Jest to nieprawda.  Klimatolodzy uwzględniają parę wodną w  modelach klimatu.  Wraz ze wzrostem temperatury wywołanym początkowo przez  CO2 wzrasta także efekt cieplarniany wywołany przez parę wodną.  Przegląd literatury naukowej na ten temat w IV raporcie  IPCC pokazuje, że para wodna podwaja efekt cieplarniany wywołany przez CO2.  Innymi słowy, dwutlenek węgla jest pierwotna przyczyną a para wodna jest efektem. 

(Źródła. Odpowiedź jest częściowym, i czasami zmienionym, tłumaczeniem materiału John Rennie, Seven Answers to Climate Contrarian Nonsense,  Scientific American, listopad 30, 2009.  Wykorzystałem materiały dotyczące Charlesa Davida Keelinga z Instytutu Oceonografii imienia Scripps w Uniwersytecie Kalifornijskim, które początkowo zamieściłem na polskiej Wikipedii, i inne informacje).

piątek, 26 marca 2010

Moja dzisiejsza przemowa dotyczy czegoś, co może wydawać się kompletnie niepraktycznym tematem: dotyczy zmienności chmur. Od momentu kiedy meteorologia stała się modnym tematem, badania różnych form wody zawieszonej w atmosferze stały się interesujące a nawet konieczne. Gdyby chmury były tylko rezultatem kondensacji pary wodnej w masie powietrza, gdyby ich zmienność związana była tylko z ruchem atmosfery, wtedy istotnie badania chmur byłyby bezużytecznym śledzeniem cieni, próbą opisu form, które są tylko igraszką wiatrów, ciągle zmieniające się, a więc niemożliwe  do opisania. Ale tak nie jest w przypadku chmur.  Tak pisał Luke Howard, twórca nowoczesnej klasyfikacji chmur, w roku 1802 (większość informacji w tym blogu pochodzi z czarującej ksiązki Richarda Hamblina, The Invention of Clouds, How an Amateur Meteorologist Forged the Language of the Skies, 2001, New York). Z drugiej jednak strony noblistka pisze

Z opisywaniem chmur
musiałabym się bardzo śpieszyć -
już po ułamku chwili
przestają być te, zaczynają być inne.

Ich właściwością jest
nie powtarzać się nigdy
w kształtach, odcieniach, pozach i układzie.
(W. Szymborska, Chmury) 

Dzięki Howardowi używamy do tej pory podstawowe nazwy cirrus, stratus i cumulus na powtarzalne w kształcie, odcieniach, pozach i układach chmury występujące w atmosferze.   W grudniu 1802  roku Howard przedstawił publicznie swoja klasyfikację w Londynie, a w 1803 opublikował "On the Modifications of Clouds" w czasopiśmie Philosophical Magazine. Publikacja wywołała duże wrażenie w Europie. Niemiecki poeta Goethe zapoznał się z nią w przedruku w Annalen der Physik w 1815 roku i napisał wiersz na cześć Howarda.  
http://pl.wikipedia.org/wiki/Luke_Howard

Makroskopowe klasyfikacje chmur wskazały na pewną powtarzalność zjawisk atmosferycznych wymuszających powstawanie chmur złożonych z kryształów lodu lub kropel wody (powtarzalność zjawisk chmurowych daje okazje, żeby je uwzględnić w komputerowych modelach zmian klimatycznych). W tym czasie odbywały się pierwsze loty balonem na rozgrzane powietrze. Dzięki temu można było się ostatecznie przekonać, że chmury złożone są z kropel wody a nie z malutkich baloników powietrza otoczonego cienką warstwą wody - ludziom wydawało, że krople wody są za ciężkie, żeby unosić się w powietrzu. Dało to początek badaniom mikrofizyki chmur. Okazało się, że chmury mają dobrze określony cykl życia –  rozwoju i zaniku - i pamietają o procesach, które je tworzyły poprzez kształt i wielkość kropel, zanieczyszczeń i rodzaju kryształów lodowych (z analizy rozgałęzień śnieżnych kryształków lodu można wywnioskować jaka była temperatura i wilgotność w atmosferze na róznych wysokościach w czasie opadania kryształu lodu na Ziemię).   Niektóre z nich, np chmury stratocumulus, żyją bardzo długo mimo że są cały czas przygniatane przez zstępujące powietrze. Pamiętają o tym, że przepływał poniżej nich statek poprzez zmienioną wielkość kropelek wody.


Nie obciążone pamięcią o niczym,
unoszą się bez trudu nad faktami.

Jacy tam z nich świadkowie czegokolwiek -
natychmiast rozwiewają się na wszystkie strony
(W. Szymborska, Chmury)

Wiadomo, że chmury mogą być modyfikowane przez działalność człowieka m.in. poprzez modyfikację wielkości kropli. Innymi słowy, dla tej samej całkowitej masy wody, mogą istnieć chmury, które mają mniej lub więcej kropli.  Bardzo cienkie chmury, zwłaszcza tam gdzie latają wysoko samoloty, są słabo widzialne gołym okiem. Mówimy o nich „ledwo widzialne”.  Ale większość chmur łatwo zaobserwować mimo, że krople wody są przeźroczyste.

Nie mają obowiązku razem z nami ginąć.
Nie muszą być widziane, żeby płynąć.
(W. Szymborska, Chmury)

 

czwartek, 25 marca 2010

Jest jeden gość, który jest pewnie  najwybitnieszym popularyzatorem nauki w Polsce, a którego nikt prawie nie zna.  Ma ksywę „filip_em” i napisał kilka tysięcy haseł dotyczących medycyny i botaniki
http://pl.wikipedia.org/wiki/Wikipedysta:Filip_em/wkład_chronologicznie

tylko, że na Wikipedii. Jak dla mnie to wymogiem każdego grantu naukowego powinno być napisanie przynajmniej jednego hasła medalowego na polskiej Wikipedii. Wikipedia jest postrzegana jako zjawisko internetowe i populistyczne. Ale trzeba dostrzec jej potencjał naukowy, i to że niektóre hasła z zakresu nauk ścisłych czy humanistycznych są i mogą być świetnie napisane. Wracając do Filipa. Ma największy wkład w pisanie haseł medycznych i botanicznych „na medal” w polskiej Wikipedii. Status medalowego artykułu jest przyznawany przez innych wikipedystów
http://pl.wikipedia.org/wiki/Wikipedia:AnM

Sytuacja jest beznadziejna jeżeli chodzi o motywację dla naukowców. Kilka miesięcy temu starałem sie nominować Filipa do nagrody Karola Sabatha przyznawanej dla najlepszego dzienikarza naukowego w Polsce
http://www.varianx.cal.pl/naukowi/

i niewiele z tego wyszło. Publikacje naukowe na Wikipedii są tak unikalne, nie są podpisywane nazwiskiem głównego autora, że trudno ten fenomen nagrodzić (chociaż istnieje tam pojęcie głównych autorów).   Dyskutowaliśmy z Filipem co zrobić i napisał do mnie „Jeszcze raz bardzo dziękuję za uznanie dla mojego wkładu w wikipedię, to dla mnie dużo znaczy. Zastanowię się co napisać o popularyzacji nauki w ramach wikipedii (wydaje mi się że są tu plusy i pewne ograniczenia - np. na wikipedii merytoryka jest wyżej niż walory literackie, nie powinno się pisać umyślnie "ciekawie" - priorytetem jest rzetelne i dokładne przedstawienie tematu), ale mamy też wymóg jasnego i przejrzystego pisania, każde hasło powinno być napisane w sposób umożliwiający zrozumienie nawet laikowi, nie stosujemy drażniących skrótów jak encyklopedie papierowe, zawsze można coś wytłumaczyć dokładniej w odnośniku lub osobnym haśle”.

Na świecie i w Polsce przeciwnicy hipotezy o zmianach klimatu wprost nie znoszą haseł w Wikipedii. Dlaczego?  Bo jest tam nacisk na używanie źródeł pierwotnych i neutralny punkt wiedzenia.  Jest kilka haseł klimatycznych, które są na medal w polskiej wikipedii
http://pl.wikipedia.org/wiki/Globalne_ocieplenie
http://pl.wikipedia.org/wiki/Efekt_cieplarniany
http://pl.wikipedia.org/wiki/Stała_słoneczna

 i w których sam maczałem palce - wiem co piszę. Jak napisać artykuł doskonały? W.g Wikipedii Doskonałego artykułu w zasadzie nie sposób napisać bez oparcia się na publikowanych źródłach informacji. Wiele informacji znaleźć można w Internecie, jednak należy być wymagającym wobec tego źródła. Nie powinno się opierać treści hasła na stronach mało wiarygodnych (hobbystycznych, blogach, komercyjnych) przedstawiających prywatne opinie i doświadczenia twórcy strony, nie podlegające żadnej krytycznej weryfikacji. Wartościowe są natomiast umieszczane w Internecie wszelkie dane oficjalne, publikowane przez rozmaite instytucje publiczne, strony czasopism z ogólnodostępnymi artykułami, naukowe bazy danych. W przypadku znalezienia wtórnych informacji, wskazane jest dotarcie do oryginalnego źródła danych, by nie powielać ewentualnych błędów wynikających z uproszczenia wiadomości lub niefachowej jego interpretacji.

Nic dodać nic ująć.


PS Oh, filip_em to Filip Marcinowski, młody lekarz ze Szczecina.

środa, 24 marca 2010

Dziś będzie o adaptacji do zmian klimatycznych i aspektach jak i kto robi takie plany w Kalifornii.  Pełen dokument (niedawno opracowany) jest tutaj:
http://www.energy.ca.gov/2009publications/CNRA-1000-2009-027/CNRA-1000-2009-027-D.PDF

Dokument został napisany przez kilku autorów,  ale główny przyczynek do części naukowej ma grupa  Dana Cayana, który pracuje w Uniwersytecie Kalifornijskim i jest klimatologiem (a nie geologiem lub, powiedzmy, lekarzem).
http://meteora.ucsd.edu/~cayan/cayan.html

Zacznijmy od tego jaka jest strategia adaptacyjna Kalifornii jeżeli chodzi o zmiany klimatu. Główne cele są takie. 

  1. Należy użyć wyniki najwiarygodniejszych obecnie badań naukowych identyfikujących ryzyko i pozwalająch na stworzenie strategi adaptacji do zmian klimatycznych.
  2. Należy uwzględnić fakt, że nasza wiedza na temat zmian klimatycznych nadal jest uzupełniana.
  3. Należy uwzględnić pozycję wszystkich organizacji, które mogą przyczynić się do rozwoju planów adaptacyjnych.
  4. Należy współpracować z rządem,  z przemysłem i organizacjami pozarządowymi w celu rozwoju i implementacji planów adaptacyjnych.
  5. Należy uwzględnić, że najważniejszymi aspektami są ekonomiczne i socjalne względy, bezpieczeństwo i zdrowie publiczne, prawidłowa gospodarka zasobami, ochrona przyrody i ekologii.
  6. Należy uwzględnic już istniejące strategie adaptacyjne.
  7. Należy zrozumieć, że strategie adaptacyjne muszą być dostosować się do  sytuacji, które nie są w pełni przewidywalne.

Co to znaczy, że należy użyć wyników z najwiarygodniejszych obecnie badań naukowych identyfikujących ryzyko i pozwalających na stworzenie strategi adaptacji do zmian klimatycznych?  W Kalifornii przyjęto, że najwiarygodniejszymi obecnie wynikami przewidującymi zmiany klimatyczne są modele Globalnej Cyrkulacji Atmosfery (GCM). To właśnie te modele stanowią podstawę IV raportu IPCC. Do analizy zmian klimatycznych w Kalifornii użyto wyników ze specjalnego raportu  Special Report on Emissions Scenarios (SRES) i tzw scenariuszy  A2 oraz  B1 otrzymanych na podstawie wielu modeli ale skoncentrowano się tylko na sześciu: modelu PCM z Narodowego Centrum Badań Atmosferycznch (NCAR),  modelu NOAA z Narodowej Administracji Atmosferycznej i Oceanicznej,  modelu GFDL z Laboratorium Geofizycznej Dynamiki Cieczy,  modelu CCSM z NCAR, niemieckiego modelu  z Instytutu Max Planka  ECHAM5/MPI-OM; japońskiego modelu z Uniwersytetu w Tokio MIROC 3.2, i francuskiego modelu z Narodowego Centrum Badań Meteorologicznych CNRM
http://www.energy.ca.gov/2009publications/CEC-500-2009-014/CEC-500-2009-014-D.PDF

Teraz przechodzimy do sprawy technicznie najtrudniejszej. Jak wyniki z modeli globalnych odnieść do skali kraju?  W tym celu należy przewidywania pół meteorologicznych, które w modelach globalnych są  robione, powiedzmy co 100 kilometrów, przenieść do skali znacznie mniejszej. Np dokonać oceny  temperatury co 10 kilometrów. W tym celu używa się metodologii przeskalowania wyników (ang. downscaling). Robi się to obecnie na dwa sposoby. Albo używa się modeli numerycznych, które przewidują pogodę w mniejszej skali (tzw. modele mezoskalowe), albo używa się technik statystycznych, które na podstawie danych z większej skali wybierają możliwą sytuację pogodową. Mówią poglądowo – na podstawie ogólnego rozkładu temperatury i ciśnienia, staramy się ocenić temperaturę w jakimś wybranym miejscu.

Podsumowując, w Stanach naukową część strategii adaptacyjnej  opracowuje się na podstawie wyników z modeli IPCC IV oraz na podstawie wyników pomiarów z konkretnych lokalizacji i ich korelacji z polami wielkoskalowymi.  Do prac nad taką strategią zaangażowani są klimatolodzy.

A w Polsce?  A w  Polsce strategią adaptacji zmian klimatycznych będzie kierował profesor L. Marks.  który nie wie co to są modele numeryczne klimatu, nie wierzy w wyniki IPCC, i który był autorem kompromitującego stanowiska Komitetu Nauk Geologicznych  PAN. Zgodzono się, iż procesy [zmian klimatu]  mają charakter przede wszystkim naturalny. Rzeczywisty wkład człowieka w obserwowane obecnie zmiany jest niewielki. Dostarczycielem CO2 do atmosfery jest nie tylko przemysł ale i hodowla zwierząt rzeźnych, z której trudno rezygnować. Zauważono, że podejmowane globalne działania, prowadzące do ograniczenia emisji CO2, mają głównie wydźwięk polityczny, a proponowane kary za przekroczenie limitów mogą mieć dramatyczne konsekwencje dla polskiej gospodarki. Ustalono, że społeczność geologów, którą reprezentuje KNG, powinna aktywnie włączyć się do publicznej dyskusji, wskazując na faktyczne przyczyny zachodzących procesów. Postanowiono, że Komitet sformułuje swoje stanowisko w sprawie zmian klimatu oraz zagrożenia globalnym ociepleniem oraz zadba o możliwie najszersze jego rozpowszechnienie (Komitet Nauk Geologicznych PAN w Warszawie w dniu 14.11.2008 roku)

PS Profesor L. Marks zakomunikował o powołaniu rządowgo Komitetu Sterującego ds. Opracowania Sektorowych Strategii Adaptacji do Zmian Klimatu, do którego został oddelegowany przez prezesa PAN. Cały protokol można znaleźć tutaj
http://www.kngeol.pan.pl/images/stories/pliki/protokolkng_25_11_2009.doc

Nieprawdopodobne.

wtorek, 23 marca 2010

W Polsce dyskusja o zmianach klimatu została porwana przez grupę dobrze zorganizowanego emerytowanego lekarza popierającego rozwój energii atomowej, fizyka materii skondensowanej, inzyniera i jednego geologa. Dlatego dziś będzie o kuchni fizyki atmosfery w Polsce. Przyznaję, że piszę to trochę z rozpaczy. Zacznijmy od tego jak wygląda fizyka atmosfery na uczelniach amerykańskich. Popatrzmy na listę profesorów na wydziale fizyki atmosfery w Uniwersytecie Stanowym w Kolorado.

http://www.atmos.colostate.edu/faculty/index.php

Thomas Birner jest dynamikiem atmosfery; dokładniej zajmuje się składem atmosfery i oddziaływaniem pomiędzy górną troposferą, czyli tam gdzie latają samoloty na trasach międzykontynentalnych, jakieś 10-15km ponad powierzchnią Ziemi; jest z Niemiec.  Jeff Collett skończył słynną uczelnię Caltech w Pasadenie (tam pracował Noblista Richard Feynman) i zajmuje sie chemią atmosfery czyli w jaki sposób powstają  cząstki płynnych zanieczyszczeń i w jaki sposób te zanieczyszczenia są wymywane przez deszcz.  Podobnie jak Sonia Kreidenweiss, która ukończyła Caltech, i zajmuje się atmosferycznymi pyłami zawieszonymi,  bada jak piasek wędrujący przez Pacyfik z Chin tworzy wysokie chmury (nazywają się cirrusy, ale nie „pcirrusy”). Dalej na liście profesorów jest Bill Cotton -  fizyk od chmur, napisał klika książek o tym jak powstają chmury, jak łączą się w wielkie kompleksy w skali 100 kilometrów. Bill zajmuje się też mikrofizyką chmur, tym jak oddziaływują ze sobą drobne kropelki wody opisywane równaniem wymyślonym przez polskiego fizyka  Mariana Smoluchowskiego (Smoluchowski zajmował się też geofizyka, fałdowaniem gór, kolorem nieba, zagadnieniem górnej granicy atmosfery; patrz Roman Teisseyre, Publ. Inst. Geoph. Pol. Acad.Sc. 1996 M-18 (273) s.47-50, Marian Smoluchowski jako geofizyk).  W Polsce podobnymi problemami fizyki chmur zajmuje się Szymon Malinowski i Hanka Pawłowska.  Cotton jest żeglarzem, miał własny zaprzęg psów huskies i biega po okolicznych górach ze swoimi studentami.  Dave Randall używa komputerowego modelu klimatu, którym stara się teraz zrozumiec jak uwzględnić chmury i ich cykl życia.  Sama technika uwzględniania tych chmur w modelach klimatycznych zostala wymyślona niedawno przez polsko-amerykańskiego fizyka atmosfery Wojtka Grabowskiego a metody numeryczne używane w tego typu modelach sa rozwijane przez polsko-amerykanskiego fizyka atmosfery Piotra Smolarkiewicza.  Dalej  jest Wayne Schubert. Geniusz matematyki stosowanej i dynamiki atmosfery. Wayne  wymyślił parametryzację Arakawy-Schuberta (to był jego doktorat w UCLA), której wersje używane są w wielu modelach klimatu i modelach wielkoskalowych prognoz pogody.  Dalej na liście profesorów jest Steve Rutledge – postawny  facet, kiedyś szef wydziału, zajmuje się meteorologią radarową. Jego grupa ma radar koło Denver, ale czasami używa podobnego radaru na statkach w eksperymentach meteorologicznych. Takie radary są używane w Polsce w prognozach powodzi i burz. Ostatnio spotkałem Steva , kiedy planowaliśmy eksperyment DYNAMO w tropikach w 2010 roku - nie wiem czy dojdzie do skutku. Dalej jest Graeme Stephens, który  jest  Australijczykiem. Uwielbia grać w piłkę nożną i w golfa, jego syn spędził rok na fizyce w Krakowie. Graeme ma własny program satelitarny  (Cloudsat) i zajmuje się problemami teledetekcyjnymi – jak z satelity zmierzyć własności chmur. Jego grupa ma osobny budynek.  Jest „dziadkiem naukowym” polskiego fizyka atmosfery – Krzysztofa Markowicza. Dalej jest Tom von der Haar - legenda metorologii satelitarnej, uczył się u samego Vernera Suomi „ojca meteorologii satelitarnej”. Innym profesorem jest Dick Johnson – to synoptyk. Zna się na mapach atmosferycznych, kiedy przyjdzie front i jaka będzie pogoda. Scott Denning – zajmuje się cyklami geochemicznymi w atmosferze. Colette Head – skończyła słynny uniwersytet Harvarda, zajmuje się modelami transportu zanieczyszczeń. No i na koniec  Bill Gray, patykowaty emerytowany profesor, jeden z najbardziej znanych na świecie przeciwników hipotezy o globalnym ociepleniu.  Dodam, że na wydziale uczy się około 100 doktorantów.

Jak wygląda uniwersytecka fizyka atmosfery w Polsce w 2010 roku? Przypomnijmy, jesteśmy już po olbrzymich przemianach, po wejściu Polski do Unii Europejskiej, gdzie sprawy klimatu, konwencji klimatycznych, chemii atmosfery, wpływu człowieka na pogodę są wielkimi problemami.  Jedynym ośrodkiem uniwersyteckim  fizyki atmosfery  w Polsce jest  Wydział Fizyki Uniwersytetu Warszawskiego.  W zakładzie pracuje klika osób, profesorami są tylko Szymon Malinowski, Krzysztof Haman, Hanka Pawłowska (szefowa), z młodszych osób jest Krzysztof Markowicz.  Jakby rozszerzeniem zakładu jest współpraca z kilkoma naukowcami, którzy wyemigrowali w latach 1980 – Piotrem Smolarkiewiczem, Wojtkiem Grabowskim, którzy pracują w amerykańskim Narodowym Centrum Badań Atmosfery (NCAR) i Piotrem Flatauem z Uniwersytetu Kalifornijskiego.

http://www.igf.fuw.edu.pl/

W Polsce meteorologia jest też wykładana na wydziałach rolniczych i wydziałach geografii. Tylko, że współczesne badania klimatu i prognozy pogody nie opierają się na metodach statystycznych i klasyfikacyjnych.  Natomiast opierają się na fizyce, chemii, symulacjach komputerowych, danych radarowych, modelach transportu zanieczyszczeń, asymilacji danych, równaniu transferu promieniowania,  metodach teledetekcyjnych, dynamice atmosfery.

I to by było na tyle. Właśnie dlatego emerytowany lekarz jest przesłuchiwany jako ekspert od klimatu w polskim Sejmie.

PS Rektorem Uniwersytetu Warszawskiego jest Katarzyna Macukow, która pracuje w Instytucie Geofizyki (gdzie jest Zakład Fizyki Atmosfery) Uniwersytetu Warszawskiego. I własnie dla niej napisałem ten tekst. Ciao Kasia.

sobota, 20 marca 2010

Tłumaczę tutaj ocenę prac naukowych Zbigniewa Jaworowskiego opublikowaną przez  Hansa Oeschgera (ESPR - Environ Sci. & Pollut. Res. 2 (1) 1995, pp. 60-61).

Z trudnością przychodzi mi odpowiadać na artykuł Jaworowskiego, bo ten artykuł powinien być szybko zapomniany. Niestety udało mu się opublikowac inne artykuły w czasopismach i wprowadzić zamieszanie w  ocenie składu atmosfery opartej na analizie powietrza w lodzie z obszarów polarnych [...]

Od lat Jaworowski podkreśla tylko trudności w tych badaniach,  podejmuje niesłuszne założenia i krtykuje na lewo i prawo prace innych. Robi to bez żadnego zrozumienia co zrobiono w tej dziedzinie w kilku ostatnich dziesięcioleciach. Ekstrapoluje problemy zwiazane z metodologią badawczą z początków lat 1960, kiedy dopiero zaczynano te studia, na techniki pomiarowe z lat 1990 kiedy do pomiarów lodu na Grenlandii zaczęto używać nowych technik. Niektóre z jego wypowiedzi są skrajnie niesłuszne z punktu widzenia fizyki, np stwierdzenie, że CO2  na głębokości 70 m w głąb lodu zmienia się w klatrat.  Innym przykładem jest process okluzji w firnie i w młodym lodzie [...]  Jaworowski twierdzi, że wiek lodu i zawartego w nim powietrza jest taka sama i  przesuwa okres zmian CO2  […]

Artykuły Jaworowskiego oraz Heyke nie są traktowane na serio w literaturze naukowej. Istnieje jednak problem z tymi artykułami bo szeroka publiczność, zainteresowana zmianami klimatu, może dojśc do wniosku, że nasze wyniki są częściowo oparte na mylnych informacjach, że  istnieją błędy lub słabości w procedurze badawczej i że cały problem globalnych zmian nie powinien byc traktowany na serio, i że nie ma żadnego powodu, żeby kontrolowac emisje CO2 [...]

Badania historii atmosfery Ziemi są kontynuowane i rozwijane, coraz większa liczba laboratoriów przeprowadza prace pomiarowe i zaczyna ze sobą współpracować.  Tak jak w wielu dziedzinach nauki, badania są ciągle sprawdzane i podejmowane są próby poprawienia technik pomiarowych.  Badania rdzeni lodowych w ostatnich dziesięcioleciach są jednym z fundamentalnych problemów. Opierając się na mojej wiedzy z wielu lat, uważam że jest mało szans, żeby badania gazów cieplarnianych w rdzeniach lodowych były w sposób zasadniczy złe; publikacje Jaworowskiego są nieprawidłowe i nieodpowiedzialne.

Dr Hans Oeschger,  profesor fizyki
Physical Institute
Universytet w Brnie
Chl-3012 Brno, Szwajcaria

Co tu dodać?  W Polsce Jaworowski jest ekspertem od zmian klimatu, mimo że swoją wiedze czerpie z blogów pseudonaukowych.  Tak jak w pracy naukowej tak w wypowiedziach publicznych dotyczacych zmian klimatu Jaworowski mówi nieprawdę w nieodpowiedzialny sposób.

Czytam wypowiedzi polskich publicystów i niektórych naukowców na temat tego czym jest Międzyrządowy Panel do Spraw Zmian Klimatu (IPCC)  i robię przy tym ROTLF, czyli tarzam się ze śmiechu po podłodze.  Wydaje im się, że IPCC to jakiś olbrzymi instytut, sterowany przez polityczne cele, na którym wydawane są olbrzymie pieniądze.

Dlatego bloguję o Lynne F. Talley.

http://www.youtube.com/watch?v=bSFsaIdkc0E

Lynne jest drobną kobietą w średnim wieku. Skończyła College Oberlin i jest koncertową pianistką. Na drzwiach jej pokoju w pracy są zdjęcia dwóch synów, jakieś  żarty rysunkowe wycięte z gazet. Jej pokój jest w budynku nazwanym Nierenberg Hall, który znajduje się na kampusie Instytutu Oceanografii imienia Scripps w malowniczej miejscowości La Jolla, w północnej części San Diego, dość blisko granicy USA z Meksykiem. Pokój jest na pierwszym piętrze  a okna wychodzą na Pacyfik i jest zawalony artykułami i książkami. Ocean jest rzeczywiście tutaj prawie zawsze spokojny. Z  okien można zobaczyć molo, pływa w nim najczęsciej  kilku surferów i nie wiadomo wtedy czy lepiej pójść na plażę, czy pracować.

http://pl.wikipedia.org/wiki/Scripps_Institution_of_Oceanography

Z zawodu Lynne jest oceanografem. Oceanografia ma wiele specjalności – Lynne jest hydrografem. Przez ponad  dwadzieścia lat pływa na statkach badawczych w rozmaite miejsca na świecie i bada własności fizyczne wody od powierzchni oceanu aż do kilku kilometrów w głąb. Wtedy przemienia się z drobnej kobiety w szefową wielkiego statku badawczego i ma pod sobą koło 30 naukowców i studentów.  Przynajmniej raz w roku, w ćwiartce semestru, bo w Universytecie Kalifornijskim jest system krótkich (3 miesiące) semestrów, Lynne wykłada oceanografię fizyczną dla kliku, czasami kilkunastu studentów, którzy zaczynają program doktorancki. Lynne niedawno skończyła pisać książkę na temat oceanografii fizycznej, które jest rozszerzeniem znanego podręcznika Emerego i Pickarda, używanego przez oceanografów przez wiele lat. Siedziała nad pisaniem tego podręcznika przez ostatnie kilka lat.  Teraz to ona będzie pierwszym autorem. Lynne wie jak i gdzie płynie woda w oceanie. Wie jakie są procesy konwekcyjne w oceanie, kiedy powierzchnia oceanu wybrzusza się, bo poniżej przepływa jakiś prąd oceaniczny, wie ile  silikatów jest przenoszona z Pacyfiku na Ocean Indyjski i jak zmienia się temperatura oceanu na dużych głębokościach. Lynne wykłada o pasie transmisyjnym przenoszącym wodę z obszarów biegunowych do równika, i o wszystkich innych meandrach oceanu, jego wielkich i małych wirach i obrotach. Lynne była związana przez długie lata ze Światowym Eksperymentem Cyrkulacji Oceanu, żmudnej roboty polegającej na przypływaniu co kilka lat lub miesięcy w to samo miejsce na oceanie i wypuszczaniu długiego kabla, do którego przyczepione na końcu jest killkanaście butelek pobierających wodę z różnych głębokości. Te stacje pomiarowe robione były co kilkaset kilometrów wzdłuż prostej, stąd słynne w oceanografii – linie Światowego Eksperymentu Cyrkulacji Oceanu (WOCE lines).   Obok pokoju Lynne wiszą duże, długie i bajecznie kolorowe diagramy konturów własności fizycznych wody na różnych głębokościach. To dzięki takim rysunkom można ocenić jak i gdzie płynie woda w oceanie. Lynn wie jaka część oceanu jest podobnie zasolona i co z tego wynika.

Aha - Lynne była pomiędzy 2004 a 2007 rokiem szefową grupy naukowców, podobnie jak ona oceanografów fizycznych, którzy napisali rozdział 5 raportu IPCC na temat cyrkulacji oceanu i jego zmian.    

Tutaj jest troche o Lynne, chociaż powinno być więcej
http://pl.wikipedia.org/wiki/Lynne_Talley

Kiedyś napiszę o zmowie naukowców i o spiskowej teorii dziejów. Bo jak czytam o tym, że Lynne Talley jest w spisku to też tarzam się ze śmiechu po podłodze.

Poniżej jest odpowiedź M. Manna z 11 marca 2010 na list Łukasza Turskiego - „Prof. Łukasz Turski: uznajmy błędy raportu IPCC i zrewidujmy go” w  Gazecie Wyborczej. Przetłumaczyłem artykuł Turskiego na angielski i wysłałem do Manna.

Bardzo dziękuję za zwrócenie uwagi [na publikację w Gazecie Wyborczej]. Niestety, są ludzie tacy jak Lukasz Turski, którzy maja silne opinie na temat spraw,  na których się mało a może wcale nie znają. Trudno się zorientować czy działają z powodu ignorancji czy ze złośliwości. W obu przypadkach czynią szkodę nauce bezsensownymi wypowiedziami tego rodzaju. Wydaje mi się, że nic nie da jeżeli odpowiem.  Wzmocnię jego pozycję i uwiarygodnię nieprawdziwe wypowiedzi, które są chyba wzięte z typowych przemówień nieuczciwych przeciwników badań zmian klimatycznych. Wydaje się, że byłoby lepiej gdyby ktoś w Polsce zareagował. Pozostawię to twojej decyzji czy zajmiesz stanowisko czy nie. Oczywiście,  jeżeli coś napiszesz to będę zobowiązany. Wypowiedzi [Turskiego] są półprawdami i mitami, na które już wielokrotnie odpowiadano. W szczególności, na  stronie Universytetu Penn State jest dokumentacja, że nie ma żadnego dowodu na to, że zrobiłem cokolwiek nieprawidłowego w związku z „climategate”

http://switchboard.nrdc.org/blogs/paltman/melting_climategate_the_vindic.html

http://climateprogress.org/2010/02/04/penn-state-michael-mann-hockey-stick-science

Twierdzenie, że mój artykuł jest w jakikolwiek sposób zdyskredytowany i pełen „błędów” jest nieprawdziwe. Amerykańska Akademia Nauk stwierdziła coś dokładnie przeciwnego:

http://www.realclimate.org/index.php/archives/2006/06/national-academies-synthesis-report

Ostatni raport  IPCC  dodatkowo potwierdził naszą publikację sprzed klikunastu lat, że ostatnie ocieplenie jest z dużym prawdopodobieństwem anomalią (przynajmniej w ostatnich 1300 latach). Do emailu dołączam kilka listów jakie napisałem do  czasopism w odpowiedzi na podobne ataki. Naturalnie możesz użyć cokolwiek z tych listów w odpowiedzi na artykuł Turskiego.

Jeszcze raz dziekuję za informację i za miłe słowa.

Mike [Mann]

Przypomnijmy, że Mann był krytykowany w artykule Turskiego w następujący sposób: „Zasadniczym powodem mojej krytyki ... jest  ... przemilczenie sprawy działalności naukowej dr. Michaela Manna, autora tzw. krzywych hokejowych i osoby, której przypisywane są najbardziej drastyczne fragmenty tekstów wyciekłych z CRU [...]  Krzywe te, o czym wiemy od lat, są otrzymane w drodze "zadziwiająco" popełnionych błędów matematycznych w analizie danych, między innymi zgromadzonych w CRU, do których dostęp dla innych badaczy był, w świetle tychże przecieków, celowo utrudniany."

http://pl.wikipedia.org/wiki/Michael_E._Mann
http://pl.wikipedia.org/wiki/Kontrowersja_kija_hokejowego

Trudno nie sympatyzować z odpowiedzią Manna patrząc na wyniki badań komisji, które nie znalazły błędów matematycznych w jego pracach. W lutym 2010 komisja etyczna Uniwersytetu Penn State, w którym Mann jest profesorem,  nie znalazła też żadnego dowodu, że Mann opublikował cokolwiek drastycznego lub niezgodnego z etyką zawodową.

PS. Tak na marginesie - Mann skończył matematykę stosowaną w Uniwersytecie Kalifornijskim  w Berkeley (jeden z najlepszych wydziałów matematyki w Stanach), skończył fizykę w Yale, i zrobił doktorat na Yale z geofizyki.          

sobota, 13 marca 2010

Ponieważ ocena globalnego ocieplenia zależy od pomiarów temperatury warto zablogować na temat tego jak się mierzy temperaturę. Sprawa jest o tyle ważna i kontrowersyjna bo jeden z argumentów przeciw hipotezie globalnego ocieplenia jest oparty na tym, że nie ma żadnego ocieplenia tylko mierzymy zmiany temperatury w coraz większych, i przez to cieplejszych, miastach - tzw. efekt wyspy cieplnej. Tyle tylko, że wzrost temperatury obserwuje się też w pomiarach temperatury oceanu na całym globie, gdzie nie ma miast. Dlatego zaczniemy od pomiarów temperatury powierzchni oceanu

http://pl.wikipedia.org/wiki/Temperatura_powierzchni_oceanu

Sprawa jest skomplikowana bo trudno zmierzyć termometrem temperaturę samej powierzchni oceanu. Termometrem łatwiej to zrobić pod powierzchnią oceanu. Takie pomiary robione są ze statków na głębokości zazwyczaj około 20 metrów. Można jednak wykonać pomiary temperatury oceanu za pomoców obserwacji w podczerwieni (efekt cieplarniany jest związany z tymi długościami promieniowania) lub w mikrofalach. Takie pomiary wykonuje się zazwyczaj satelitarnie. W podczerwieni pomiary temperatury są rzeczywiście robione bardzo blisko powierzchni oceanu dlatego bo gdyby nasze oczy widziały w podczerwieni, to patrząc na ocean widzelibyśmy prawie czarną powierzchnię – powiedzmy powierzchnię doskonale szarą, przez którą promieniowanie nie przenika. Natomiast za pomocą pomiarów mikrofalowych oceniamy temperaturę kilka milimetrów pod powierzchnią oceanu. Gdyby temperatura ostatnich kilkunastu metrów oceanu była jednorodna nie byłoby kłopotu. W rzeczywistości tak nie jest. Promieniowanie widzialne przenika kilka metrów w głąb oceanu, co można zaobserwować kąpiąc się w basenie, i górna warstwa, zwłaszcza kiedy nie ma wiatru, ma stosunkowo dużą dzienną amplitudę temperatury. Ta temperatura nazywa się temperaturą ciepłej warstwy powierzchniowej. Podsumujmy. Mamy tych temperatur powierzchni oceanu przynajmniej 4 - temperaturę naskórka oceanu (1 mikron w głąb, czyli znacznie mniej niż średnica ludzkiego włosa, nawet blondynki, które mają najcieńsze włosy i dlatego są atrakcyjne), temperaturę blisko naskórka (kilka milimetrow od powierzchni), temperaturę warstwy ciepłej (pierwsze kilka metrów), i temperaturę objetościową (około 20 m pod powierzchnią). Dane satelitarne umożliwiają pomiary na całym prawie oceanie, pomiary z dryfujących boi, boi zakotwiczonych, ze statków, są znacznie bardziej ograniczone w czasie i w przestrzeni. Sprawę ujednorodnienia tych pomiarów z różnych platform rozwiązano w ten sposób, że pomiary satelitarne są porównywane z pomiarami bezpośrednimi. W ten empiryczny sposób znajduje się relację pomiędzy pomiarem satelitarnym a temperaturą na głębokości 20 m. Dzieki temu możemy zmierzyc zmiany temperatury oceanu nawet w obszarach gdzie jest mało statków – np na południowym Oceanie Światowym. Łatwo zauważyć, że istnieje problem czy temperatura na głębokości 20m jest identyczna z temperaturą powierzchniowej warstwy ciepłej czy temperaturą naskórka oceanu, ale to już inna sprawa na inny blog. Zmiany klimatyczne powierzchni oceanu ocenia się na podstawie takich mieszanych pomiarów. Istnieją niebywale interesujące techniki pomiarowe oparte na sieci dryfujących i profilujacych sond pomiarowych o czym kiedyś indziej.

 

 

piątek, 12 marca 2010

Przeczytałem wczoraj artykuł M. Manna i współautorów dotyczący paleoklimatycznej i statystycznej oceny liczby cyklonów tropikalnych na Atlantyku w ostatnich 1500 latach  (Mann, M.E., Woodruff, J.D., Donnelly, J.P., Zhang, Z., Atlantic hurricanes and climate over the past 1,500 years , Nature, 460, 880-883, 2009). Sam pomysł, że coś takiego można zrobić był dla mnie zaskoczeniem. Główne wyniki są takie, że rok 2005, który miał najwyższą obserwowaną bezpośrednio (to ważne) liczbę cyklonów tropiklanych na Atlantyku był unikalny w ostatnim tysiącu lat, ale że w średniowieczu, pomiędzy latami 900 i 1100 był także okres dużej  ilości cyklonów tropikalnych. Ma to znaczenie dla obecnej dyskusji na temat zmian ilości cyklonów tropiklanych wraz ze zmianą temperatury oceanu.  Więcej informacji, łacznie z artykułem, wywiadem, i notatkami prasowymi można znaleźć na stronie
http://www.meteo.psu.edu/~mann/Mann/research/research.html
klikając na link do badań o cyklonach tropikalnych.  

Jak oni to zrobili? Pomysł oceny ilości cyklonów tropikalnych polega na dwóch metodach. Jedna z nich opiera się na pomiarach rodzaju osadów w częściowo odciętych od otwartego oceanu lagunach. Dlaczego to jest ważne?  Dlatego bo wzrost ilości cyklonów tropikalnych wraz ze wzrostem temperatury nie jest obecnie dobrze zrozumiany i w środowisku naukowym istnieją na ten temat rozbieżne opinie.  Wprawdzie rok 2005 był wyjątkowy, ale istnieją argumenty (wysuwane m.in. przez Chrisa Landsea), że analiza ilości cyklonów tropikalnych jest obarczona błędem związanym ze zmianą technik pomiarowych.  Np, że 50 lat temu cyklony tropikalne, które nie wylądowały na lądzie,  nie były obserwowane.  Z tego względu przeprowadza się obecnie reanalizę danych meteorologicznych dotyczących obserwacji ilości cyklonów tropikalnych korzystając z dostępnych danych satelitarnych.  Tylko, że pierwszy amerykański satelita meteorologiczny, Tiros I, był wystrzelony dopiero 1 kwietnia 1960 roku.
http://pl.wikipedia.org/wiki/TIROS_1
(o Vernerze Suomi i jego meteorologicznej grupie satelitarnej w Uniwersytecie Wisconsin będę musiał kiedyś napisać więcej).

Mann wraz ze współpracownikami patrzyli na osady w normalnie zamkniętych lagunach, założyli przy tym, że przejście cyklonu tropiklanego powoduje osadzanie się sedymentów z otwartego morza. Musieli wyeliminować efekty tsunami, które mogą powodować podobne zjawisko przelewania się wody do laguny z otwartego oceanu. Dane pochodziły z Puerto Rico, Zatoki Meksykańskiej, i południowego wybrzeża amerykańskiej (USA) części Atlantyku. Używano techniki datowania radiowęglowego, podobnie jak w technice oceny zmian temperatury na powierzchni Ziemi z pomiarów słoi drzew. Mann i jego współpracownicy zastosowali także inną, kompletnie niezależną technikę oceny ilości cyklonów tropikalnych, opartą na statystycznym modelu.  Do tego celu użyli sposobu wymyślonego pierwszy raz przez Williama Graya z Uniwersytetu Stanowego w Kolorado (pisałem o Grayu). Okazuje się, że można przewidywać ilość cyklonów tropikalnych w danym sezonie na podstawie oceny wielkoskalowych zjawisk meteorolgicznych takich jak temperatura Atlantyku, Oscylacja Północnoatlantycka (NAO), zjawisko ENSO, czy opady deszczu w poprzednium roku na Sahelu. Wszystkie te czynniki wpływają na atmosferę tropikalną pomiędzy Saharą i wybrzeżem USA (gdzie powstają atlantyckie cyklony tropikalne). Mann wraz ze współpracownikami opracował podobną technikę do tej zaproponowanej przez Graya i w 2007 roku wraz ze swoim studentem Tomem Sabbatellim opublikował prognozę ilości cyklonów tropikalnych na Atlantyku opierającą się na ich modelu statystycznym (Mann, M.E., Sabbatelli, T.A., Neu, U., Evidence for a Modest Undercount Bias in Early Historical Atlantic Tropical Cyclone Counts, Geophys. Res. Lett., 34, L22707, doi:10.1029/2007GL031781, 2007).  Żeby zastosować prognozę sezonową musieli ocenić parametry stanu atmosfery w ostatnich 1500 lat. Okazuje sie, ze obie techniki nie zgadzają się kompletnie, ale pokazują wzrost ilosci cyklonów tropikalnych pomiędzy latami 900-1100.

Tak na marginesie - przypuszczam że dla wielu czytelników zajmujących się meteorologią sprawą fascynującą jest fakt,  że Mann wykorzystuje wyniki i pomysły Graya.  Dla osób mniej wtajemniczonych dodam, że Gray do upadłego krytykuje Manna ze jego rekonstrukcję temperatury powierzchni Ziemi.

wtorek, 09 marca 2010

Najwspanialszym  przeciwnikiem poglądu, że globalne ocieplenie jest powodowane przez ludzi jest Bill Gray.  Gray jest teraz emerytowanym profesorem w  Stanowym Uniwersytecie Kolorado w Fort Collins.  Jest starszym panem z niezwykłą energią.

http://www.youtube.com/watch?v=1QDbsYXA5eA
http://www.youtube.com/watch?v=mzedKJxohAY
http://www.youtube.com/watch?v=z-NybQwA2hY


Przez kilka dekad wychował ponad 70 studentów. Zajmuje się meteorologią tropikalną. Przez wiele lat wojsko amerykańskie wysyłało do Graya studentów,  którzy po skończeniu studiów pracowali na całym świecie prognozując cyklony tropiklane. Jak do tego doszło, że u podnóża Gór Skalistych w Kolorado, o kilka tysięcy kilometrów od najbliższego oceanu, powstała znakomita grupa zajmująca się cyklonami – to opowieść na inny wpis.

Gray jest meteorologiem starej daty.  Jako młody naukowiec (na zdjęciu siedzi i patrzy wprost) przewidywał pogodę na Atlantyku jeszcze w czasie II Wojny Światowej. Na wydziale fizyki atmosfery w Fort Collins wykładał globalną cyrkulację atmosfery i meteorologie tropikalną.  Wszystkie jego wykłady były w większości pomysłami w jaki sposób atmosfera może działac. Jego ulubionym powiedzeniem było „up moist – down dry” (do góry powietrze wilgotne, w dół powietrze suche) a jego studenci chodzili w podkoszulkach z takim właśnie napisem. Walczył na wykładach o to, żeby podręczniki meteorologii uczyły o  „w góre wilgotnym a w dół suchym” powietrzu - skrócie myślowym,  że najważniejszym procesem jest przenoszenie masy w chmurach burzowych i zwiazany z tym opad deszczu.  Walczył z „suchymi dynamikami”, czyli uczonymi badającymi  tylko ruch atmosfery bez uwzględnienia procesów konwekcyjnych.  Był uwielbiany przez swoich studentów - na zebraniach grupy naukowej Graya dochodziło do najbardziej gwałtownych dyskusji. Jednak publikował stosunkowo mało, wiele z jego pomysłów pozostawało w sferze zamysłów, było nie do końca udokumentowanych.  Trochę  dlatego, bo studenci z wojska musieli kończyć magisteria przez dwa lata a doktoraty przez cztery lata i nie bardzo mieli czas na kończenie prac badawczych. Jego największym sukcesem publicznym jest sezonowa prognoza ilości cyklonów tropiklanych na Atlantyku. Metoda jest czysto statystyczna,  oparta na kilkunastu czynnikach prognostycznych – np na tym jaki był opad w poprzednim roku, lub na tym czy będzie El Nino. 

Prawie wszystkie komisje ekspertów badające klimatyczny wpływ zmiany temperatury oceanu na intensywność cyklonów tropikalnych mają teraz przynajmniej kilku studentów, którzy kiedyś byli uczniami Graya.  Chris Landsea jest najbardziej znanym z jego studentów i w dużej  mierze kontynuatorem poglądów.

Gray znany jest z tego, że występuje publicznie przeciwko hipotezie, że intensywność oraz ilość cyklonów tropikalnych jest związana ze zmianami klimat. Uważa, że poglądy o zmianie klimatu to czysta konspiracja.  Wdaje się w częste awantury i dyskusje publiczne. W 2006 roku  (patrz The Wall Street Journal, Hurricane Debate Shatters Civility Of Weather Science) Judith Curry, profesor fizyki atmosfery,  powiedziała o Grayu, że jest „wapniakiem”, „którego nikt nie słucha poza kikoma wyznawcami”. Na co Gray odpalił, że „nie czuje się wapniakiem, a jak połowa z jego studentów z doktoratami powie, że jest zwariowanym staruszkiem, to sam odejdzie.”

Można by pisać o Grayu w nieskonczoność. Napisałem o nim trochę na Wikipedii, ale za mało. Może kiedyś napiszę więcej.

http://pl.wikipedia.org/wiki/William_Gray

poniedziałek, 08 marca 2010

W obecnej dyskusji na temat climagate – wykradzonych emailach z instytutu badawczego zajmujacego się zmianami klimatu w Uniwersytecie Wschodniej Anglii znalazł się ciekawy polski wątek. Otóż na początku 2010 Polska, a także Kanada, Szwecja, Rosja i kilka innych krajów odmówiło swobodnego dostępu do swoich danych klimatycznych.  Poinformowano o tym m.in. w czasie przesłuchania w brytyjskim parlamencie przed komisją do spraw nauki i technologii (UK Parliamentary Science and Technology Committee) 3 marca 2010 roku. 
Więcej informacji na ten temat można znaleźć na video z przesłuchania Phila Jonesa
http://www.youtube.com/watch?v=cAj_lZv4Gxc
http://www.youtube.com/watch?v=AK0oGnqtVXo
http://www.youtube.com/watch?v=pBInhAVeixk
http://www.youtube.com/watch?v=1tskv-rX8F4
http://www.youtube.com/watch?v=h8KUm4AEZ5E

Brytyjska służba meteorologiczna poprosiła o zgodę na dystrybucję 170 krajów, do tej pory odpowiedziało 59, z czego  7 nie wyraziło zgody na rozprowadzanie danych przez Uniwerytet Wschodniej Anglii. Dlaczego stanowisko Polski i kilku innych krajów jest ważne? Poprzez odmowę dystrybucji danych, Polska daje argument Uniwersytetowi Wschodniej Anglii, że ten nie mógł spełnić wymagania swobodnego dostępu do danych na podstawie angielskiego prawa -  tzw. freedom of information legislation (FOI).   Dla przypomnienia –  jeden z głównych wątków  „climategate” dotyczy zarzutów wysuwanych pod adresem Universytetu Wschodniej Anglii Climate Research Unit, że nie udostępnił swobodnego dostepu do globalnych danych klimatycznych.  CRU bronił się, że ma podpisane umowy dwustronne z poszczególnymi krajami, które zabraniają dalszego przekazywania danych. 

W jaki sposób dochodzi do dość absurdalnej sytuacji,  w których rutynowe pomiary klimatyczne, takie jak temperatura powietrza czy temperatura powierzchni Ziemi są chronione przez poszczególne kraje? Jest kilka przyczyn. Dane mają wartość eknomiczna, można je sprzedać. W krajach takich jak Polska, instytut meteorologiczny (IMGW) ogranicza dostęp do danych ze względów na ich komercyjną wartość, a kiedyś, a może i teraz,  ze względu na słabą infrastrukturę badawczą. Dochodzi do dziwacznych sytuacji, w których początkowe dane do prognoz pogody są przesyłane spoza Polski. Z kolei Kanada jako argument podała, że woli rozprowadzać dane samodzielnie,  ze swojego serwera w Kanadzie niż z Uniwersytetu we Wschodniej Anglii.  Możliwość zabraniania dystrybucji danych daje Polsce niesławna rezolucja 40 Światowej Organizacji Meteorologicznej (WMO) działającej pod egidą Organizacji Narodów Zjednoczonych. Napisałem o tym więcej na Wikipedii
http://pl.wikipedia.org/wiki/Rezolucja_Światowej_Organizacji_Meteorologicznej

Rezolucja numer 40 WMO stwierdza, że narodowe służby meteorologiczne mogą określić listę  „Dodatkowych Danych i Produktów”, do których wolny dostęp jest ograniczony. Większość krajów europejskich stosuje w większym lub w mniejszym wymiarze rezolucję 40 WMO,  poprzez ograniczanie dostępu do zarchiwizowanych danych klimatycznych. Wyjątkiem w skali światowej są Stany Zjednoczone ze względu na silne przekonanie w społeczeństwie amerykańskim, że za wyniki pracy opłacanej z funduszy publicznych nie można dwukrotnie pobierać opłat. Dlatego archiwalne i aktualne dane meteorologiczne dostępne w Stanach są bezpłatne - zawieraja zresztą dane z innych krajów.  Dochodzi tu jednak do kolizji pomiędzy rezolucją numer 40 WMO a prawem amerykańskim. Większość naukowców zajmujących się badaniami środowiska popiera usankcjonowanie bezpłatnego dostępu i swobodną wymianę danych meteorologicznych, oceanograficznych i hydrologicznych,  ze względu na światowy rozmiar problemu zmian klimatu.

Ogólna publiczność nie jest często zorientowana, że dostęp do danych klimatycznych może być ograniczony przez poszczególne kraje.  Widać to na przykładzie „climategate”. Powoduje to przekonanie o zmowie naukowców. W rzeczywistości sytuacja jest bardziej złożona. Być może sprawa climategate spowoduje silny nacisk na organizacje meteorologiczne i umozliwienie swobodnego przepływu danych klimatycznych. Próby takie podejmuje brytyjska służba meteorologiczna.

sobota, 06 marca 2010

Wśród wszystkich przeciwników hipotezy globalnego ocieplenia jest jedna grupa, którą bym określił grupą Syndromu Dysona.

Freeman Dyson jest niezwykle barwnym fizykiem.  Znany jest ze swoich przyczynków do elektrodynamiki kwantowej, pracował nad problemami fizyki matematycznej, topologii, teorii liczb. Spotkałem go, przez chwilę, w Instytucie Studiów Zaawansowanych w Princeton wiele lat temu, na początku lat 1990.  Już wtedy pisał pasjonujace eseje i książki dotyczące własciwie wszystkiego. „Zaburzając wszeświat” (Disturbing the Universe, 1977), „Nieskończone we wszystkich kierunkach” (Infinite in all directions 1988),  „Słońce, genom, internet”  (The Sun, the Genome, and the Internet -- Tools of Scientific Revolutions, 1999), „Światy wyobraźni” (Imagined World, 2000), „Początki życia” (Origins of Life, 1985) to tylko niektóre z jego książek.   Dyson należał do grupy JASON, naukowców doradzających rządowi amerykańskiem na temat róznych problemów naukowych dotyczące broni balistycznej, optyki, komunikacji z łodziami podwodnymi. Uważa się za naukowego buntownika. Ma zdecydowane stanowisko dotyczące badań klimatycznych.  W marcu  2009 roku niedzielny ilustrowany dodatek do New York Timesa opublikował wielostronicowy artykuł Nicholasa Dawidoffa dotyczący poglądów Dysona na klimat. Freeman uważa, że skoro dwutlenek węgla ogrzewa Ziemię, to jest to dobre dla roślin natomiast problem dwutlenku węgla można ewentualnie rozwiązać poprzez inżynierię genetyczną modyfikując genetycznie drzewa, tak żeby spowodowac zwiększoną sekwestrację. Freeman mówi o badaniach klimatycznych „Po prostu uważam, że wiele z wypowiedzi ekspertów klimatycznych jest absurdalnych. Nie dlatego, że wiem o tym lepiej,  chociaż nieco wiem. Moje obiekcje na temat propagandy o globalnym ociepleniu nie są związane ze sprawami technicznymi, o których wiem mało. Raczej, chodzi mi o sposób w jaki ci ludzie się zachowują, i o ich brak tolerancji na krytykę. Wydaje mi się, że własnie to najbardziej mnie denerwuje. Uważam, że główną różnicą pomiędzy mną i większościa ekspertów od badań klimatu jest to, że mam znacznie szerszy pogląd na całość problemu”  (wywiad z Freemanem Dysonem, 4 czerwca 2009, Freeman Dyson Takes on  the Climate Establishment, Yale, e360). 

Polskim Dysonem Freemanem jest Łukasz Turski.  Podobnie jak Dyson, Turski jest fizykiem. Zajmuje się materią skondensowaną, problemami adsorbcji gazów na powierzchni kryształów, falami spinowymi w ferromagnetykach (tutaj mają z Dysonem identyczne zainteresowania). Podobnie jak Dyson, Turski ma duży wkład w popularyzację nauki. To on wymyślił potrzebę istnienia w Polsce ekploratorium naukowego, realizowanego w Warszawie Centrum Nauki Kopernik. Turski też określa siebie jako buntownika naukowego.  Wprawdzie nie jest meteorologiem (chociaż krótko pracował w Instytucie Geofizki Uniwersyteu Warszawskiego i wsławił się tym, że chciał rozwiazać miejsce, w którym pracował), ale uważa, że naukowcy piszący raport IPCC manipulowali badaniami naukowymi. W lutym 2010 opublikował list w Gazecie Wyborczej  (Gazeta Wyborcza, Prof. Łukasz Turski: uznajmy błędy raportu IPCC i zrewidujmy go)   „Nie wiem, ile takich konfabulacji lub wyrzutek lobbystycznych jest w Raporcie, ale zapewniam czytelników "Gazety Wyborczej", że w prawdziwej nauce nie liczymy fałszerstw na procenty tekstu ... Dlaczego więc nie uznać błędu raportu i przystąpić natychmiast do jego szczegółowej rewizji. Sprawa ocieplenia klimatu jest zbyt ważna dla rozwoju cywilizacji na świecie, by ją podporządkować politycznie motywowanym decyzjom wynikającymi z politycznie motywowanych manipulacji badaniami naukowymi.”

Merytorycznie wypowiedzi Turskiego są wątpliwe - w pisaniu raportu i zbieraniu danych do raportu IPCC nie uczestniczyli oszuści i manipulanci tylko wybitni naukowcy o moralnym autorytecie tej samej klasy co Dyson czy Turski - członkowie Amerykańskiej Akademii Nauk, lauraci najwyższych nagród stowarzyszeń oceanograficznych i meteorologicznych, laureaci nagrody Nobla (Crutzen, Molina).   Dość łatwo dyskutować z głównym zarzutem Turskiego o manipulacji  rekonstrukcji temperatury. Napisałem o tym wiecej na Wikipedii w haśle Kontrowersja kija hokejowego
http://pl.wikipedia.org/wiki/Kontrowersja_kija_hokejowego

Sprawa manipulacji rekonstrukcji temperatury była kilkakrotnie rozważana. M.in. na  życzenie Kongresu Stanów Zjednoczonych powstał specjalny komitet złożony z niezależnych ekspertów, którego zadaniem była analiza pracy krtykownej przez Turskiego (tzw rekonstrukcja MBH98). Panel opublikował wyniki swoich badań w 2006 i potwierdził wyniki artykułu MBH98.

Mimo, że wypowiedzi obu naukowców leżą poza zasięgiem ich wiedzy, to  możliwosci  polemiki są ograniczone.  Powodem jest, że obaj występują pod płaszczem buntownika naukowego działającego ponad „istniejącym układem”.   Przejechał się na tym Jim Hansen,  znany klimatolog amerykański, który na informację o rewelacjach Dysona w New York Times Magazine w 2009 odpowiedział telefonicznie -  „Musimy usmażyć większe rybki niż Freeman Dyson, który nie wie co mówi ... Skoro Dyson błądzi w meandrach spraw, które mają istotne znaczenie dla ludzkości i życia to powinien najpierw odrobić pracę domową – ale z tematu globalne ocieplenie jeszcze tego nie zrobił”.  Hansen natychmiast dostał po głowie za burzenie autorytetu i musiał odpowiedzieć w bardziej elegancki sposób.  

Oczywiście nie ma nic lepszego dla nauki niż krytyka i powtarzalność rezultatów. W nauce mie ma problemu z błednymi hipotezami (np o globalnym ociepleniu), bo te łatwo obalić, natomiast błędne dane pomiarowe to prawdziwy problem.  Tyle, że to co pisze Turski w „Gazecie Wyborczej” o oszustach z IPCC to duża przesada. 

Dzisiaj  (5 marca 2010) pojawił sie artykuł w  NYTimesie dotyczący wymiany korespondencji emailowej pomiędzy członkami Amerykańskiej Akademii Nauk z sekcji badań o otoczeniu i ekologii. Jeden z nich - Stephen Schnieder przyrównał obecne ataki na naukowców związanych z "climategate" do neo Makkartyzmu. Paul Falkowski, profesor z Uniwersytetu w Rutgers,  napisał że naukowcy powinni występowąc w swojej obronie w publicznym radio i w telewizji. Falkowski http://lifesci.rutgers.edu/~molbiosci/faculty/falkowski.html  nie tylko jest członkiem Amerykańskiej Akademi Nauk, ale niedawno został  wybrany do jej rady nadzorczej. Pamiętam go z publikacji biologi morza i ciekawego eksperymentu dotyczącego zakwitu fitoplanktonu i deficytu żelaza.

Taki Makkartyzm naukowy związany z "climategate" pojawia się ostatnio w Polsce. Pierwszego marca "Gazeta Wyborcza" opublikowała artykuł "Naukowcy, święte krowy"  Marcina Bosackiego, w którym dostaje się naukowcom poczynając od tych związanych z badaniami zmian klimatu a kończąc na epidemiologach.  Bosacki podsumowuje swój artykuł "Ale naukowcy to nie są święte krowy. Oni i ich panele muszą wreszcie nauczyć się tego, czego dawno uczą się (z różnymi skutkami) politycy i ich partie oraz dziennikarze i ich media. Jeśli wkraczasz w sferę publiczną, jeśli wpływasz na życie milionów i wydawanie miliardów, pole do pomyłki się zmniejsza. Jeśli mylisz się lub manipulujesz, ludzie przestają ci wierzyć. Kropka." Zresztą wypowiedż Bosackiego to kontynuacja dość agresywnych ostatnio w Polsce wypowiedzi dotyczących nauk o zmianach klimatu, m.in.  Ł. A. Turskiego, Zbigniewa Jaworowskiego, czy Komitetu Nauk Geologicznych Polskiej Akademii Nauk (ta dość nieprawdopodobna sytuacja, w której naukowcy z innej dziedziny atakują  inną dziedzine wiedzy wymaga osobnego wpisu).   Wszystko to powoduje spadek zaufania do nauki, nie tylko o zmianach klimatu.

Warto prześledzić artykuł Bosackiego, żeby zrozumieć o co chodzi członkom Amerykańskiej Akademi Nauk.

Wypowiedż Bosackiego nie ma nic wspólnego z popularyzacją nauki czy faktami a sam artykuł jest jednostronną opinią.  Widać, że  autor  nie ma pojęcia o badaniach klimatycznych  - o tym za chwilę. Przypuszczam, że tego typu poglądy odzwierciedlają nastroje wśród "ogółu publiczności",  zaczynają to dostrzegac sami naukowcy.  O tym jest artykuł w NYT i tutaj te wątki amerykańskie i polskie się łaczą.  Sam Falkowski twierdzi, że jest "naukowcem i obywatelem", i że ma obowiązek bronienia nauki.  Zaczynam się z nim zgadzać czytając wypowiedzi Bosackiego w "Gazecie".

Warto prześledzić artykuł Bosackiego.  Jest tam bład na błędzie jeżeli chodzi o fakty. Dla przykładu jest opisany Mark Siddall, oceanograf pracując m.in. nad modelowaniem zmian poziomu oceanu.  Sidall opublikował artykuł w 2009 roku, który wycofał z powodu dwóch błędów jakie w nim zrobił. Napisałem email do Siddala, z prośbą o interpretacje wypowiedzi Bosackiego.  Odpisał dośc szybko mówiąc, że wycofał artykuł i jest to opisane na blogu czasopisma Nature
http://blogs.nature.com/news/thegreatbeyond/2010/02/sea_level_paper_withdrawn_on_a.html
napisał też,  że skontaktowała się z nim tylko jedna gazeta
http://www.guardian.co.uk/environment/2010/feb/21/sea-level-geoscience-retract-siddall
a wszystkie inne artykuły są komentarzem.  W komentarzu Bosackiego czytamy  "Siddall przeprasza i mówi, że nie wie, o ile poziom oceanów wzrośnie".  W rzeczywistości Siddal nie kwestionuje oceny IPCC, że poziom oceanów wzrośnie tylko pisze, że w jego pracy, opublikowanej w 2009 roku (czyli już po publikacji IPCC w 2007)  były dwa techniczne błędy i praca nie mogła byc poprawiona, ale powinna być wycofana.  Ocena poziomu wody w oceanach  była szacowana przez IPCC na 18cm-59cm w roku 2100 i podkreślała, że nie ma jeszcze dobrej oceny wpływu topnienia lodu. Nowsze oceny zrobione przez Martina Vermeera i  Stefan Rahmstorfa opublikowane w grudniu 2009 dają wartości 0.75m-1.9m w 2100.  Komentarz Bosackiego stwarza wrażenie, że błędy Siddala podważają sekcję raportu IPCC dotyczącą zmian poziomu oceanu co nie jest prawdą.

W artykule Bosackiego czytamy też taki komentarz: "Już w 2005 r. szef Narodowego Centrum Huraganów w USA Christopher Landsea wycofał się z prac IPCC, gdyż szefowie Panelu straszyli ludzkość, że ocieplenie (które też uważa za fakt) powoduje silniejsze huragany - na co już zdaniem Landsea dowodów nie ma. Ostrzegł Pachauriego, że pisanie raportu jest w IPCC "z góry motywowane przez partykularne interesy i gwałci zasady nauki". Pachauri go zignorował."

Oczywiście Chris Landsea nie jest szefem Narodowego Centrum Huraganów, a sam raport IPCC IV z 2007 roku (opublikowany dwa lata po wycofaniu się Landsea z jego prac) jest bardzo konserwatywny w ocenie zmian zarówno intenywności jak i powstawania cyklonów tropiklanych.  Pachauri nie zignorował Landsea, bo Pachuri nie zajmuje się cyklonami tropikalnymi, a tę część raportu pisali fizycy atmosfery a nie Pachuri, który nie miał tu nic do gadania.  To, że Landsea wycofał się z pracy nad raportem nie oznacza, że poglądy w nim zawarte są  błędne. Żeby to wszystko zrozumieć, trzeba trochę znać meteorologię  i małe środowisko naukowe zajmujące się cyklonami.  Po przeczytaniu artykułu Bosackiego napisałem email do Landsea z prośbą o referencje do jego nowej publikacji. Chris odpisał i podał  link do swojej strony  sieciowej
http://www.aoml.noaa.gov/hrd/Landsea/landsea_bio.html 
i do artykułu  opublikowanego w 2010 w Nature Geoscience. Artykuł  ma dzisięciu autorów, zwraca zresztą uwagę, że obok Chrisa Landsea jest też Kerry Emanuel (dla nie ekspertów - obaj są nieco po innej stronie barykady w dyskusji o wpływie temperatury na intensywnosc cyklonów).  Co z tego artykułu wynika?  W streszczeniu czytamy, że modele numeryczne przewidują wzrost o  2-11% w intensywności cyklonów tropikalnych w roku 2100. Artykuł podkreśla też, że w analizie używane są nowe techniki oparte na pomiarach satelitarnych.  Dla mniej wtajemniczonych wyjasniam o co chodzi. Otóż ocena zmian klimatycznych intesywności cyklonów tropiklanych i ich rozwoju po cyklogenezie (powstaniu) oparta jest na technikach (tzw metoda Dvoraka), które zależą od jakości danych satelitarnych.  A te zmieniały się poprzez ostatnie dekady; trzeba z tego powodu zrobić "ujednorodnienie" pomiarów, co jest dość trudne.   Szczerze mówią dla mnie stanowisko Landsea i dalsze prace środowiska naukowego zajmującego się badaniem cyklonów tropikalnych  jest przykładem szalenie pozytywnym - stałego rozwoju fizyki atmosfery, a nie jak chce Bosacki, jej upadkiem. Ta część badań klimatycznych zależy od pomiarów satelitarnych - jeszcze w latach 1950 takie pomiary nie istniały! Gdyby nie meteofologia satelitarna to obecne ostrzeżenia o cyklonach tropiklanych byłyby znacznie gorsze. 

Pomijając sprawy naukowe - Bosacki wypisuje głupstwa o samym  IPCC. Dla przykładu czytamy -  "Pachauri to wie, bo im za grube pieniądze doradzał. Teraz tłumaczy, że wszystkie honoraria szły nie do jego prywatnej kasy, tylko na instytut, który "nie działa dla zysku". Ale krytykuje go nawet bardzo przychylny z reguły "New York Times". Czyż nie jest przyjemniej rozbijać się po świecie jako szef wielkiego instytutu, niż być nikomu nieznanym ekspertem w Delhi? Czyż nie jest lepiej dostać pokojowego Nobla, niż go nie dostać?". Sprawia to wrażenie, ze Pachuri jest jakąś niebywale ważną osobą w procesie pisania raportów IPCC i jest szefem wielkiego instytutu. W rzeczywistości IPCC  nie jest żadnym "wielkim instytutem" bo raport jest pisany przez naukowców rozproszonych po całym świecie i pracujących instytucjach takich jak NASA,  Uniwersytet Kalifornijski, Yale, Princeton, Harward, MIT. Pachuri nie finansuje żadnych badań naukowych.  Ma kilka osób, które pomagają w publikacji raportów. Sam Pachuri jest praktycznie mało znany w środowisku naukowym. Już bardziej znaną osobą jest Susan Solomon, która była szefowa I grupy roboczej IPCC  i dostała medal Rossbiego, najwyższe odnaczenie dla fizyka atmosfery w Stanach, za prace badawcze nad dziurą ozonową. 

Co z tego wszytkiego wynika dla Bosackiego? Otóż z tego, że nauka się rozwija, że naukowiec który zrobił błąd i się do tego przyznał, że naukowcy między sobą dyskutują i się ze sobą nie zgadzają, ale starają się dojść do wspólnego stanowiska Boscaki wyciąga wniosek, że naukowcy manipulują.  Nie jest to pogląd odosobniony. Obecny napad na badania klimatyczne jest bez precedensu.  Dla większości naukowców zajmująych się zmianami klimatu ta sytuacja jest zaskoczeniem.  Pokazuje to, że naukowcy muszą  zajmować się popularyzacją nauki, czy tego chcą czy nie. Jednocześnie musi istnieć ochrona działalności naukowej ze strony stowarzyszeń naukowych, bo wielokrotnie badania klimatyczne wkraczają na pole polityki, działalności  o której fizyk atmosfery, meteorolog, klimatolog, oceanograf nie mają pojęcia.  Żeby jednak nie zwalać całej odpowiedzialności na samych badaczy za knot Bosackiego -  dobrze by było, żeby opiniotwórcze dzienniki w Polsce miały dobrych dziennikarzy naukowych. Gazeta Wyborcza miała kiedyś dobry dział naukowy, który został rozmontowany. Popularyzacja nauki nie może polegać na czytaniu opini z drugiej ręki.

 

PS 4 marca 2010 umarła Joanne Simpson,  pierwsza kobieta, która uzyskała doktorat z metorolologii.  Joanne była "feministką naukową" i dzięki niej wiele kobiet zaczęło i kontynuowało pracę w oceanografii i fizyce atmosfery.  Zajmowała się atmosferą tropikalną, m.in.była szefową  misji satelitarnej TRMM. Dostała  za swoją prace Medal Rossbiego - najwyższe wyróżnienie Amerykanskiego Towarzystwa Meteorologicznego. 

1 , 2 , 3 , 4