Luiz Carlos Baldicero Molion
Instituto de Ciências Atmosféricas, Universidade Federal de Alagoas
Cidade Universitária - 57.072-970 Maceió, Alagoas - BRASIL
email: molion@radar.ufal.br
1. INTRODUÇÃO
Existem evidências que o clima, entre cerca de 800 a 1200 DC, era mais quente do que o de hoje. Naquela época, os Nórdicos (Vikings) colonizaram as regiões do Norte do Canadá e uma ilha que foi chamada de Groelândia (Terra Verde) e que hoje é coberta de gelo (!?). Entre 1350 e 1850, o clima se resfriou, chegando a temperaturas de até cerca de 2 °C inferiores às de hoje, particularmente na Europa Ocidental. Esse período foi descrito na Literatura como “Pequena Era Glacial”. Após 1850, o clima começou a se aquecer lentamente e as temperaturas se elevaram. Portanto, não há dúvidas que ocorreu um aquecimento global nos últimos 150 anos. A questão que se coloca é se o aquecimento observado é natural ou antropogênico?
A fonte primária de energia para o Planeta Terra é o Sol, que emite radiação eletromagnética (energia), denominada radiação de ondas curtas (ROC). O albedo planetário - percentual de ROC incidente no Planeta que é refletida de volta para o espaço exterior, atualmente cerca de 30 % – é resultante da variação da cobertura e do tipo de nuvens, da concentração de aerossóis e partículas em suspensão no ar, e das características da cobertura superfície tais como gelo/neve (90 % de reflexão), florestas (12 %) e oceanos/lagos (10 %). Portanto, o albedo planetário controla o fluxo de ROC que entra no sistema terra-atmosfera-oceanos: menor albedo, maior entrada de ROC e concomitante aquecimento do sistema terra-atmosfera, e vice-versa.
O restante do fluxo de ROC passa através da atmosfera terrestre e boa parte dele é absorvida pela superfície, que se aquece e emite radiação numa faixa espectral denominada radiação de ondas longas (ROL). O fluxo de ROL, emitida pela superfície, é absorvido por gases, pequenos constituintes, como o vapor d'água (H2O), o gás carbônico (CO2), o metano (CH4), o ozônio (O3), o óxido nitroso (N2O) e compostos de clorofluorcarbono (CFC), vulgarmente conhecidos por freons. Esses, por sua vez, emitem ROL em todas as direções, inclusive em direção à superfície e ao espaço exterior. A absorção/emissão desses gases pelas várias camadas atmosféricas reduz a perda de ROL, emitida pela superfície, que escaparia para o espaço exterior, e constitui o chamado efeito-estufa.
O vapor d'água é o gás principal de efeito-estufa (GEE) e sua concentração é extremamente variável no espaço e tempo. Por exemplo, sobre a Floresta Amazônica existe 5 vezes mais vapor d’água que sobre o Deserto do Saara e sobre a Amazônia, ainda, sua concentração varia de 30 % entre a estação seca e a chuvosa. Em regiões polares, e em regiões tropicais a uma altura acima de 4 km, existe muito pouco vapor d’água e o efeito-estufa é fraco. O gás carbonico (CO2) é o segundo GEE em importância, com concentração até 100 vezes inferior à do vapor d'água.
É o gás que tem causado grande polêmica, pois sua concentração, embora baixa, aumentou de 315 ppmv (1ppmv = 1 parte por milhão por volume, ou seja, 1 mililitro de gás por metro cúbico de ar) em 1958 para 379 ppmv em 2005, crescendo à taxa média de 0,4 % ao ano. Esse crescimento está sendo atribuído às emissões decorrentes das atividades humanas, como a queima de combustíveis fósseis e florestas tropicais. O metano (CH4), com concentrações muito pequenas, na ordem de 1,7 ppmv, também vinha mostrando um significativo aumento de 1,0 % ao ano, atribuído às atividades agropecuárias.
Mas, a partir de 1998, a taxa de crescimento anual de sua concentração passou a diminuir, ou se estabilizou, inexplicavelmente, embora as fontes antrópicas continuem aumentando. Os gases restantes apresentam concentrações ainda menores que as citadas, porém parecem estar aumentando também. O efeito-estufa faz com que a temperatura média global do ar, próximo à superfície da Terra, seja cerca de 15 °C. Caso ele não existisse, a temperatura da superfície seria 18 °C abaixo de zero, ou seja, o efeito-estufa é responsável por um aumento de 33 °C na temperatura da superfície do planeta! Logo, ele é benéfico para o planeta, pois gera condições que permitem a existência da vida como se a conhece.
Em resumo, a estabilidade do clima da Terra resulta do balanço entre o fluxo de ROC absorvido pelo planeta e o fluxo de ROL emitido para o espaço (ROC = ROL). O aquecimento do clima global ocorreria, por exemplo, ou pela redução de albedo planetário, que aumentaria ROC absorvida, ou pela intensificação do efeito-estufa, que reduziria a perda de ROL para o espaço exterior. A hipótese do efeito-estufa intensificado é, portanto, fisicamente simples: mantidos a produção de energia solar e o albedo planetário constantes (?), quanto maior forem as concentrações dos GEE, menor seria a fração de radiação de ondas longas, emitida pela superfície, que escaparia para o espaço (redução do fluxo de ROL) e, conseqüentemente, mais alta a temperatura do planeta.
É dito que a concentração de CO2 passou de 280 ppmv, na era pré-industrial para os atuais 380 ppmv, um aparente aumento de 35% da concentração desse gás nos últimos 150 anos. Utilizando tais concentrações nas simulações feitas por modelos de clima global (MCG), o incremento na temperatura média global resultante já seria de 0,5 °C e 2,7 °C, conforme o modelo utilizado. Entretanto, de acordo com o Sumário para Formuladores de Políticas, extraído do Relatório da Quarta Avaliação do Painel Intergovernamental de Mudanças Climáticas (SPM/AR4/IPCC, 2007), o aumento “observado” está entre 0,4 e 0,7 ºC. Ou seja, o aumento observado está situado no limite inferior dos resultados produzidos pelos atuais MCG utilizados para testar a hipótese da intensificação do efeito-estufa, evidenciando que esses tendam a superestimar a temperatura.
Porém, se a concentração de CO2 dobrar nos próximo 100 anos, de acordo com os mesmos MCG, poderá haver um aumento da temperatura média global entre 2 °C e 4,5 ºC, não inferior a 1,5 °C, conforme afirmado no SPM/AR4/IPCC. Os efeitos desse aumento de temperatura seriam catastróficos! Segundo a mesma fonte, uma das conseqüências seria a expansão volumétrica da água dos oceanos que, associada ao degelo parcial das geleiras e calotas polares, notadamente o Antártico, aumentaria os níveis dos mares entre vinte e sessenta centímetros.
Esse fato, dentre outros impactos sociais, forçaria a relocação dos 60 % da Humanidade que vivem em regiões costeiras. Aumento na freqüência de tempestades severas e na intensidade de furacões seria outra conseqüência. Em seguida, foram discutidos o estado atual do conhecimento sobre o assunto e algumas das limitações dos modelos de simulação do clima.
Texto original: http://mitos-climaticos.blogspot.com/2008/06/aquecimento-ou-histeria-global-1.html
2. AUMENTO DA TEMPERATURA GLOBAL
Na Figura CM1, mostrou-se que desvios de temperatura do ar para o globo terrestre, com relação à média do período 1961-1990, aumentaram cerca de 0,7 °C desde o ano de 1850. Vê-se que, até aproximadamente 1920, houve apenas variabilidade interanual em princípio, não tendo ocorrido aumento expressivo de temperatura nesse período extenso, embora haja relatos de ondas de calor como, por exemplo, a de 1896 nos Estados Unidos, que deixou mais de 3 mil mortos somente em Nova Iorque. Porém, entre 1920 e 1946, o aumento global foi cerca de 0,4 °C. No Ártico, em particular, em que há medições desde os anos 1880, o aumento foi cerca de 10 vezes maior nesse período.
Na seqüência, entre 1947 e 1976, houve um resfriamento global de cerca de 0,2 °C (reta inclinada), não explicado pelo IPCC e, a partir de 1977, a temperatura média global aumentou cerca de 0,4 °C . O próprio IPCC concorda que o primeiro período de aquecimento, entre 1920 e 1946, pode ter tido causas naturais, possivelmente o aumento da produção de energia solar e a redução de albedo planetário, discutidas mais abaixo. Antes do término da Segunda Guerra Mundial, as emissões decorrentes das ações antrópicas eram cerca de 6 % das atuais e, portanto, torna-se difícil argumentar que os aumentos de temperatura, naquela época, tenham sido causados pela intensificação do efeito-estufa pelas emissões antrópicas de carbono.
A polêmica que essa série de anomalias tem causado reside no fato de o segundo aquecimento, a partir de 1977, não ter sido verificado, aparentemente, em todas as partes do globo. A série de temperatura média para os Estados Unidos, por exemplo, não mostrou esse segundo aquecimento, sendo a década dos anos 1930 mais quente que a dos anos 1990. Na Figura CM2, mostraram-se os desvios da temperatura média global, obtida com dados dos instrumentos MSU (Microwave Scanning Unit) a bordo de satélites a partir de 1979. Note-se o pico de temperatura em 1998, cerca de 0,8 °C, associado ao evento El Niño considerado o mais forte do século passado, e que, desde 1998, as anomalias de temperaturas tem sido inferiores.
É sabido que eventos El Niños tendem aquecer o planeta. Segundo John Christy e Roy Spencer, da Universidade do Alabama, em Hunstsville (UAH), os dados do MSU indicaram um pequeno aquecimento global de 0,076 °C por década, enquanto os termômetros de superfície mostraram um aquecimento de 0,16 °C por década, ou seja, duas vezes maior no mesmo período. Para o Hemisfério Sul, satélites mostraram um aquecimento menor, de 0,052 °C por década. Em princípio, satélites são mais apropriados para medir temperatura global, pois fazem médias sobre grandes áreas, incluídos os oceanos, enquanto as estações climatométricas de superfície registram variações de seu micro ambiente, representando as condições atmosféricas num raio de cerca de 150 metros em seu entorno.
As estações climatométricas apresentam outro grande problema, além da não-padronização e mudança de instrumentação ao longo dos 150 anos passados. As séries mais longas disponíveis são de estações localizadas em cidades do “Velho Mundo” que se desenvolveram muito, particularmente depois da Segunda Guerra Mundial. Em média, a energia disponível do Sol (calor) é utilizada para evapotranspiração (evaporação dos solos e superfícies de água + transpiração das plantas) e para o aquecimento do ar durante o dia. Sobre superfícies vegetadas, a maior parte do calor é usada para a evapotranspiração, que resfria a superfície, e o restante para aquecer o ar.
Com a mudança da cobertura superficial, de campos com vegetação para asfalto e concreto, a evapotranspiração é reduzida e sobra mais calor para aquecer o ar próximo da superfície, aumentando sua temperatura. Adicione-se, ainda, o calor liberado pelos veículos e pelos edifícios aquecidos, particularmente em regiões fora dos trópicos no inverno. Esse é o chamado efeito de ilha de calor, que faz as temperaturas do ar serem, em média, 3 °C a 5 °C maiores nos grandes centros urbanos quando comparadas às de suas redondezas. Analisando os dados de Beijing e Wuhan, China, Ren et al (2007) [as referências bibliográficas são apresentadas no final, Capítulo 7], por exemplo, encontraram aumentos anuais e sazonais nas temperaturas urbanas entre 65-80 % e 40-61 %, respectivamente, com relação às estações rurais de suas vizinhanças.
Na Figura CM1, os dados foram “ajustados” para compensar o efeito da urbanização nas séries de temperatura, porém utilizaram métodos, ou algoritmos matemáticos, de correção que não necessariamente sejam apropriados ou representem a realidade, já que esse procedimento é subjetivo e, portanto, questionável. Em outras palavras, é impossível retirar o efeito de ilha de calor das séries de temperaturas urbanas. Uma das possibilidades, pois, é que o aquecimento a partir de 1977, que aparece nitidamente na Figura CM1, seja, em parte, resultante da urbanização em torno das estações climatométricas, ou seja, uma contribuição local, e não global, ao aquecimento.
Outro aspecto a ser considerado é o número de estações climatométricas. No início da série representada na Figura CM1, o número de estações era cerca de 200, praticamente todas no Hemisfério Norte. Na década de 1960, esse número superou a marca de 14 mil e, recentemente, menos de 2 mil estações são utilizadas para elaborar a “média global” da temperatura. A maior parte das estações desativadas estavam em regiões de difícil acesso, como zonas rurais e em regiões frias, como a Sibéria, por exemplo, que não estão sujeitas ao efeito de ilha de calor. Finalmente, um aspecto muito importante é que as séries de 150 anos são curtas para capturar a variabilidade de prazo mais longo do clima.
O período do final do Século XIX até as primeiras duas décadas do Século XX foi o final da “Pequena Era Glacial”, um período frio, bem documentado, que perdurou por cinco séculos. E esse período coincide com a época em que os termômetros começaram a ser instalados mundialmente. Portanto, o início das séries instrumentais de 150 anos, utilizada no Relatório do IPCC, ocorreu num período relativamente mais frio que o atual e leva, aparentemente, à conclusão errônea que as temperaturas atuais sejam muito altas ou “anormais” para o planeta.
Concluiu-se que existem problemas de representatividade, tanto espacial como temporal, das séries de temperatura observadas na superfície da Terra, o que torna extremamente difícil seu tratamento e sua amalgamação em uma única série. E que estações climatométricas de superfície, portanto, são inadequadas para determinar a temperatura média global da atmosfera terrestre, se é que se pode falar, cientificamente, numa “temperatura média global”.
Texto original: http://mitos-climaticos.blogspot.com/2008/06/aquecimento-ou-histeria-global-2.html
3. INTENSIFICAÇÃO DO EFEITO-ESTUFA
No Sumário para Formuladores de Políticas do IPCC, afirma-se que o gás carbônico é o principal gás antropogênico e que sua concentração de 379 ppmv, em 2005, foi a maior ocorrida nos últimos 650 mil anos, período em que ficou limitada entre 180 e 300 ppmv. O aumento de sua concentração nos últimos 150 anos foi atribuído às emissões por queima de combustíveis fósseis e mudanças do uso da terra. Para Monte Hieb e Harrison Hieb, entretanto, mais de 97 % das emissões de gás carbônico são naturais, provenientes dos oceanos, vegetação e solos, cabendo ao Homem menos de 3%, total que seria responsável por uma minúscula fração do efeito-estufa atual, algo em torno de 0,12 %.
Na realidade, o CO2 não é “antropogênico” e nem o vilão causador da intensificação do efeito-estufa. É um gás natural e, graças a ele, plantas fazem fotossíntese, produzindo açucares, amidos e fibras que mantêm vivos outros seres heterotróficos. Ou seja, o CO2 é um dos gases responsáveis pela vida na Terra! Em seu Relatório, o IPCC utilizou as concentrações medidas em Mauna Loa, Havaí, cuja série foi iniciada por Charles D. Keeling no Ano Geofísico Internacional (1957-58). Essa série foi estendida para os últimos 420 mil anos, utilizando-se as estimativas de concentração de CO2 obtidas das análises da composição química das bolhas de ar aprisionadas nos cilindros de gelo (“ice cores”), que foram retirados da capa de gelo na Estação de Vostok, Antártica, por perfuração profunda (até cerca de 3600 m).
A Figura CM3, extraída do artigo de Jean Robert Petit e colaboradores, publicado em 1999, mostra a evolução temporal da temperatura e da concentração de CO2, obtidas com os cilindros de gelo de Vostok, e foi extensivamente explorada no Documentário “Uma Verdade Inconveniente”, protagonizado por Al Gore. A curva superior é a concentração de CO2, que variou entre 180 e 300 ppmv (escala à esquerda), e, a inferior, é a dos desvios de temperatura do ar, entre – 8 e + 6 °C (escala à direita). Uma análise cuidadosa dessa Figura mostra, claramente, que a curva de temperatura apresentou 4 picos, superiores à linha de zero (tracejada), que representam os interglaciais passados – períodos mais quentes, com duração de 10 mil a 12 mil anos que separam as eras glaciais que, por sua vez, duram cerca de 100 mil anos cada uma – a cerca de 130 mil, 240 mil, 320 mil e 410 mil anos antes do presente.
Portanto, as temperaturas dos interglaciais passados parecem ter sido superiores às do presente interglacial, enquanto as concentrações de CO2 correspondentes foram inferiores a 300 ppmv. Lembrando que a concentração atual atingiu cerca de 380 ppmv, poder-se-ia concluir que as concentrações de CO2 parecem não terem sido responsáveis pelas temperaturas altas dos interglaciais passados. Entretanto, segundo o glaciologista Zbigniew Jaworowski, nunca foi demonstrado que a metodologia dos cilindros de gelo tenha produzido resultados confiáveis e que ela sempre tendeu a produzir concentrações de CO2 30 % a 50 % abaixo das reais por vários motivos.
Um deles é que a hipótese de que a composição química e isotópica original do ar na bolha aprisionada permaneça inalterada por milhares de anos não é verdadeira, pois ocorrem tanto reações químicas como difusão de ar nas bolhas por estarem submetidas a pressões que chegam a ser, nas camadas mais profundas, mais de 300 vezes superiores às da atmosfera. Some-se a isso o fato de o ar da bolha ser cerca de 1000 anos mais novo que o gelo que o aprisionou, conforme afirmaram Nicolas Caillon e colegas em 2003. Isso porque o aprisionamento da bolha de ar pelo gelo não é instantâneo, já que o processo de precipitação/derretimento da neve passa por vários ciclos (verões/invernos) e é necessário um acúmulo de 80 metros de altura para a coluna de neve, em sua base, sofrer uma pressão que a faça se transformar em “neve granulada” (em Inglês, “ firn ”), que aprisiona a bolha de ar finalmente.
Concentrações obtidas com os cilindros de gelo, portanto, não podem ser comparadas com as medidas atualmente feitas por instrumentos, já que, na melhor das hipóteses, as bolhas de ar nos cilindros de gelo teriam uma representação temporal de 1000 anos, ou seja, um dado representa um intervalo de 1000 anos. Dessa análise, conclui-se que, ou existiram outras causas físicas, que não a intensificação do efeito-estufa pelo CO2, que tenham sido responsáveis pelo aumento de temperatura verificado nesses interglaciais passados, ou as concentrações de CO2 das bolhas no gelo tendam, sistematicamente, a serem subestimadas e, de fato, não representam a realidade da época em que foram aprisionadas. Nesse aspecto, embora a técnica de análise das bolhas de ar nos cilindros de gelo tenha sido uma idéia brilhante, ela não produz resultados confiáveis e, portanto, parece ser um método experimental incorreto cientificamente para determinação de concentrações de gases de períodos passados com a precisão adequada.
Os dados de Vostok comprovam que a temperatura do ar aumentou antes do aumento da concentração de CO2, como sugeriram Nicolas Caillon e colegas em sua publicação datada de 2003. Mais um argumento nesse sentido está expresso na Figura CM4. Nela, vêem-se os desvios da temperatura média global, obtidos com satélites (MSU), e desvios da concentração de CO2 em Mauna Loa (em preto) de 1978 até o presente, padronizados pelos desvios-padrão respectivos. Vê-se, claramente, que curva de tendência da temperatura (em vermelho) apresenta uma tendência negativa nos últimos 10 anos, enquanto a do CO2 continua a aumentar.
Certamente, isso não aconteceria se o CO2 fosse o principal responsável pelo aumento de temperatura do ar. Em adição, ao usar apenas a série de Mauna Loa, o IPCC deixa a impressão que cientistas não teriam se preocupado em medir a concentração de CO2 antes de 1957. Entretanto, o biólogo alemão Ernst Beck (2007) catalogou um conjunto de mais de 90 mil medições diretas de CO2 de 43 localidades do Hemisfério Norte, obtidas entre 1812 e 2004, por vários pesquisadores renomados, três dos quais ganhadores de Premio Nobel. Esse conjunto de dados mostra que as concentrações de CO2 excederam a de 380 ppmv várias vezes antes de 1957, particularmente durante períodos quentes, como entre 1920 e 1946. Isso contraria o Sumário do IPCC que afirmou que a concentração de 379 ppmv, registrada em 2005, tenha sido a maior dos últimos 650 mil anos!
Não há comprovação que o CO2 armazenado na atmosfera seja originário de emissões antrópicas. Afirma-se que o CO2 atmosférico tenha aumentado na taxa anual de 0,4%, correspondendo a um incremento de 3 bilhões de toneladas de carbono por ano (GtC/ano) armazenadas na atmosfera. De acordo com o Sumário do IPCC, as emissões por queima de combustíveis fósseis e florestas tropicais totalizariam 7 GtC/ano. Estima-se que os oceanos, por sua vez, absorvam 2GtC anuais. Portanto, o balanço (3 + 2 = 5 < 7) não fecha, e ainda faltaria encontrar o sumidouro das 2 GtC/ano restantes, fluxo esse que foi denominado “o carbono desaparecido” na literatura. A vegetação - florestas nativas, como a Amazônia, e plantadas - possivelmente seria a seqüestradora desse carbono (Molion, 1988). Por outro lado, sabe-se que a solubilidade do CO2 nos oceanos varia inversamente a sua temperatura. Ou seja, oceanos aquecidos absorvem menos CO2 que oceanos frios. Como a temperatura dos oceanos aumentou ao longo do Século XX, é possível que a concentração de CO2 atmosférico tenha aumentado devido à redução de absorção ou ao aumento de emissão pelos oceanos. A literatura cita que o fluxo para dentro dos oceanos foi estimado em 92 GtC/ano. Um erro de 10 % nessa estimativa corresponderia a uma fração três vezes maior que a que fica armazenada na atmosfera anualmente. Outro argumento, que se utiliza para comprovar que o aumento da concentração de CO2 é antropogênico, é a redução da razão 14C/12C. O carbono 14 é radiativo e apresenta uma meia-vida de 5730 anos. Não há mais 14C nos combustíveis fósseis, uma vez que esses foram produzidos há milhões de anos. Assim, sua queima liberaria mais 12C e, por esse motivo, a razão teria decrescido em 2% nos últimos 150 anos. Ocorre que o 14C é formado pela incidência de raios cósmicos galácticos (RCG) - partículas de alta energia provenientes do espaço sideral, cuja contagem é mais elevada durante períodos de baixa atividade solar - na atmosfera e, portanto, quando o Sol está mais ativo, como na primeira metade do Século XX, a entrada de raios cósmicos é reduzida, formando menos 14C. Essa deve ter sido a possível causa da redução de 2% da razão 14C/12C, se for admitido que ela possa ser medida com tal precisão atualmente. Em outras palavras, os argumentos acima não comprovam que o aumento da concentração do carbono atmosférico seja causado pelas atividades humanas, como queima de combustíveis fósseis, agropecuária e construção de grandes lagos de hidrelétricas. Texto original: http://mitos-climaticos.blogspot.com/2008/06/aquecimento-ou-histeria-global-3.html
4. LIMITAÇÕES DOS MODELOS DE CLIMA GLOBAL
Sabe-se que a absorção de radiação por um gás segue uma lei logarítmica. Ou seja, pequenos incrementos na concentração do gás, quando essa é baixa, produzem aumentos de absorção bem maiores que grandes incrementos quando sua concentração é alta. Do início da era industrial até o presente, a concentração de CO2 já aumentou em cerca de 35 %. Entretanto, segundo o IPCC, a temperatura média global aumentou cerca de 0,7 °C, enquanto modelos de clima global (MCG) produziram aumentos de 0,5 a 2,7 °C para o mesmo aumento de concentração de CO2, ou seja, modelos tendem a superestimar as temperaturas.
Os mesmos MCG projetaram incrementos superiores a 10°C (por exemplo, GISS/NASA, 2007) na região do Ártico para concentração de CO2 dobrada, ou seja, cerca de 560 ppmv com relação à de 150 anos atrás. Porém, a análise das séries de dados de temperatura média do ar, registrados para o setor Atlântico do Ártico a partir de 1880, mostrou um incremento superior a 3 °C entre 1886 -1938, quando a Humanidade emitia menos de 10 % do carbono que emite hoje, seguido de um decréscimo superior a 2 ºC até o final da década de 1960. Atualmente, a temperatura média do Ártico está cerca de 1 °C abaixo da temperatura média do final da década de 1930. Na Antártica, as temperaturas têm diminuído nos últimos 50 anos.
Ou seja, exatamente nas regiões, onde os modelos previram os maiores incrementos de temperatura, foi observado o oposto desde o período pós-guerra, a partir do qual o consumo global de combustíveis fósseis se acelerou e a concentração de CO2 passou a subir monotonicamente.
Modelos de clima global são programas de computador que utilizam equações ou expressões matemáticas para representar os processos físicos diretos e os de realimentação e/ou interação (“feedback”) entre os diversos componentes do sistema terra-oceano-atmosfera com a finalidade de simular ou avaliar a resposta do sistema climático sob um forçamento radiativo (aumento ou diminuição do fluxo de energia). Os processos de feedback são definidos como mecanismos físicos que amplificam (feedback positivo) ou reduzem (feedback negativo) a magnitude da resposta do sistema climático para um dado forçamento radiativo.
Que existem sérios problemas com as simulações dos MCGs não é segredo para a comunidade meteorológica. Os MCGs comumente têm dificuldade em reproduzir as características principais do clima atual, tais como temperatura média global, diferença de temperatura entre equador e pólo, a intensidade e posicionamento das altas subtropicais e das correntes de jato, se não for feito o que, eufemisticamente, é chamado de "sintonia" ou “ajustes”. Nos modelos de previsão de tempo e de clima, a informação (dados e resultados), está representada em pontos, ou nós, de uma grade, ou malha, tridimensional colocada sobre a superfície do globo, resultante do cruzamento de linhas de latitude x longitude x altura.
A distância entre os pontos da grade determina a resolução espacial dos processos físicos que podem ser resolvidos pelo modelo. A resolução espacial horizontal dos modelos globais era de 250 km a 400 km até recentemente e todos os processos físicos, que se desenvolvem em escalas espaciais muito inferiores a essas, precisam ser resolvidos de uma forma particular, precisam ser “parametrizados” como, por exemplo, processos de formação, desenvolvimento, cobertura de nuvens e precipitação, que são fundamentais para o balanço radiativo do planeta. A parametrização é, em geral, feita com algoritmos físico-estatísticos que dependem da intuição física do modelador e, portanto, podem não representar a realidade física e serem questionáveis.
Nesse aspecto, um dos problemas cruciais são nuvens - seus tipos, formas, constituição e distribuição, tanto em altura como no plano horizontal, e propriedades ópticas - e aerossóis são processos físicos mal-simulados nos modelos. Em princípio, a temperatura global tende a aumentar principalmente com a presença de nuvens estratiformes (forma de “camadas horizontais”) na alta troposfera. Essas nuvens altas (tipo “cirro”) são mais tênues, constituídas por cristais de gelo em sua maior parte, e tendem a aquecer o planeta, pois permitem a passagem de ROC, mas absorvem fortemente ROL que escaparia para o espaço exterior, ou seja, nuvens cirros intensificam o efeito-estufa (feedback positivo).
Por outro lado, nuvens baixas (tipo “estrato”), mais espessas, tendem a esfriá-lo, pois aumentam o albedo planetário (feedback negativo). Por exemplo, o modelo do Serviço Meteorológico Inglês inicialmente previu um aumento superior a 5 ºC para o dobro de CO2. Porém, John Mitchell e colaboradores relataram em 1989 que, apenas mudando as propriedades ópticas das nuvens estratiformes, reduziram o aquecimento para menos de 2 ºC, ou seja, uma redução de 60 %! Em geral, os modelos têm tendência a produzir mais nuvens cirros nas regiões tropicais, resultantes de umidade transportada pelas correntes de ar ascendentes associadas a nuvens de tempestades (cumulonimbos) e amplificar o aquecimento para um dado forçamento radiativo, gerando um feedback positivo.
Entretanto, Spencer et al (2007), usando dados de satélites, mostraram que a cobertura de nuvens cirros diminui durante o pico da estação chuvosa em regiões tropicais e, como conseqüência, existe maior perda de ROL para o espaço exterior, resfriando o sistema oceano-atmosfera . Ou seja, um feedback negativo importante que, aparentemente, não foi incorporado nos MCGs! Em adição, na Figura SPM2 do Sumário do IPCC (indicado no Cap. 7 - Referências Bibliográficas), vê-se que a incerteza do efeito das nuvens no clima (forçamento radiativo negativo de -1,8 Wm-2), considerado de nível de entendimento baixo pelo IPCC, é igual, porém, de sinal contrário ao do CO2 (+1,66 Wm-2), dito ter nível de entendimento alto. Em linguagem mais simples, segundo o próprio IPCC, o aumento de aerossóis e da cobertura de nuvens baixas, por refletirem mais radiação solar de volta para o espaço exterior, pode cancelar o aumento do efeito-estufa pelo CO2!
Associado a esse, outro problema sério de modelagem é a simulação do ciclo hidrológico e seu papel como termostato do sistema climático. Na natureza, a superfície e o ar adjacente tendem a serem resfriados por evaporação da água da chuva e da umidade do solo, pois esse é um processo físico que consome grandes quantidades de calor.
Se não existisse convecção (formação de nuvens profundas, tipo cumulonimbo) e o resfriamento dependesse apenas da perda de ROL, o efeito-estufa, sensivelmente intenso nos níveis próximos ao solo, faria com que a temperatura de superfície alcançasse valores superiores a 70 ºC! As nuvens cumulonimbos - convecção profunda que os modelos não simulam adequadamente - bombeiam calor latente para fora da camada limite planetária – camada mais próxima da superfície terrestre com cerca de 1000 m de espessura - como se fossem verdadeiras chaminés, e o liberam nos níveis médios e altos da troposfera em que o efeito-estufa é fraco e, de lá, esse calor é irradiado para o espaço exterior. Dessa forma, a convecção profunda "curto-circuita" o efeito-estufa, não permitindo que a temperatura da superfície do planeta atinja valores elevados.
O transporte de calor sensível pelas correntes oceânicas para regiões fora dos trópicos também é mais um processo físico parametrizado, e mal resolvido, nos modelos. O calor transportado para o Ártico, por exemplo, aumenta as temperaturas da superfície do Mar da Noruega e, como o efeito-estufa é fraco nessas regiões, devido à baixa concentração de vapor d’água, a emissão de ROL para o espaço aumenta, e o sistema terra-atmosfera-oceano, como um todo, perde mais energia para o espaço exterior. Em 2006, utilizando dados de Reanálises (NCEP), Molion mostrou que, atualmente, a Escandinávia está perdendo 20 Wm-2 a mais, em média, do que perdia há 50 anos.
A discussão acima não esgota, de maneira alguma, os problemas de modelagem dos processos físicos e as possíveis fontes de erros dos MCGs atuais. Não há dúvida que o desenvolvimento de modelos seja crítico para se adquirir habilidade futura de entender melhor ou mesmo prever o clima, mas há que se admitir que modelos atuais sejam representação ainda simples, grosseira, da complexa interação entre os processos físicos diretos e os de feedback, que controlam o clima do globo.
Modelos carecem de validação de seus resultados! Portanto, as “previsões” feitas por eles, para os próximos 100 anos, podem estar superestimadas e a hipótese do efeito-estufa intensificado, aceita pela maioria segundo se afirma, pode não ter fundamento sólido, já que os resultados de modelos são um dos argumentos básicos utilizados em defesa do aquecimento global antropogênico!
Texto original: http://mitos-climaticos.blogspot.com/2008/06/aquecimento-ou-histeria-global-4.html
Instituto de Ciências Atmosféricas, Universidade Federal de Alagoas
Cidade Universitária - 57.072-970 Maceió, Alagoas - BRASIL
email: molion@radar.ufal.br
1. INTRODUÇÃO
Existem evidências que o clima, entre cerca de 800 a 1200 DC, era mais quente do que o de hoje. Naquela época, os Nórdicos (Vikings) colonizaram as regiões do Norte do Canadá e uma ilha que foi chamada de Groelândia (Terra Verde) e que hoje é coberta de gelo (!?). Entre 1350 e 1850, o clima se resfriou, chegando a temperaturas de até cerca de 2 °C inferiores às de hoje, particularmente na Europa Ocidental. Esse período foi descrito na Literatura como “Pequena Era Glacial”. Após 1850, o clima começou a se aquecer lentamente e as temperaturas se elevaram. Portanto, não há dúvidas que ocorreu um aquecimento global nos últimos 150 anos. A questão que se coloca é se o aquecimento observado é natural ou antropogênico?
A fonte primária de energia para o Planeta Terra é o Sol, que emite radiação eletromagnética (energia), denominada radiação de ondas curtas (ROC). O albedo planetário - percentual de ROC incidente no Planeta que é refletida de volta para o espaço exterior, atualmente cerca de 30 % – é resultante da variação da cobertura e do tipo de nuvens, da concentração de aerossóis e partículas em suspensão no ar, e das características da cobertura superfície tais como gelo/neve (90 % de reflexão), florestas (12 %) e oceanos/lagos (10 %). Portanto, o albedo planetário controla o fluxo de ROC que entra no sistema terra-atmosfera-oceanos: menor albedo, maior entrada de ROC e concomitante aquecimento do sistema terra-atmosfera, e vice-versa.
O restante do fluxo de ROC passa através da atmosfera terrestre e boa parte dele é absorvida pela superfície, que se aquece e emite radiação numa faixa espectral denominada radiação de ondas longas (ROL). O fluxo de ROL, emitida pela superfície, é absorvido por gases, pequenos constituintes, como o vapor d'água (H2O), o gás carbônico (CO2), o metano (CH4), o ozônio (O3), o óxido nitroso (N2O) e compostos de clorofluorcarbono (CFC), vulgarmente conhecidos por freons. Esses, por sua vez, emitem ROL em todas as direções, inclusive em direção à superfície e ao espaço exterior. A absorção/emissão desses gases pelas várias camadas atmosféricas reduz a perda de ROL, emitida pela superfície, que escaparia para o espaço exterior, e constitui o chamado efeito-estufa.
O vapor d'água é o gás principal de efeito-estufa (GEE) e sua concentração é extremamente variável no espaço e tempo. Por exemplo, sobre a Floresta Amazônica existe 5 vezes mais vapor d’água que sobre o Deserto do Saara e sobre a Amazônia, ainda, sua concentração varia de 30 % entre a estação seca e a chuvosa. Em regiões polares, e em regiões tropicais a uma altura acima de 4 km, existe muito pouco vapor d’água e o efeito-estufa é fraco. O gás carbonico (CO2) é o segundo GEE em importância, com concentração até 100 vezes inferior à do vapor d'água.
É o gás que tem causado grande polêmica, pois sua concentração, embora baixa, aumentou de 315 ppmv (1ppmv = 1 parte por milhão por volume, ou seja, 1 mililitro de gás por metro cúbico de ar) em 1958 para 379 ppmv em 2005, crescendo à taxa média de 0,4 % ao ano. Esse crescimento está sendo atribuído às emissões decorrentes das atividades humanas, como a queima de combustíveis fósseis e florestas tropicais. O metano (CH4), com concentrações muito pequenas, na ordem de 1,7 ppmv, também vinha mostrando um significativo aumento de 1,0 % ao ano, atribuído às atividades agropecuárias.
Mas, a partir de 1998, a taxa de crescimento anual de sua concentração passou a diminuir, ou se estabilizou, inexplicavelmente, embora as fontes antrópicas continuem aumentando. Os gases restantes apresentam concentrações ainda menores que as citadas, porém parecem estar aumentando também. O efeito-estufa faz com que a temperatura média global do ar, próximo à superfície da Terra, seja cerca de 15 °C. Caso ele não existisse, a temperatura da superfície seria 18 °C abaixo de zero, ou seja, o efeito-estufa é responsável por um aumento de 33 °C na temperatura da superfície do planeta! Logo, ele é benéfico para o planeta, pois gera condições que permitem a existência da vida como se a conhece.
Em resumo, a estabilidade do clima da Terra resulta do balanço entre o fluxo de ROC absorvido pelo planeta e o fluxo de ROL emitido para o espaço (ROC = ROL). O aquecimento do clima global ocorreria, por exemplo, ou pela redução de albedo planetário, que aumentaria ROC absorvida, ou pela intensificação do efeito-estufa, que reduziria a perda de ROL para o espaço exterior. A hipótese do efeito-estufa intensificado é, portanto, fisicamente simples: mantidos a produção de energia solar e o albedo planetário constantes (?), quanto maior forem as concentrações dos GEE, menor seria a fração de radiação de ondas longas, emitida pela superfície, que escaparia para o espaço (redução do fluxo de ROL) e, conseqüentemente, mais alta a temperatura do planeta.
É dito que a concentração de CO2 passou de 280 ppmv, na era pré-industrial para os atuais 380 ppmv, um aparente aumento de 35% da concentração desse gás nos últimos 150 anos. Utilizando tais concentrações nas simulações feitas por modelos de clima global (MCG), o incremento na temperatura média global resultante já seria de 0,5 °C e 2,7 °C, conforme o modelo utilizado. Entretanto, de acordo com o Sumário para Formuladores de Políticas, extraído do Relatório da Quarta Avaliação do Painel Intergovernamental de Mudanças Climáticas (SPM/AR4/IPCC, 2007), o aumento “observado” está entre 0,4 e 0,7 ºC. Ou seja, o aumento observado está situado no limite inferior dos resultados produzidos pelos atuais MCG utilizados para testar a hipótese da intensificação do efeito-estufa, evidenciando que esses tendam a superestimar a temperatura.
Porém, se a concentração de CO2 dobrar nos próximo 100 anos, de acordo com os mesmos MCG, poderá haver um aumento da temperatura média global entre 2 °C e 4,5 ºC, não inferior a 1,5 °C, conforme afirmado no SPM/AR4/IPCC. Os efeitos desse aumento de temperatura seriam catastróficos! Segundo a mesma fonte, uma das conseqüências seria a expansão volumétrica da água dos oceanos que, associada ao degelo parcial das geleiras e calotas polares, notadamente o Antártico, aumentaria os níveis dos mares entre vinte e sessenta centímetros.
Esse fato, dentre outros impactos sociais, forçaria a relocação dos 60 % da Humanidade que vivem em regiões costeiras. Aumento na freqüência de tempestades severas e na intensidade de furacões seria outra conseqüência. Em seguida, foram discutidos o estado atual do conhecimento sobre o assunto e algumas das limitações dos modelos de simulação do clima.
Texto original: http://mitos-climaticos.blogspot.com/2008/06/aquecimento-ou-histeria-global-1.html
2. AUMENTO DA TEMPERATURA GLOBAL
Na Figura CM1, mostrou-se que desvios de temperatura do ar para o globo terrestre, com relação à média do período 1961-1990, aumentaram cerca de 0,7 °C desde o ano de 1850. Vê-se que, até aproximadamente 1920, houve apenas variabilidade interanual em princípio, não tendo ocorrido aumento expressivo de temperatura nesse período extenso, embora haja relatos de ondas de calor como, por exemplo, a de 1896 nos Estados Unidos, que deixou mais de 3 mil mortos somente em Nova Iorque. Porém, entre 1920 e 1946, o aumento global foi cerca de 0,4 °C. No Ártico, em particular, em que há medições desde os anos 1880, o aumento foi cerca de 10 vezes maior nesse período.
Na seqüência, entre 1947 e 1976, houve um resfriamento global de cerca de 0,2 °C (reta inclinada), não explicado pelo IPCC e, a partir de 1977, a temperatura média global aumentou cerca de 0,4 °C . O próprio IPCC concorda que o primeiro período de aquecimento, entre 1920 e 1946, pode ter tido causas naturais, possivelmente o aumento da produção de energia solar e a redução de albedo planetário, discutidas mais abaixo. Antes do término da Segunda Guerra Mundial, as emissões decorrentes das ações antrópicas eram cerca de 6 % das atuais e, portanto, torna-se difícil argumentar que os aumentos de temperatura, naquela época, tenham sido causados pela intensificação do efeito-estufa pelas emissões antrópicas de carbono.
A polêmica que essa série de anomalias tem causado reside no fato de o segundo aquecimento, a partir de 1977, não ter sido verificado, aparentemente, em todas as partes do globo. A série de temperatura média para os Estados Unidos, por exemplo, não mostrou esse segundo aquecimento, sendo a década dos anos 1930 mais quente que a dos anos 1990. Na Figura CM2, mostraram-se os desvios da temperatura média global, obtida com dados dos instrumentos MSU (Microwave Scanning Unit) a bordo de satélites a partir de 1979. Note-se o pico de temperatura em 1998, cerca de 0,8 °C, associado ao evento El Niño considerado o mais forte do século passado, e que, desde 1998, as anomalias de temperaturas tem sido inferiores.
É sabido que eventos El Niños tendem aquecer o planeta. Segundo John Christy e Roy Spencer, da Universidade do Alabama, em Hunstsville (UAH), os dados do MSU indicaram um pequeno aquecimento global de 0,076 °C por década, enquanto os termômetros de superfície mostraram um aquecimento de 0,16 °C por década, ou seja, duas vezes maior no mesmo período. Para o Hemisfério Sul, satélites mostraram um aquecimento menor, de 0,052 °C por década. Em princípio, satélites são mais apropriados para medir temperatura global, pois fazem médias sobre grandes áreas, incluídos os oceanos, enquanto as estações climatométricas de superfície registram variações de seu micro ambiente, representando as condições atmosféricas num raio de cerca de 150 metros em seu entorno.
As estações climatométricas apresentam outro grande problema, além da não-padronização e mudança de instrumentação ao longo dos 150 anos passados. As séries mais longas disponíveis são de estações localizadas em cidades do “Velho Mundo” que se desenvolveram muito, particularmente depois da Segunda Guerra Mundial. Em média, a energia disponível do Sol (calor) é utilizada para evapotranspiração (evaporação dos solos e superfícies de água + transpiração das plantas) e para o aquecimento do ar durante o dia. Sobre superfícies vegetadas, a maior parte do calor é usada para a evapotranspiração, que resfria a superfície, e o restante para aquecer o ar.
Com a mudança da cobertura superficial, de campos com vegetação para asfalto e concreto, a evapotranspiração é reduzida e sobra mais calor para aquecer o ar próximo da superfície, aumentando sua temperatura. Adicione-se, ainda, o calor liberado pelos veículos e pelos edifícios aquecidos, particularmente em regiões fora dos trópicos no inverno. Esse é o chamado efeito de ilha de calor, que faz as temperaturas do ar serem, em média, 3 °C a 5 °C maiores nos grandes centros urbanos quando comparadas às de suas redondezas. Analisando os dados de Beijing e Wuhan, China, Ren et al (2007) [as referências bibliográficas são apresentadas no final, Capítulo 7], por exemplo, encontraram aumentos anuais e sazonais nas temperaturas urbanas entre 65-80 % e 40-61 %, respectivamente, com relação às estações rurais de suas vizinhanças.
Na Figura CM1, os dados foram “ajustados” para compensar o efeito da urbanização nas séries de temperatura, porém utilizaram métodos, ou algoritmos matemáticos, de correção que não necessariamente sejam apropriados ou representem a realidade, já que esse procedimento é subjetivo e, portanto, questionável. Em outras palavras, é impossível retirar o efeito de ilha de calor das séries de temperaturas urbanas. Uma das possibilidades, pois, é que o aquecimento a partir de 1977, que aparece nitidamente na Figura CM1, seja, em parte, resultante da urbanização em torno das estações climatométricas, ou seja, uma contribuição local, e não global, ao aquecimento.
Outro aspecto a ser considerado é o número de estações climatométricas. No início da série representada na Figura CM1, o número de estações era cerca de 200, praticamente todas no Hemisfério Norte. Na década de 1960, esse número superou a marca de 14 mil e, recentemente, menos de 2 mil estações são utilizadas para elaborar a “média global” da temperatura. A maior parte das estações desativadas estavam em regiões de difícil acesso, como zonas rurais e em regiões frias, como a Sibéria, por exemplo, que não estão sujeitas ao efeito de ilha de calor. Finalmente, um aspecto muito importante é que as séries de 150 anos são curtas para capturar a variabilidade de prazo mais longo do clima.
O período do final do Século XIX até as primeiras duas décadas do Século XX foi o final da “Pequena Era Glacial”, um período frio, bem documentado, que perdurou por cinco séculos. E esse período coincide com a época em que os termômetros começaram a ser instalados mundialmente. Portanto, o início das séries instrumentais de 150 anos, utilizada no Relatório do IPCC, ocorreu num período relativamente mais frio que o atual e leva, aparentemente, à conclusão errônea que as temperaturas atuais sejam muito altas ou “anormais” para o planeta.
Concluiu-se que existem problemas de representatividade, tanto espacial como temporal, das séries de temperatura observadas na superfície da Terra, o que torna extremamente difícil seu tratamento e sua amalgamação em uma única série. E que estações climatométricas de superfície, portanto, são inadequadas para determinar a temperatura média global da atmosfera terrestre, se é que se pode falar, cientificamente, numa “temperatura média global”.
Texto original: http://mitos-climaticos.blogspot.com/2008/06/aquecimento-ou-histeria-global-2.html
3. INTENSIFICAÇÃO DO EFEITO-ESTUFA
No Sumário para Formuladores de Políticas do IPCC, afirma-se que o gás carbônico é o principal gás antropogênico e que sua concentração de 379 ppmv, em 2005, foi a maior ocorrida nos últimos 650 mil anos, período em que ficou limitada entre 180 e 300 ppmv. O aumento de sua concentração nos últimos 150 anos foi atribuído às emissões por queima de combustíveis fósseis e mudanças do uso da terra. Para Monte Hieb e Harrison Hieb, entretanto, mais de 97 % das emissões de gás carbônico são naturais, provenientes dos oceanos, vegetação e solos, cabendo ao Homem menos de 3%, total que seria responsável por uma minúscula fração do efeito-estufa atual, algo em torno de 0,12 %.
Na realidade, o CO2 não é “antropogênico” e nem o vilão causador da intensificação do efeito-estufa. É um gás natural e, graças a ele, plantas fazem fotossíntese, produzindo açucares, amidos e fibras que mantêm vivos outros seres heterotróficos. Ou seja, o CO2 é um dos gases responsáveis pela vida na Terra! Em seu Relatório, o IPCC utilizou as concentrações medidas em Mauna Loa, Havaí, cuja série foi iniciada por Charles D. Keeling no Ano Geofísico Internacional (1957-58). Essa série foi estendida para os últimos 420 mil anos, utilizando-se as estimativas de concentração de CO2 obtidas das análises da composição química das bolhas de ar aprisionadas nos cilindros de gelo (“ice cores”), que foram retirados da capa de gelo na Estação de Vostok, Antártica, por perfuração profunda (até cerca de 3600 m).
A Figura CM3, extraída do artigo de Jean Robert Petit e colaboradores, publicado em 1999, mostra a evolução temporal da temperatura e da concentração de CO2, obtidas com os cilindros de gelo de Vostok, e foi extensivamente explorada no Documentário “Uma Verdade Inconveniente”, protagonizado por Al Gore. A curva superior é a concentração de CO2, que variou entre 180 e 300 ppmv (escala à esquerda), e, a inferior, é a dos desvios de temperatura do ar, entre – 8 e + 6 °C (escala à direita). Uma análise cuidadosa dessa Figura mostra, claramente, que a curva de temperatura apresentou 4 picos, superiores à linha de zero (tracejada), que representam os interglaciais passados – períodos mais quentes, com duração de 10 mil a 12 mil anos que separam as eras glaciais que, por sua vez, duram cerca de 100 mil anos cada uma – a cerca de 130 mil, 240 mil, 320 mil e 410 mil anos antes do presente.
Portanto, as temperaturas dos interglaciais passados parecem ter sido superiores às do presente interglacial, enquanto as concentrações de CO2 correspondentes foram inferiores a 300 ppmv. Lembrando que a concentração atual atingiu cerca de 380 ppmv, poder-se-ia concluir que as concentrações de CO2 parecem não terem sido responsáveis pelas temperaturas altas dos interglaciais passados. Entretanto, segundo o glaciologista Zbigniew Jaworowski, nunca foi demonstrado que a metodologia dos cilindros de gelo tenha produzido resultados confiáveis e que ela sempre tendeu a produzir concentrações de CO2 30 % a 50 % abaixo das reais por vários motivos.
Um deles é que a hipótese de que a composição química e isotópica original do ar na bolha aprisionada permaneça inalterada por milhares de anos não é verdadeira, pois ocorrem tanto reações químicas como difusão de ar nas bolhas por estarem submetidas a pressões que chegam a ser, nas camadas mais profundas, mais de 300 vezes superiores às da atmosfera. Some-se a isso o fato de o ar da bolha ser cerca de 1000 anos mais novo que o gelo que o aprisionou, conforme afirmaram Nicolas Caillon e colegas em 2003. Isso porque o aprisionamento da bolha de ar pelo gelo não é instantâneo, já que o processo de precipitação/derretimento da neve passa por vários ciclos (verões/invernos) e é necessário um acúmulo de 80 metros de altura para a coluna de neve, em sua base, sofrer uma pressão que a faça se transformar em “neve granulada” (em Inglês, “ firn ”), que aprisiona a bolha de ar finalmente.
Concentrações obtidas com os cilindros de gelo, portanto, não podem ser comparadas com as medidas atualmente feitas por instrumentos, já que, na melhor das hipóteses, as bolhas de ar nos cilindros de gelo teriam uma representação temporal de 1000 anos, ou seja, um dado representa um intervalo de 1000 anos. Dessa análise, conclui-se que, ou existiram outras causas físicas, que não a intensificação do efeito-estufa pelo CO2, que tenham sido responsáveis pelo aumento de temperatura verificado nesses interglaciais passados, ou as concentrações de CO2 das bolhas no gelo tendam, sistematicamente, a serem subestimadas e, de fato, não representam a realidade da época em que foram aprisionadas. Nesse aspecto, embora a técnica de análise das bolhas de ar nos cilindros de gelo tenha sido uma idéia brilhante, ela não produz resultados confiáveis e, portanto, parece ser um método experimental incorreto cientificamente para determinação de concentrações de gases de períodos passados com a precisão adequada.
Os dados de Vostok comprovam que a temperatura do ar aumentou antes do aumento da concentração de CO2, como sugeriram Nicolas Caillon e colegas em sua publicação datada de 2003. Mais um argumento nesse sentido está expresso na Figura CM4. Nela, vêem-se os desvios da temperatura média global, obtidos com satélites (MSU), e desvios da concentração de CO2 em Mauna Loa (em preto) de 1978 até o presente, padronizados pelos desvios-padrão respectivos. Vê-se, claramente, que curva de tendência da temperatura (em vermelho) apresenta uma tendência negativa nos últimos 10 anos, enquanto a do CO2 continua a aumentar.
Certamente, isso não aconteceria se o CO2 fosse o principal responsável pelo aumento de temperatura do ar. Em adição, ao usar apenas a série de Mauna Loa, o IPCC deixa a impressão que cientistas não teriam se preocupado em medir a concentração de CO2 antes de 1957. Entretanto, o biólogo alemão Ernst Beck (2007) catalogou um conjunto de mais de 90 mil medições diretas de CO2 de 43 localidades do Hemisfério Norte, obtidas entre 1812 e 2004, por vários pesquisadores renomados, três dos quais ganhadores de Premio Nobel. Esse conjunto de dados mostra que as concentrações de CO2 excederam a de 380 ppmv várias vezes antes de 1957, particularmente durante períodos quentes, como entre 1920 e 1946. Isso contraria o Sumário do IPCC que afirmou que a concentração de 379 ppmv, registrada em 2005, tenha sido a maior dos últimos 650 mil anos!
Não há comprovação que o CO2 armazenado na atmosfera seja originário de emissões antrópicas. Afirma-se que o CO2 atmosférico tenha aumentado na taxa anual de 0,4%, correspondendo a um incremento de 3 bilhões de toneladas de carbono por ano (GtC/ano) armazenadas na atmosfera. De acordo com o Sumário do IPCC, as emissões por queima de combustíveis fósseis e florestas tropicais totalizariam 7 GtC/ano. Estima-se que os oceanos, por sua vez, absorvam 2GtC anuais. Portanto, o balanço (3 + 2 = 5 < 7) não fecha, e ainda faltaria encontrar o sumidouro das 2 GtC/ano restantes, fluxo esse que foi denominado “o carbono desaparecido” na literatura. A vegetação - florestas nativas, como a Amazônia, e plantadas - possivelmente seria a seqüestradora desse carbono (Molion, 1988). Por outro lado, sabe-se que a solubilidade do CO2 nos oceanos varia inversamente a sua temperatura. Ou seja, oceanos aquecidos absorvem menos CO2 que oceanos frios. Como a temperatura dos oceanos aumentou ao longo do Século XX, é possível que a concentração de CO2 atmosférico tenha aumentado devido à redução de absorção ou ao aumento de emissão pelos oceanos. A literatura cita que o fluxo para dentro dos oceanos foi estimado em 92 GtC/ano. Um erro de 10 % nessa estimativa corresponderia a uma fração três vezes maior que a que fica armazenada na atmosfera anualmente. Outro argumento, que se utiliza para comprovar que o aumento da concentração de CO2 é antropogênico, é a redução da razão 14C/12C. O carbono 14 é radiativo e apresenta uma meia-vida de 5730 anos. Não há mais 14C nos combustíveis fósseis, uma vez que esses foram produzidos há milhões de anos. Assim, sua queima liberaria mais 12C e, por esse motivo, a razão teria decrescido em 2% nos últimos 150 anos. Ocorre que o 14C é formado pela incidência de raios cósmicos galácticos (RCG) - partículas de alta energia provenientes do espaço sideral, cuja contagem é mais elevada durante períodos de baixa atividade solar - na atmosfera e, portanto, quando o Sol está mais ativo, como na primeira metade do Século XX, a entrada de raios cósmicos é reduzida, formando menos 14C. Essa deve ter sido a possível causa da redução de 2% da razão 14C/12C, se for admitido que ela possa ser medida com tal precisão atualmente. Em outras palavras, os argumentos acima não comprovam que o aumento da concentração do carbono atmosférico seja causado pelas atividades humanas, como queima de combustíveis fósseis, agropecuária e construção de grandes lagos de hidrelétricas. Texto original: http://mitos-climaticos.blogspot.com/2008/06/aquecimento-ou-histeria-global-3.html
4. LIMITAÇÕES DOS MODELOS DE CLIMA GLOBAL
Sabe-se que a absorção de radiação por um gás segue uma lei logarítmica. Ou seja, pequenos incrementos na concentração do gás, quando essa é baixa, produzem aumentos de absorção bem maiores que grandes incrementos quando sua concentração é alta. Do início da era industrial até o presente, a concentração de CO2 já aumentou em cerca de 35 %. Entretanto, segundo o IPCC, a temperatura média global aumentou cerca de 0,7 °C, enquanto modelos de clima global (MCG) produziram aumentos de 0,5 a 2,7 °C para o mesmo aumento de concentração de CO2, ou seja, modelos tendem a superestimar as temperaturas.
Os mesmos MCG projetaram incrementos superiores a 10°C (por exemplo, GISS/NASA, 2007) na região do Ártico para concentração de CO2 dobrada, ou seja, cerca de 560 ppmv com relação à de 150 anos atrás. Porém, a análise das séries de dados de temperatura média do ar, registrados para o setor Atlântico do Ártico a partir de 1880, mostrou um incremento superior a 3 °C entre 1886 -1938, quando a Humanidade emitia menos de 10 % do carbono que emite hoje, seguido de um decréscimo superior a 2 ºC até o final da década de 1960. Atualmente, a temperatura média do Ártico está cerca de 1 °C abaixo da temperatura média do final da década de 1930. Na Antártica, as temperaturas têm diminuído nos últimos 50 anos.
Ou seja, exatamente nas regiões, onde os modelos previram os maiores incrementos de temperatura, foi observado o oposto desde o período pós-guerra, a partir do qual o consumo global de combustíveis fósseis se acelerou e a concentração de CO2 passou a subir monotonicamente.
Modelos de clima global são programas de computador que utilizam equações ou expressões matemáticas para representar os processos físicos diretos e os de realimentação e/ou interação (“feedback”) entre os diversos componentes do sistema terra-oceano-atmosfera com a finalidade de simular ou avaliar a resposta do sistema climático sob um forçamento radiativo (aumento ou diminuição do fluxo de energia). Os processos de feedback são definidos como mecanismos físicos que amplificam (feedback positivo) ou reduzem (feedback negativo) a magnitude da resposta do sistema climático para um dado forçamento radiativo.
Que existem sérios problemas com as simulações dos MCGs não é segredo para a comunidade meteorológica. Os MCGs comumente têm dificuldade em reproduzir as características principais do clima atual, tais como temperatura média global, diferença de temperatura entre equador e pólo, a intensidade e posicionamento das altas subtropicais e das correntes de jato, se não for feito o que, eufemisticamente, é chamado de "sintonia" ou “ajustes”. Nos modelos de previsão de tempo e de clima, a informação (dados e resultados), está representada em pontos, ou nós, de uma grade, ou malha, tridimensional colocada sobre a superfície do globo, resultante do cruzamento de linhas de latitude x longitude x altura.
A distância entre os pontos da grade determina a resolução espacial dos processos físicos que podem ser resolvidos pelo modelo. A resolução espacial horizontal dos modelos globais era de 250 km a 400 km até recentemente e todos os processos físicos, que se desenvolvem em escalas espaciais muito inferiores a essas, precisam ser resolvidos de uma forma particular, precisam ser “parametrizados” como, por exemplo, processos de formação, desenvolvimento, cobertura de nuvens e precipitação, que são fundamentais para o balanço radiativo do planeta. A parametrização é, em geral, feita com algoritmos físico-estatísticos que dependem da intuição física do modelador e, portanto, podem não representar a realidade física e serem questionáveis.
Nesse aspecto, um dos problemas cruciais são nuvens - seus tipos, formas, constituição e distribuição, tanto em altura como no plano horizontal, e propriedades ópticas - e aerossóis são processos físicos mal-simulados nos modelos. Em princípio, a temperatura global tende a aumentar principalmente com a presença de nuvens estratiformes (forma de “camadas horizontais”) na alta troposfera. Essas nuvens altas (tipo “cirro”) são mais tênues, constituídas por cristais de gelo em sua maior parte, e tendem a aquecer o planeta, pois permitem a passagem de ROC, mas absorvem fortemente ROL que escaparia para o espaço exterior, ou seja, nuvens cirros intensificam o efeito-estufa (feedback positivo).
Por outro lado, nuvens baixas (tipo “estrato”), mais espessas, tendem a esfriá-lo, pois aumentam o albedo planetário (feedback negativo). Por exemplo, o modelo do Serviço Meteorológico Inglês inicialmente previu um aumento superior a 5 ºC para o dobro de CO2. Porém, John Mitchell e colaboradores relataram em 1989 que, apenas mudando as propriedades ópticas das nuvens estratiformes, reduziram o aquecimento para menos de 2 ºC, ou seja, uma redução de 60 %! Em geral, os modelos têm tendência a produzir mais nuvens cirros nas regiões tropicais, resultantes de umidade transportada pelas correntes de ar ascendentes associadas a nuvens de tempestades (cumulonimbos) e amplificar o aquecimento para um dado forçamento radiativo, gerando um feedback positivo.
Entretanto, Spencer et al (2007), usando dados de satélites, mostraram que a cobertura de nuvens cirros diminui durante o pico da estação chuvosa em regiões tropicais e, como conseqüência, existe maior perda de ROL para o espaço exterior, resfriando o sistema oceano-atmosfera . Ou seja, um feedback negativo importante que, aparentemente, não foi incorporado nos MCGs! Em adição, na Figura SPM2 do Sumário do IPCC (indicado no Cap. 7 - Referências Bibliográficas), vê-se que a incerteza do efeito das nuvens no clima (forçamento radiativo negativo de -1,8 Wm-2), considerado de nível de entendimento baixo pelo IPCC, é igual, porém, de sinal contrário ao do CO2 (+1,66 Wm-2), dito ter nível de entendimento alto. Em linguagem mais simples, segundo o próprio IPCC, o aumento de aerossóis e da cobertura de nuvens baixas, por refletirem mais radiação solar de volta para o espaço exterior, pode cancelar o aumento do efeito-estufa pelo CO2!
Associado a esse, outro problema sério de modelagem é a simulação do ciclo hidrológico e seu papel como termostato do sistema climático. Na natureza, a superfície e o ar adjacente tendem a serem resfriados por evaporação da água da chuva e da umidade do solo, pois esse é um processo físico que consome grandes quantidades de calor.
Se não existisse convecção (formação de nuvens profundas, tipo cumulonimbo) e o resfriamento dependesse apenas da perda de ROL, o efeito-estufa, sensivelmente intenso nos níveis próximos ao solo, faria com que a temperatura de superfície alcançasse valores superiores a 70 ºC! As nuvens cumulonimbos - convecção profunda que os modelos não simulam adequadamente - bombeiam calor latente para fora da camada limite planetária – camada mais próxima da superfície terrestre com cerca de 1000 m de espessura - como se fossem verdadeiras chaminés, e o liberam nos níveis médios e altos da troposfera em que o efeito-estufa é fraco e, de lá, esse calor é irradiado para o espaço exterior. Dessa forma, a convecção profunda "curto-circuita" o efeito-estufa, não permitindo que a temperatura da superfície do planeta atinja valores elevados.
O transporte de calor sensível pelas correntes oceânicas para regiões fora dos trópicos também é mais um processo físico parametrizado, e mal resolvido, nos modelos. O calor transportado para o Ártico, por exemplo, aumenta as temperaturas da superfície do Mar da Noruega e, como o efeito-estufa é fraco nessas regiões, devido à baixa concentração de vapor d’água, a emissão de ROL para o espaço aumenta, e o sistema terra-atmosfera-oceano, como um todo, perde mais energia para o espaço exterior. Em 2006, utilizando dados de Reanálises (NCEP), Molion mostrou que, atualmente, a Escandinávia está perdendo 20 Wm-2 a mais, em média, do que perdia há 50 anos.
A discussão acima não esgota, de maneira alguma, os problemas de modelagem dos processos físicos e as possíveis fontes de erros dos MCGs atuais. Não há dúvida que o desenvolvimento de modelos seja crítico para se adquirir habilidade futura de entender melhor ou mesmo prever o clima, mas há que se admitir que modelos atuais sejam representação ainda simples, grosseira, da complexa interação entre os processos físicos diretos e os de feedback, que controlam o clima do globo.
Modelos carecem de validação de seus resultados! Portanto, as “previsões” feitas por eles, para os próximos 100 anos, podem estar superestimadas e a hipótese do efeito-estufa intensificado, aceita pela maioria segundo se afirma, pode não ter fundamento sólido, já que os resultados de modelos são um dos argumentos básicos utilizados em defesa do aquecimento global antropogênico!
Texto original: http://mitos-climaticos.blogspot.com/2008/06/aquecimento-ou-histeria-global-4.html
Comentários
Postar um comentário
Faça Seu Comentário não é Necessário Fazer Login!
Achou uma matéria mais completa?
Discorda ou Concorda com a Postagem?
Tem alguma ideia sobre o Assunto para Compartilhar?