quinta-feira, 29 de março de 2007

Brasil Prepara Plano para Mudanças Climáticas

O governo federal prepara um plano nacional para combater as mudanças climáticas decorrentes do aquecimento global, informou ontem o secretário de Biodiversidade e Florestas do Ministério do Meio Ambiente (MMA), João Paulo Capobianco. Segundo ele, a proposta está sendo traçado por representantes dos ministérios da Ciência e Tecnologia, das Relações Exteriores e do Meio Ambiente. "O plano é uma proposta recente, que primeiro visa organizar todas ações que o Brasil já vem implementando, e a expectativa é que a gente possa, num prazo curto de alguns meses, ter uma primeira versão para submeter ao presidente da República, porque, a exemplo do plano de prevenção e controle ao desmatamento da Amazônia, o objetivo é que seja um plano detalhado, com ações objetivas, inclusive com orçamentos definidos, para que os diferentes órgãos de governo possam operar de forma integrada", explicou Capobianco. De acordo com ele, a proposta também será discutida com governos estaduais e municipais e com a sociedade.

O secretário afirmou que a maior colaboração do Brasil com o processo de aquecimento global resulta sobretudo das queimadas, que aumentam a emissão de gases responsáveis pelo efeito estufa. Já nos Estados Unidos e em países da União Européia, por exemplo, o problema está ligado principalmente à matriz energética, ressaltou o secretário. "O Brasil, com o biocombustível, com o etanol e toda a sua potencialidade ambiental, tem efetivamente um caminho para frente diferente do de outros países. Temos países hoje que a sua economia depende da queima de combustível fóssil e não têm nenhuma alternativa na mesa. Nós não dependemos de combustível fóssil em grande parte e temos alternativa na mesa", destacou.

O secretário defendeu que o Brasil defina metas internas relacionadas ao desmatamento, que em dois anos teve uma diminuição de 50% na Amazônia. "Temos um ciclo muito positivo de experiência de integração de governo nos últimos dois anos que permitiram uma redução do desmatamento e permitem uma avaliação mais adequada de todos os vetores e fatores que levam ao desmatamento. Portanto eu considero que nós temos, no momento, condições adequadas para projetarmos metas que sejam factíveis", disse.

Fonte: Agência Brasil, Brasília

quarta-feira, 28 de março de 2007

Existe uma Temperatura Global?

Existe uma temperature global? Esta é a questão formulada num recentemente publicado artigo no Journal of Non-Equilibrium Thermodynamics por Christopher Essex, Ross McKitrick, e Bjarne Andresen. O trabalho argumenta que uma temperatura média global não é fisicamente aceitável, e que deve haver outras maneiras de computar uma média, as quais dariam diferentes tendências.

A usual media aritimética é somente uma estimativa que fornece uma medida do valor central de um conjunto de medidas (centro de uma nuvem de pontos, e pode ser definida formalmente como a integral de x f(x) dx). Todo o artigo é irrelevante no contexto de mudanças climáticas pois ele ignorou um ponto muito importante. CO2 afeta todas as temperaturas superficiais da terra, e para melhorar a relação sinal-ruído, uma media aritmética ordinária melhorará o sinal comum a todas as medidas e suprimirá as variações internas que são espacialmente incoerentes (por exemplo, não causadas pelo CO2 ou outros forçantes). Assim esta escolha não requer uma justificativa física, mas é parte de um teste científico que nos permite obter um ‘sim’ ou ‘não’ mais claro. Pode-se escolher olhar para o nível médio dos oceanos, que não tem um sentido físico pois representa uma medida do volume de água nos oceanos, mas a escolha não é crucial na medida que o indicador utilizado responde às condições que são investigadas. E a temperatura média global é de fato uma função da temperatura sobre toda a superfície do planeta.

Este trabalho é então uma brincadeira? É um conhecimento antigo e tradicional que as temperaturas medidas em meteorologia e em estudos climatológicos são por hipótese representativas de um certo volume de ar, isto é, uma média aritmética. Essex et al. afirmam que esta não é realmente física, mas certamente medidas de temperatura têm implicações práticas claras. Temperatura propriamente dita pode ser inferida diretamente de diferentes leis físicas, como a lei dos gases ideais, a primeira lei da termodinâmica e a lei de Stefan-Boltzmann, assim não é a temperatura per se que é ‘não-física’. Apesar da temperatura de dois corpos em contato não ser necessariamente a média aritmética, ainda sim ela será uma média ponderada das temperaturas iniciais se nenhum calor é perdido para o ambiente. Além disso, os tamanhos de grade dos modelos de previsão numérica do tempo usualmente possuem uma escala espacial mínima de 10-20km, e neste caso a temperatura pode ser interpretada como uma média nesta escala. Modelos numéricos de tempo geralmente fornecem previsões úteis.

E o que distingue a temperatura média de um volume pequeno de um grande? Ou será que Essex et al. acreditam que o limite está nas grandes escalas? Por exemplo, na escala sinótica (~1000 km)? É engraçado pensar que então o conceito de temperatura média regional também não teria sentido segundo Essex et al. E pode-se também questionar se o problema de calcular a temperatura média faz sentido no tempo, por exemplo, a temperatura média do verão ou inverno?

Essex et al. sugerem que há diferentes maneiras de calcular a média, e que é difícil saber qual faz mais sentido. Mas quando eles calculam a média geométrica, eles não deveriam esquecer que a temperatura deveria ser medida em graus Kelvin (a temperatura absoluta) e não em Celsius. Um argumento utilizado por Essex et al. é que as temperaturas não estão em equilíbrio. Rigorosamente falando, isto é válido para a maior parte dos casos. Mas em geral, estas leis ainda sim fornecem resultados razoáveis porque as temperaturas estão próximas de estar em equilíbrio em meteorologia e climatologia. O trabalho não traz nenhum fato novo – eu pensava que estes aspectos já estavam bem conhecidos.

Atualização: Rabett Run tem um bem detalhado conjunto de posts destrinchando cuidadosamente este trabalho.


Fonte: RealClimate

Aquecimento Global Criará um Novo Clima na Floresta Amazônica

Estudo publicado on-line nos Proceedings of the National Academy of Sciences, em 27 de março de 2007, afirma que o aquecimento global criará um novo clima na Floresta Amazônica até o final do século, mais quente e com maior precipitação em época de chuvas, segundo um estudo feito por cientistas da Universidade de Wisconsin, nos Estados Unidos.

Usando modelos de mudanças climáticas que levam em conta estimativas de emissões de gases do efeito estufa, os cientistas concluíram que 39% da superfície do planeta terá temperaturas mais altas até 2100 e que as zonas de climas mais quentes no mundo já estão se deslocando em direção aos dois pólos.

O fenômeno vai afetar principalmente os trópicos e sub-trópicos, regiões em que ficam as florestas Amazônica e da Indonésia, onde até as menores variações de temperaturas podem ter um grande impacto, afirmou Jack Williams, geógrafo da universidade e chefe da pesquisa.

Os cientistas dizem que essas mudanças afetarão várias espécies, em particular em regiões altas ou frias, como as áreas polares e os Andes, e regiões com grande biodiversidade, como é o caso da Floresta Amazônica.

A equipe de Williams usou modelos do Painel Intergovernamental de Mudanças Climáticas (IPCC, na sigla em inglês) para prever onde as mudanças em temperaturas e volumes de chuvas deverão ocorrer.

Os cientistas constataram que, se forem mantidos os atuais níveis de emissão de dióxido de carbono e outros gases causadores do efeito estufa, surgirão novas zonas climáticas em 39% da superfície do planeta.

Mantidas as mesmas condições, o modelo prevê o desaparecimento de 48% dos climas atuais. Mesmo levando em conta as atuais estratégias globais de redução de emissões, os modelos prevêem o fim de determinados climas e o surgimento de novos em 20% da Terra.

Fonte: BBC Brasil

terça-feira, 27 de março de 2007

Impactos das Mudanças Climáticas nos Oceanos

Dois estudos interessantes, publicados em números recentes da revista Geophysical Research Letters, abordam a questão dos possíveis impactos das mudanças climáticas nos oceanos. O primeiro, publicado em 06 de março de 2007, diz respeito à desaceleração das correntes oceânicas devido ao aumento das emissões de gases de efeito estufa (GEE). A taxa de formação da água profunda do Atlântico Norte (em inglês, North Atlantic Deep Water - NADW) e da água de profundidade intermediária do Mar de Labrador (intermediate-depth Labrador Sea Water - LSW) controla de perto a intensidade da circulação de reversão do Atlântico meridional (Atlantic meridional overturning circulation -AMOC) e, consequentemente, a circulação global de calor nos oceanos. Através de complexos modelos de circulação oceano-atmosfera, buscou-se no passado observar se o aquecimento global, devido ao aumento das concentrações de GEE, iria derreter as calotas glaciais e introduzir água doce no Atlântico Norte, desacelerando assim a formação da NADW e da LSW.

Weaver et al. (2007) rodaram diversos modelos com diferentes condições iniciais e constataram que a intensidade da AMOC sempre declina quando os GEE aumentam de 1% ao ano, com as maiores diminuições ocorrendo naquelas simulações com a AMOC com maior intensidade inicial. Além disso, eles confirmaram que são as variações no fluxo superficial de calor, e não as flutuações no fluxo superficial de água doce (isto é, aumento da precipitação, evaporação e descarga de rios), que desaceleram a AMOC, um resultado sugerido em estudos anteriores. Finalmente, os autores observaram que seus modelos são fortemente influenciados por retroalimentações (feedbacks) do vapor d’água e neve/gelo e, portanto, são sensíveis às condições climáticas médias.

O segundo estudo, publicado em 09 de março de 2007, quantifica o grau de acidificação dos oceanos em razão da maior queima de combustíveis fósseis. Os oceanos têm um papel determinante na captura de dióxido de carbono (CO2) de origem antropogênica, ajudando portanto a moderar mudanças climáticas futuras. Entretanto, a adição de CO2 nos oceanos aumenta sua acidez (diminuição do pH), representando uma ameaça a vários organismos marinhos e a seus predadores.

Cao et al. (2007) buscaram quantificar o efeito das mudanças climáticas na acidez dos oceanos e nos níveis de saturação dos carbonatos de cálcio que formam as conchas e os esqueletos de diversos organismos marinhos. Utilizando um modelo do sistema terrestre, eles encontraram que o pH dos oceanos vai se reduzir de 0.31 unidades ao final deste século se a concentração de CO2 se estabilizar na atmosfera em 1000 partes por milhão (ppm). Este aumento na acidez ocorreu nas simulações independentemente dos cenários de aumento de temperatura devido ao aquecimento global.

segunda-feira, 26 de março de 2007

Geoengenharia: Engenharia em Escala Planetária

Saiu na The Economist (com tradução no jornal Valor Econômico), e vale a pena destacar:

Se o homem é capaz de aquecer inadvertidamente o planeta inteiro, certamente não está além de sua capacidade esfriá-lo, não é? Embora a maior parte dos climatologistas não goste de falar sobre isso, reduzir as emissões dos gases que provocam o efeito estufa não é a única maneira de resolver o problema das mudanças climáticas. Assim como a tecnologia provocou o problema, ela também pode ser capaz de ajudar a revertê-lo. O uso da engenharia em escala planetária para contrabalançar as mudanças climáticas é conhecido como "geoengenharia".

A idéia já existe há anos. Quando um relatório sobre as mudanças climáticas foi submetido ao presidente Lyndon Johnson, em 1965, os autores nem se deram ao trabalho de considerar a idéia da redução das emissões de dióxido de carbono. Em vez disso, o relatório sugeria espalhar "partículas refletoras muito pequenas" pelos oceanos para refletir a luz e levar o calor de volta para o espaço.

Desde então, a maior parte dos ativistas e formuladores de políticas vêm se concentrando na redução das emissões, e a idéia de esfriar deliberadamente a Terra nunca foi adiante. A maior parte das pessoas pensa que reduzir as emissões é o caminho mais sensato. Mas, como as emissões globais continuam crescendo, e parece que continuarão assim nos próximos anos, a idéia da geoengenharia voltou a ser aceita.

A publicação científica "Climatic Change" divulgou uma série de artigos sobre o assunto em agosto, incluindo um de Paul Crutzen, o químico atmosférico ganhador do Nobel. Em novembro, a Carnegie Institution e a Nasa, a agência espacial americana, realizaram uma conferência sobre o assunto. E membros do governo americano vêm fazendo lobby para que as pesquisas de geoengenharia sejam incluídas entre as recomendações do mais recente relatório sobre as maneiras de se amenizar as mudanças climáticas do Painel Intergovernamental Sobre Mudanças Climáticas, o IPCC.

De todos os planos propostos, o mais ambicioso (e caro) seria colocar uma espécie de pára-sol gigante no espaço, no interior do ponto Lagrange, a posição na linha entre a Terra e o Sol em que a combinação das forças centrípeta e gravitacional permite que um objeto se mantenha em posição constante entre os dois pontos. Se o objeto for grande o bastante, ele pode bloquear uma quantidade de raios de sol suficiente para esfriar a Terra. Roger Angel, astrônomo da Universidade do Arizona, já sugeriu montar nesse ponto uma nuvem de milhões de pequenas espaçonaves reflexivas (com menos de um metro de comprimento), que bloqueariam 1,8% dos raios solares. Angel estima que a massa total do pára-sol exigida seria de aproximadamente 20 milhões de toneladas. O espelho consistiria de peças de aproximadamente um metro de comprimento colocadas em posição usando uma combinação de lançadores magnéticos e propulsão ionizada. Segundo ele, o projeto custaria uns poucos trilhões de dólares, ou menos de 0,5% do PIB mundial. Angel admite que a solução é um tanto improvável, mas a Nasa teria acenado com a esperança de que explorará a idéia.

Uma abordagem menos exótica, apoiada por Crutzen, é espalhar pequenas partículas na atmosfera superior para refletir os raios de sol. Esse efeito já foi comprovado na natureza: partículas leves de sulfato, chamadas aerossóis, lançadas na atmosfera por grandes erupções vulcânicas como a do monte Pinatubo, em 1991, já produziram períodos de esfriamento global. A poluição por sulfato pelas indústrias já teve conseqüências parecidas, mas, depois de 1990, o controle da poluição em muitas regiões do planeta teve o efeito colateral perverso de aumentar o aquecimento global.
A idéia mais "pé no chão" é a que foi proposta por John Latham, um cientista do Centro Nacional de Pesquisas Atmosféricas do Colorado (EUA). Ele sugere que assoprar gotículas de água do mar no ar estimularia a formação de nuvens marinhas baixas e com alto poder de refletir os raios. Simulações indicam que isso pode ter um bom efeito de resfriar a temperatura. A questão é: como fazer isso de uma maneira economicamente viável?

Stephen Salter, da Universidade de Edimburgo, projetou uma embarcação sem tripulantes que produziria essas nuvens usando a força do vento. Ela avalia que apenas 50 dessas estruturas, cada uma custando uns poucos milhões de dólares e pulverizando cerca de 10 litros de água por segundo, poderiam neutralizar o equivalente a um ano de emissões globais de dióxido de carbono - mas outras 50 embarcações seriam necessárias a cada ano até que as emissões de dióxido de carbono estivessem sob controle. Os barcos de Salter seriam muito mais eficazes do que outros esquemas de geoengenharia, diz ele. Poderiam ser utilizados no Atlântico Norte para esfriar a capa de gelo da Groenlândia durante o verão no hemisfério, sendo depois transferidos para a Antártica para trabalhar no verão do Sul. Ken Caldeira, cientista da Carnegie Institution, sugere até que, ao esfriarem o mar, essas embarcações poderiam ser usadas para combater os furacões, já que as altas temperaturas na superfície do mar estão ligadas à formação deste fenômeno.

Outras propostas incluem semear os oceanos para que eles absorvam mais dióxido de carbono e construir enormes refletores em regiões desérticas para refletir a luz do Sol de volta para o espaço. Esta última idéia é impraticável, diz Caldeira, que avalia que metade dos desertos do mundo teriam que ser cobertos pelos refletores. Na verdade, a maioria dos esquemas de geoengenharia parecem meio loucos e tendem a apresentar complicações técnicas e estéticas. Poluir deliberadamente a atmosfera deixaria o céu menos azul, embora isso fosse tornar o pôr-do-sol mais bonito. Bloquear a luz solar ajudaria a esfriar o planeta, mas seria pouco útil na equação de outros efeitos colaterais do aumento dos níveis de gás carbônico na atmosfera, como a acidificação dos oceanos. Muitos ambientalistas se opõem à idéia. Ralph Cicerone, presidente da Academia Nacional de Ciências dos Estados Unidos, disse que a geoengenharia desperta reações contrárias "por razões variadas e sinceras que não são totalmente científicas".

Mas parece razoável temer que a esperança ilusória de uma solução científica possa prejudicar a adoção de soluções políticas, como as metas de redução nas emissões de gases-estufa, elaboradas para atacar a principal causa do problema. E há também o perigo das conseqüências não previstas. As mudanças climáticas são, indiscutivelmente, uma experiência com a qual a humanidade se deparou sem querer. Iniciar uma segunda experiência na esperança de contrabalançar a primeira seria, no mínimo, arriscado.

quinta-feira, 22 de março de 2007

Philip M. Fearnside: Água de São Paulo Depende da Amazônia

Apesar deste blog ter como objetivo destacar os ‘últimos avanços’ científicos relacionados às mudanças climáticas, gostaríamos de destacar neste post um artigo publicado há quase três anos na revista Ciência Hoje (4 de abril de 2004), e que mereceu pouco ou nenhum destaque em nossa mídia.

Trata-se de um artigo do Philip M. Fearnside, pesquisador do Instituto Nacional de Pesquisas da Amazônia, e um dos mais citados cientistas no mundo na área ambiental. Neste trabalho, ele alerta que o abastecimento de água nas cidades do Centro-sul do Brasil é, em certa medida, um “serviço” prestado pela floresta amazônica.

Destacamos os trechos a seguir:

"No início de novembro de 2003, os reservatórios que fornecem a água da cidade de São Paulo atingiram um nível mínimo: apenas 5% de sua capacidade. A água era racionada na maior metrópole brasileira e restavam poucos dias para o esgotamento das reservas. A cidade do Rio de Janeiro vivia situação parecida. O volume de água nos reservatórios que a abastecem correspondia a 14% da capacidade total e havia o risco de que secassem antes da estação chuvosa, em dezembro. Antes, em 2001, a escassez de água nos reservatórios das hidrelétricas de toda a porção não-amazônica do país fez com que os principais centros populacionais brasileiros sofressem grandes blecautes (os ‘apagões’) e levou a prolongado racionamento de eletricidade."

"Esses acontecimentos deveriam produzir uma consciência aguda da importância da água transportada por correntes de ar da Amazônia para o Centro-sul do Brasil. Infelizmente, essa consciência ainda não se materializou, e o modelo de desenvolvimento que o governo federal quer implantar na Amazônia (previsto no Plano Plurianual 2004-2007) baseia-se em uma série de obras de infra-estrutura (rodovias, hidrelétricas e outras) que levarão a perdas significativas de floresta."

"A questão do transporte de água da Amazônia para o Centro-sul do país ilustra claramente que manter grandes áreas de floresta amazônica é do maior interesse do país. É comum ouvir, no Brasil, a opinião de que existe uma conspiração permanente para enganar o país, fazendo com que este não desmate a Amazônia – essa renúncia beneficiaria outras partes do planeta, em detrimento dos interesses brasileiros. Manter a floresta amazônica de fato beneficiaria o resto do mundo, mas isso não altera o fato de que o maior prejudicado com a perda dos serviços ambientais da floresta amazônica é o próprio Brasil. A continuação do desmatamento reduziria, por exemplo, o potencial do país para obter ‘créditos de carbono’ através do Protocolo de Kyoto. É, portanto, do interesse do Brasil usar todos os mecanismos disponíveis para prevenir a perda de floresta na Amazônia"

Aumento de CO2 Transforma Solo em Fonte de Carbono

Pesquisa publicada on-line na prestigiosa revista Proceedings of the National Academy of Sciences (13 de março de 2007) revela que o aumento dos níveis de dióxido de carbono na atmosfera pode transformar os solos de um sumidouro a uma fonte potencial de carbono ao estimular comunidades de micróbios a liberar, e não acumular, CO2.

Estudos anteriores indicavam que níveis maiores de dióxido de carbono estimulavam o crescimento das plantas e, consequentemente, o seqüestro de carbono na forma de biomassa. Neste processo, o solo atuaria como repositório do excesso de carbono capturado pela vegetação. No entanto, este novo estudo, liderado por Patrick Megonigal, do Smithsonian Environmental Research Center (EUA), revela que, a despeito do crescimento das plantas, uma concentração duas vezes maior de dióxido de carbono em um ecossistema causa na realidade uma redução na acumulação de carbono nos solos.

Isto acontece porque níveis elevados de CO2 estimulam a atividade microbiana no solo, o que aumenta a decomposição de matéria orgânica e a liberação de dióxido de carbono. Os cientistas estudaram durante seis anos um tipo de floresta de carvalho na Flórida (EUA). Ao final do estudo eles observaram que solos expostos a níveis elevados de CO2 continham mais fungos e uma maior atividade de uma enzima responsável pela degradação do carbono.

Esta pesquisa evidencia a necessidade de se conhecer melhor a ação dos microorganismos presentes no solo, e de como eles respondem ao aumento das concentrações de gases de efeito estufa na atmosfera e às mudanças climáticas.

sábado, 17 de março de 2007

Etanol Celulósico, A Nova Fronteira

Nos primórdios da indústria automobilística, Henry Ford planejou utilizar o etanol como combustível do seu Modelo T. Esta opção foi rapidamente suplantada pela oferta abundante e barata de gasolina, que contém 30% mais energia por litro que o etanol. Atualmente, devido às mudanças climáticas e às incertezas no fornecimento de petróleo, o etanol é a alternativa do momento.

Em sua edição de 16 de março de 2007, a revista Science publica um artigo dedicado ao tema do “etanol celulósico”. As pesquisas nesta área têm por objetivo converter toda forma de resíduos vegetais – palha de trigo, espigas ou aparas de madeira, por exemplo – em combustível. Estudos mostram que os EUA poderiam converter anualmente 1.3 bilhões de toneladas de biomassa seca em 227 bilhões de litros de etanol, o equivalente a 30% do seu consumo de combustíveis, tudo isto com pequeno impacto na produção de alimentos ou de madeira.

A grande vantagem do etanol celulósico é, sem dúvida, deixar para trás o debate “combustível versus comida”, uma vez que apenas resíduos agrícolas e florestais são empregados em sua produção. Sua eficiência na redução de gases de efeito estufa (GEE) é, também, outra característica notável. Enquanto um litro de etanol de milho reduz as emissões de GEE em apenas 18%, o etanol celulósico propicia um corte de até 88%.

Por outro lado, converter açúcar (como no Brasil) ou amido de milho (como nos EUA) em etanol é uma tarefa muito mais simples do que fazer o mesmo a partir de resíduos agrícolas ou florestais. Esta biomassa é feita de três ingredientes: celulose, um polímero da glicose (um açúcar com 6 carbonos) que é o componente principal da parede das células; hemicelulose, polímero ramificado de xilose e outros açúcares com 5 carbonos; e a lignina que une os outros polímeros numa estrutura robusta. Como quebrar esta estrutura de modo eficiente, disponibilizando seus açúcares para a produção de etanol, é um dos grandes desafios dos pesquisadores de biocombustíveis em todo mundo.

Para fazer isto os cientistas estão recorrendo, por exemplo, a técnicas sofisticadas de engenharia genética para modificar bactérias e/ou leveduras responsáveis pela fermentação com o objetivo de converter diretamente a xilose (e outros açúcares de 5 carbonos) em etanol, processo que não acontece na natureza.

Atualmente, não existem plantas comerciais de etanol celulósico mas espera-se que em breve (~5 anos) o seu custo de produção venha a cair abaixo de US$ 1.07 por galão, o que o tornaria competitivo com o etanol do milho. Esperamos apenas que o Brasil, que atualmente lidera a tecnologia do etanol convencional, não venha perder a corrida do etanol celulósico, por falta de investimentos públicos e privados em C&T.

sexta-feira, 16 de março de 2007

Inverno boreal foi o mais quente já visto, diz estudo

Deu em toda mídia mas convém destacar:

O inverno deste ano no hemisfério norte é o mais quente desde que as temperaturas começaram a ser medidas, em 1880, informou uma agência governamental americana.

A temperatura da superfície da Terra e dos oceanos, de dezembro de 2006 até fevereiro deste ano - período que representa o inverno na região -, foi 0,72ºC acima da média do século 20, segundo a Administração Oceânica e Atmosférica Nacional dos EUA (ou NOAA, na sigla em inglês).

Conforme a agência, o fenômeno climático El Niño, responsável pelo aquecimento de partes do Oceano Pacífico, contribuiu para o aumento das temperaturas.

"Os fatores que contribuíram foram uma tendência de longo prazo de temperaturas mais altas assim como um moderado El Niño no Pacífico", disse Jay Lawrimore, do Centro Nacional de Dados Climáticos da NOAA.

Especialistas prevêem que 2007 poderá ser o ano mais quente da história. De acordo com a NOAA, as temperaturas continuam aumentando em torno de um quinto de grau a cada década.

Fonte: BBC Brasil

quinta-feira, 15 de março de 2007

Primeiras Medidas de Ozônio e Dióxido de Nitrogênio do GOME-2

O “Global Ozone Monitoring Experiment-2” (GOME-2) a bordo do MetOp-A lançado em outobro de 2006 e in October 2006 produziu os primeiros produtos geofísicos para monitorar a camada de ozônio da Terra, e a qualidade do ar Global e na Europa.


Ozônio total (O3) na atmosfera medido em 11 de janeiro de 2007 pelo GOME-2. A imagem ilustra a variabilidadena camada de ozônio, mais concentrada nas latitudes medias ao norte e menos concentrada em regiões (sub-)tropicais. (Crédito: EUMETSAT - DLR)



Isso marca o início do comprometimento europeu de monitorar a recuperação da camada de ozônio e de dar suporte ao monitormento previsão da qualidade do ar para cidadão europeus e do mundo.

O produto tem sido desenvolvido pela Agência Aeroespacial Alemã (DLR) em cooperação com o “Satellite Application Facility on Ozone and Atmospheric Chemistry Monitoring” (O3M SAF) do EUMETSAT, o qual é coordenado pelo Instituto Meteorológico Finlandês (FMI). O O3M SAF gera, valida, arquiva e distribui dados sobre ozônio atmosférico, gases traços, aerossóis e radiação ultravioleta na superfície do planeta usando medidas do MetOp-A.

GOME-2, um espectrômetro de varredura, toma o lugar do bem sucedido GOME que voava no Satélite de Recursos da Terra (ERS-2) da Agência Espacial Européia (ESA) lançado em abril de 1995, e fornece uma cobertura diária quase global. O instrumento mede perfís do ozônio atmosférico e a distribuição de outros gases traços na atmosfera que estão relacionados com a diminuição do ozônio na estratosfera e com fontes de poluição naturais e antropogênicas.

A quantidade de radiação UV na superfície é derivada também das medidas do GOME-2. A camada de ozônio a uma altitude 20-30 quilômetros protege a Terra dos danos da radiação UV, a qual é atualmente mais pronunciada nos pólos do planeta. O aumento da radiação UV na superfície do planeta pode causar sérios danos à saúde humana, agricultura, florestas e ecossistemas aquáticos. Altos níveis de poluição como de dióxido de nitrogênio originado na queima de combustíveis fósseis podem afetar a saúde respiratória e contribuir com a deposição ácida que degrada solos e vegetações.

Fonte: Adaptado de uma nota da ESA (European Space Agency) e Science Daily.

quarta-feira, 14 de março de 2007

‘Cosmoclimatologia’ - argumentos velhos e ultrapassados em nova roupagem

Image from cosmosNuma recente edição da Astronomy and Geophysics (A&G), Henrik Svensmark cunhou um novo termo: 'cosmoclimatologia'. Eu acho que 'cosmoclimatologia' é um nome bom e renovador para qualquer coisa que combine nosso cosmos com nosso clima. Contudo, achei muito desapontador todos os outros aspectos do artigo. Já cobrimos a maioria desses tópicos antes, mas o artigo da A&G nos dá alguns novos aspectos para discutir. Além do mais, Svensmark é o diretor do Centro de Pesquisa sobre o Sol-Clima, do Centro Nacional Espacial Holandês, e portanto é muito influente. Ele é também co-autor de um livro recente com Nigel Calder que recebeu alguma atenção. Ainda mais, um experimento de laboratório seu também ganhou notoriedade. Parece que a forçante solar é uma das últimas trincheiras dos céticos no debate sobre mudanças climáticas. Na minha visão, o trabalho da A&G merece então comentários, dado que os mesmos velhos e ultrapassados argumentos resurgem sem se discutir os temores dos críticos.

Existem algumas questões que tornam o trabalho da A&G realmente pobre ao meu ver. Uma delas é a omissão de responder as velhas críticas da hipótese de que raios cósmicos galáticos (sigla em inglês GCR) mudam nosso clima modulando as nuvens. (veja aqui, aqui e aqui). Svensmark é muito vago sobre a falta de tendência nos GCR ou em outras variáveis solares desde 1952. Eu o questionei sobre isso numa conferência da Sociedade Européia de Geofísica (sigla em inglês EGS) em Nice há alguns anos atrás, e publiquei também um trabalho sobre esse ponto. O artigo da A&G seleciona as referências, sem no entanto responder as sérias críticas enchaminhadas por Damon & Laut (2004), Laut (2003) e eu mesmo. Para ser honesto, o trabalho crítico de Kristjansson e Kristiansen (2000) é citado, embora somente para dizer que a própria conclusão de Svensmark seja "um achado contra-intuitivo para alguns críticos". O tratamento restante dos aspectos críticos no artigo da A&G é sem maiores qualificações, a não ser a seguinte passagem (minha ênfase):

A principal objeção para a idéia de que raios cósmicos têm influência na cobertura de nuvens veio de meteorologistas os quais insistiram que não haveria mecanismo capaz de produzir isso. Por outro lado, alguns físicos atmosféricos concluiram que a observação e a teoria falharam em considerar satisfatoriamente a origem das partículas de aerossóis sem as quais a água não condensa para formar nuvens.

Eu não acho que isso seja uma piada, e não sei se o artigo tenta criar uma classificação de críticos e adeptos de suas idéias como 'meteorologistas' e 'físicos' (eu sou físico). Mas este é um detalhe diminuto comparado com os conceitos errados incluídos nessa passagem. Existem muitas 'sementes' no ar que podem condensar água, também conhecidas como núcleos de condensação de nuvens (sigla em inglês CCN). De acordo com meu velho livro 'A Short Course in Cloud Physics' de Rogers e Yau (1989, p. 95, terceira edição): "Núcleos de condensação de algum tipo estão sempre presentes na atmosfera em grande número: nuvens se formam sempre que há movimentos verticais de ar e suficiente umidade". Os CCN consistem na maioria das vezes de poeira mineral, sal marinho ou material sulfuroso.

Eu tenho sérias dúvidas sobre a seguinte – vaga ainda que falsa – afirmação colocada adiante no artigo da A&G :

Tentativas de mostrar que certos detalhes nos dados climáticos confirmam a forçante de efeito estufa (por exemplo Mitchell et al., 2001) têm sido menos conclusivas. Em contraste, a hipótese de mudanças nas nuvens devido aos raios cósmicos que ajuda a forçar uma mudança climática prevê um sinal distinto que é na verdade muito facilmente observado mais como uma exceção do que uma regra.

De novo, sem mais qualificações ou referências. A ironia é que Svensmark ignora (além da falta de tendência dos GCR) o fato de que as temperaturas noturnas têm subido mais rápido do que as temperaturas diurnas, ponto pelo qual eu o incomodei numa Reunião Nordica de Meteorologia em Copenhagen em 2002. Um jornalista do Jyllands Posten presente na conferência captou a mensagem, de modo que minha crítica repercurtiu num jornal no dia seguinte ("Klimaforskere i åben krig" [tradução 'Pesquisadores do clima em pé de querra], 28 de maio, 2002): É difícil explicar como um aquecimento causado pela diminuição do albedo poderia ser mais forte no lado escuro (noite) do planeta.

Um outro quebra-cabeça está na surpreendentemente boa correlação entre nuvens e GCR (veja figura abaixo), tendo em vista que nuvens altas (cobertura média global de ~13%) ou nuvens intermediárias (~20%) que não são influenciadas por GCR, mascaram as nuvens baixas (que representam entre 28% e 30% do globo). É de fato supreendente o bom ajuste entre as duas curvas no trabalho da A&G (reproduzido abaixo), considerando a estrutura de tempo nas curvas de altas, intermediárias e baixas nuvens, e que os satélites não podem ver as nuvens de baixo nível onde acima existem nuvens de níveis mais altos bloqueando a visão. O fato é que as variações são pequenas (~1% em amplitude!) comparadas com a área total, sugerindo que o efeito de sobreposição/mascaramento por nuvens altas deve ser muito pequeno para uma alta correlação acontecer através de nuvens elevadas. Mesmo se hipoteticamente as nuvens fossem completamente determinadas por GCR, poderíamos esperar ver uma deterioração da correlação se vista por cima, devido à presença de nuvens altas não influenciadas por GCR. Outra questão é que os dados de nuvens usados nessa análise foram somente baseados no canal infra-vermelho (sigla em inglês IR), e uma melhor análise deveria incluir as observações no visível também, mas se os dados do visível são incluídos, então a correlação seria menor (comunicação pessoal, Jørn Kristjansen).

 Figuras 2 & 3 extraídas de Svensmark 2007

Numa nota mais técnica, parece haver inconsistências entre o GCR apresentado nas Figuras 2 e 3 do artigo da A&G (veja os círculos vermelhos no gráfico acima), e isto não é explicado no artigo. Na Fig. 3 (gráfico da esquerda acima) o GCR aumentou em 10% mas o máximo valor é cerca de 0% na Fig. 2 (gráfico da direita acima), e o mínimo valor é aproximadamente de -18% na Fig 3 mas somente -13% na Fig 2. Parece que as Fig 2 & 3 foram baseadas em fontes diferentes de dados. Para ser justo, ambos GCR e ISCCP são continuamente atualizados e revisados. Mas fico surpreso que a rotineira atualização e revisão resultem em grandes diferenças como vistas aqui. Parece como se a curva tivesse sido reajustada em algum estágio, mas é então um pouco estranho que a curva representando a cobertura de nuvens baixas não parece ter sido rescalonada: as diferenças entre o máximo e o mínimo é de cerca de 3% e ambas figuras (é chato que os eixos verticais para a cobertura de nuvens são dados em unidades diferentes na Fig.2& 3). Será isso importante? Não sei. Mas pode ser um sinal de um trabalho mal feito. Não há informação suficiente sobre a metodologia para que eu pudesse repetir os resultados apresentados aqui.

Os dados de nuvem ajustadosNuvens de baixo nível. Cobertura de nuvens baixas do ISCCP de medidas IR

Svensmark certamente deve ter ajustado os dados de nuvem também. Acima é mostrada uma figura de um artigo anterior no qual ele justifica um ajuste de uma quebra na diferença entre nuvens baixas e altas. A questão é: por que o erro estaria nas medidas de nuvens baixas e não nas de nuvens altas? Eu não tenho visto quaisquer outras declarações independentes sobre quebras ou problemas na série de dados para nuvens baixas depois de ~1995. Apparentemente, existem algumas tendências nos dados do ISCCP, e Stordal et al. (2005) sugere que existe uma marca espúria do METEOSAT impressa nas nuvens altas (cirrus), e os problemas com as tendências do ISCCP estão agora se tornando bem conhecidas. Junto a isso, o erro fundamental que Marsh e Svensmark fizeram em suas 'correções' foi já discutido, mas como essa questão continua reaparecendo, o 'ajuste' é novamente mostrado (esquerda) enquanto que o 'ajuste' não pode ser discernido em gráficos independentes nos dados mais recentes (direita, e uma segunda opinião vizualizada numa análise independente de K. Gislefoss).

No artigo da A&G article, os GCR seriam responsáveis pelos episódios de 'bola de neve da Terra', e Svensmark escreve:

Um surpreendente produto dessa linha de questionamento é uma nova perspectiva da mudança do destino da vida ao longo dos últimos 3,5 bilhões de anos.

Extraído da figura 4 de Svensmark 2007 Além disso, o artigo pretende explicar o 'paradoxo solar fraco', pela completa ausência de nuvens baixas pois alegadamente não havia nenhum GCR naquele tempo. Presumivelmente, isso é levado a sério. Propor que os GCR sejam o único fator afetando nuvens baixas é inconsistente com o resultado mostrado na muito sua Fig. 4 (a plotagem mostrada à esquerda). No artigo da A&G, a Fig 4 realmente não mostra a relação entre GCR e nuvens, mas entre densidade iônica e os números de ultra-pequenos (raio superior a 3 nanometros) aerossóis de nucleação. A grande dispersão sugere que o número de aerossóis ultra-pequenos é muito fracamente afetado pelo número de ions – do contrário, todos os pontos situariam-se próximos à linha diagonal. Isso implica em outros fatores que devem influenciar a formação de aerossóis em adição a algum efeito devido à ionização. E isso é somente no ambiente de laboratório – fora da câmara de teste de Svensmark mais fatores devem desempenhar algum papel.

No experimento de laboratório 'SKY', a luz UV (ultravioleta) foi modulada para mimetizar a variação do sol, mas não ficou claro se os efeitos observados devido às mudanças no UV podem ser tranferidos aos GCR. O experimento também envolveu GCR naturais (em oposição a um feixe de partículas que presumivelmente seria mais fácil de controlar), suplementado com raios gama. Os aerossóis foram, de acordo com o artigo, grupos ultra-pequenos estáveis de ácido sulfúrico. Então, o que dizer dos grandes aerossóis que têm um papel na formação das nuvens? De acordo com "Atmospheric particles and nuclei" de Götz et al. (1991), Junge (1963) propôs, baseado em medidas de aerossóis, que partículas 'grandes' e 'gigantes' (raio maior que 0.1 micrômetro) constituem a maioria dos CCN, independentemente de sua composição química. Ao lado disso, a curva de Köhler (veja também aqui) baseada no trabalho teórico de 1926 e adiante indica que as gotas somente começam a crescer espontaneamente a partir de um certo tamanho crítico (elas são todas 'supercríticas'). O número de aerossóis sulfúricos é também influenciado pela disponibilidade de enxofre em geral. A quantidade de enxofre pode variar, por exemplo, com a queima de combustíveis fósseis, erupções vulcânicas, bem como devido à atividade biológica (i.e. através da emissão de dimetil sulfito ou 'DMS'; Götz et al. ,1991, p. 108), e presumivelmente o número de grupos de ácido sulfúrico formado nos últimos bilhões de anos pode ter sido afetado por diversos fatores geológicos. Aliado a isso, a pressão de vapor (ou 'supersaturação') deve realmente controlar se uma nuvem forma gotas ou não, visto que os aerossóis tendem estar casualmente ao redor. Tenho também algumas questões gerais sobre as evidências isotópicas de tempos pré-históricos. Seriam os isótopos de tempos passados criados somente por GCR bombardeando a atmosfera terrestre ou poderiam haver outras fontes? Algumas poderiam ser introduzidas por impactos de meteoritos/asteróides, atividades vulcânicas ou emissão distinta de gás radônio originado no interior da Terra?

Eu esperaria um fraco efeito do albedo das nuvens sobre as regiões cobertas de neve/gelo da Antarctica, mas Svensmark argumenta que a temperatura das nuvens aumentaria (esquentaria) ao invés de diminuir (resfriar). Esta declaração não é quantificada. Estará ele sugerindo algum efeito de gas de efeito estufa atuando durante os invernos Antárticos? Estaria o senso/cronologia de causa realmente determinado? O que dizer da temperatura afetando a cobertura de nuvens (por exemplo por advecção de ar suave e úmido) e o papel dos padrões de circulação? Certamente não há uma simples relação unidirecional. Acho que o artigo da A&G seja um pouco displicente sobre a complexidade envolvida nos processos atmosféricos. Essa atitude displicente parece ser uma marca registrada da cosmoclimatologia.

Presumo que muitos corpos celestes e cálculos complicados de gravitação tornam a modelagem da dinâmica de galáxias muito difícil, e os processos de formação de estrelas devem ter alterado a distribuição de massa e, assim, do campo gravitacional. Então, a dinâmica de estrelas durante bilhões de anos poderia ser certamente caracterizada como sendo caótica? Será mesmo possível reconstruir as constelações e a trajetória de nosso sistema solar ao redor da galáxia há mais de 2 bilhões de anos atrás com uma precisão que precede aquela de calcular o efeito do aumento da concentração de gases de efeito estufa nos dias atuais? Será a estória tão simples quanto narrada por Svensmark? Ele mesmo sugere que suas idéias são uma mudança de paradigma, o que 'cientificamente falando' seja tão seguro quanto a prevalência do paradigma do aquecimento global antropogênico (sigla em inglês, AGW). Eu vejo essa extensa declaração um pouco nebulosa dado que nenhuma qualificação seja feita sobre a questão AGW. Quais seriam exatamente os pontos fracos do paradigma AGW? Me pergunto se Svensmark sabe do que está falando.

É possível que os GCR de fato apresentem um efeito sobre o clima através da modulação das nuvens, mas eu não creio que seja muito forte. Também penso que as declarações de Svensmark são muito exageradas, mas em geral minhas objeções situam-se na forma como os argumentos são apresentados no artigo da A&G. Tenho a impressão que o trabalho da A&G vem da mesma escola do "O Ambientalista Cético ", que também tem sido criticado por referências pontualmente escolhidas para tornar mera especulação como solidamente fundamentada. Ignorar aspectos que não se adequam a hipótese não é ciência definitivamente. Do mesmo modo não é ajustar os dados de modo a dar um bom resultado sem uma sólida e convincente justificativa. A Ciência, todavia, significa objetividade, transparência, repitabilidade, e em princípio a possibilidade de falsificação. Além disso, seria somente uma falta de respeito com os leitores publicar um artigo que não contemple todos os lados relevantes da estória. Espero que Svensmark leia meus cometários e os responda aqui no RealClimate. Também espero que isso tudo seja lido por alunos e jornalistas que iniciam perguntas das questões críticas. Não sei a resposta para essas questões que postei aqui, assim gostaria de saber suas visões.

Agradecimentos
Agradeço Jørn Kristiansen pelos comentários e contribuições para essa minha postagem e Kristian Gislefoss por uma figura global da cobertura de baixas nuvens.

Fonte: RealClimate

Ignacy Sachs: Brasil pode ser a primeira biocivilização da história

Vale a pena ler a entrevista do Ignacy Sachs ao Estadão. Ignacy Sachs é eco-sócio-economista; desde 1968 é professor da Escola dos Altos Estudos em Ciências Sociais de Paris e co-diretor do seu Centro de Pesquisas sobre o Brasil Contemporâneo. Destacamos alguns trechos:

"O Brasil tem as melhores condições no mundo para tirar proveito desta saída gradual da civilização do petróleo. Tem tudo para construir o que eu chamaria de uma biocivilização, baseada no aproveitamento do trinômio: biodiversidade, biomassas e biotecnologias - esta última nas duas pontas do processo, para aumentar a produtividade da biomassa e para abrir cada vez mais o leque dos produtos dela derivados, como alimentos, rações para animais, bioenergia, adubos verdes, materiais para construção, matérias-primas industriais, insumos para química verde, fármacos e cosméticos. É um mundo que se abre.

Hoje o Brasil já tem vantagens comparativas naturais, pela sua dotação de recursos naturais, abundância de terras e clima tropical que favorece a produtividade primária da biomassa. Do ponto de vista de capacidade de potencializar as vantagens comparativas, o Brasil tem vários trunfos na mão: pesquisa e uma indústria de equipamentos de ponta para este tipo de unidade de produção. Falta definir uma estratégia que transforme esses trunfos num processo de desenvolvimento autêntico, baseado no tripé dos objetivos sociais.

Não se trata de multiplicar a riqueza. Trata-se de multiplicar a riqueza mudando drasticamente as formas da sua partilha. Um grande pensador do desenvolvimento francês, e que andou muito pelo Brasil e influenciou toda uma geração de brasileiros nos anos 1950, (Louis-Joseph) Lebre, dizia que o “desenvolvimento é a construção de uma civilização do ser na partilha eqüitativa do ter”. Olha, não conheço uma fórmula melhor. Nosso problema é como construir esta civilização aproveitando a chance que a bioenergia abre para um novo ciclo de desenvolvimento rural, rompendo com a idéia de que se deve reproduzir o que os outros fizeram."

terça-feira, 13 de março de 2007

Brasil deve estudar como reduzir emissão de metano pelo gado

O presidente do Programa Internacional da Geosfera-Biosfera (IGBP), Carlos Nobre, pesquisador do Instituto Nacional de Pesquisas Espaciais (Inpe), disse hoje (11) que o governo brasileiro ainda não encontrou a fórmula para livrar o país dos efeitos negativos da agricultura na emissão de gás metano. Nobre participou da abertura do 1º Simpósio Brasileiro de Mudanças Ambientais Globais, promovido no Rio de Janeiro, pelo Inpe e a Academia Brasileira de Ciências.

Considerado um dos mais perigosos gases poluentes da atmosfera, o metano é emitido pelo rebanho brasileiro, que é um dos maiores do mundo. Segundo informou Nobre, o Brasil tem “o maior rebanho do mundo e a maior emissão de metano vem da agricultura, dos rebanhos”. Ele destacou que cada molécula de metano, potencialmente, tem um efeito estufa maior. “Só que o metano existe na atmosfera em quantidades muito menores que o gás carbônico. Hoje, a quantidade de metano na atmosfera é umas 250 vezes menor que o gás carbônico. Então, o efeito de todo o metano na atmosfera para aquecer o planeta é mais ou menos um quarto do gás carbônico. Isso tem que ser levado em conta. O gás carbônico é o principal gás de efeito estufa globalmente”, explicou.

Esse fato, segundo o pesquisador, não anula a urgência de se reduzir as fontes de metano. Ele informou que o Brasil tem inúmeros projetos para evitar que o metano gerado pelo lixo chegue à atmosfera. Salientou, porém, que a fonte principal desse gás não são os lixões. “No caso do Brasil, são os bois. E aí a questão é muito mais complexa. A ciência precisa avançar muito para entender melhor essas emissões dos bovinos”.

Fonte: Visão Pecuária

José Goldemberg no Roda Viva da TV Cultura

O Físico Nuclear e Professor da USP José Goldemberg, um dos defensores da difusão das energias renováveis no Brasil foi o entrevistado do Roda Viva dessa semana (02-03-2007). Sua larga vivência acadêmica e política sobre as questões de energia e meio ambiente, o mantém numa posição bem clara sobre a energia nuclear: deve ser evitada. Para ele, James Lovelock, o criador da teoria de Gaia, que recentemente escreveu um livro que sugere a energia nuclear como única salvação para a questão das mudanças climáticas, não teria noção do tempo necessário para suprir a demanda crescente de energia no mundo. Segundo Goldemberg, levaria muito tempo para construir a quantidade requerida de usinas nucleares para atender a essa demanda. Além disso, os rejeitos radioativos são desde há algum tempo um grande problema nos Estados Unidos, detentores de 25% da energia nuclear no mundo. Para Goldemberg, a solução não seria nem o biodiesel, pois em seu processo de fabricação é utilizado metanol derivado de combustíveis fósseis. A melhor opção para o Brasil e para o mundo deveria ser o etanol derivado de cana-de-açucar e de celulose, pois trata-se de um combustível renovável, limpo e altamente produtivo em relação, por exemplo, ao etanol derivado de milho. E o Brasil tem grandes vantagens nesse mercado devido a sua experiência e pesquisas realizadas nas últimas décadas. Dois pontos entretanto ficaram mal esclarecidos. Um deles diz respeito ao suprimento de etanol no mercado interno. O Jornalista Washington Novaes, um dos entrevistadores, lembrou que no passado, com o aumento do preço do etanol no mercado externo, os produtores brasileiros exportaram quase toda sua produção de etanol, gerando um forte desabastecimento no mercado interno, levando as pessoas a substituir seus carros pelos movidos à gasolina. Certamente os produtores visam lucro e o governo deveria estabelecer regras sobre isso para que o desabastecimento não se repita, frente ao inevitável aumento da demanda externa. Outro ponto é que, segundo Goldemberg, a cana-de-açucar não teria boa vocação em terras amazônicas e ficou surpreso ao tomar conhecimento de que estava em tramitação a criação de uma usina de etanol no Acre. Frente a isso, será que teremos uma Amazônia 'doce' num futuro próximo? Aparentemente, o Brasil poderia ter uma aumento em sua taxa de crescimento não apenas pelo PAC mas em função das demandas externas de energia limpa. Mas se essa demanda implicar na devastação de ecossistemas e de seus serviços ambientais, tudo perde sentido. Além da manutenção da má distribuição de renda, o país se manteria na posição de celeiro do mundo desenvolvido, celeiro de energia. É preciso muita atenção.

segunda-feira, 12 de março de 2007

Dividindo o Bolo de Carbono Atmosférico

Em artigo publicado na Science de 9 de março de 2007, Wallace Broecker do Lamont-Doherty Earth Observatory de Nova York afirma que as políticas preconizadas no âmbito do Protocolo de Kyoto são incapazes de estabilizar os níveis de CO2 na atmosfera, e propõe uma abordagem diferente e criativa: dividir o “bolo de carbono” globalmente.

Para determinar o tamanho do bolo, é necessário definir um teto para o crescimento dos níveis de CO2, por exemplo, 560 ppm. Como a concentração atual é de 380 ppm, e dado que cada 4 bilhões de toneladas (Gt) de carbono emitidos geram um aumento de 1 ppm na concentração de CO2, o tamanho do bolo a ser dividido seria de 4 x (560-380) = 720 Gt de carbono.

Cada país teria direito a uma fatia do bolo proporcional à sua população. Assim, os países ricos teriam direito a um quinto do bolo, o que daria para aproximadamente 25 anos, mantidas as suas taxas atuais de emissão de gases de efeito estufa. Consequentemente, os paises industrializados seriam obrigados a reduzir fortemente suas emissões e/ou comprar fatias de bolo dos mais pobres.

Broecker admite que trata-se de um bolo de difícil digestão pelo mundo desenvolvido mas insiste que tal medida é necessária se quisermos estabilizar o clima do planeta.

Poluição do Ar na Ásia Está Mudando o Clima Global

Pesquisa publicada na de edição de 05 de março de 2007 dos Proceedings of the National Academy of Sciences (PNAS) mostra que o aumento da poluição na Ásia, causado sobretudo pela rápida industrialização chinesa, está mudando os padrões do clima global ao alterar a química da atmosfera. Renyi Zhang e colegas da Texas A&M University estudaram dados sobre nuvens obtidos por satélites, no período de 1984 a 2005. Eles constataram que o número de um tipo particular de nuvem – nuvens convectivas profundas – aumentou de 20 a 50% entre 1994 e 2005, em comparação com a década precedente.

Nuvens convectivas profundas têm um papel relevante na regulação da temperatura da Terra. Sua formação e duração bem como a quantidade de chuva que elas provocam podem ser influenciadas por aerossóis (ver post anterior sobre este tema). A queima de combustíveis fósseis é uma fonte antropogênica importante de aerossóis, como sulfatos e fuligem. Zhang e colaboradores mostraram que o aumento da poluição por aerossóis cria tempestades mais intensas no Pacífico Norte, o que influencia o modo como a temperatura global é regulada.

sábado, 10 de março de 2007

Washington Novaes: Solução Pode Virar Problema!

Em meio ao frenesi midiático causado pelo acordo sobre biocombustíveis assinado entre o Brasil e os EUA, o respeitado colunista Washington Novaes, em sua coluna de 09/03/2007 no Estadão, lança uma advertência:

"É preciso cuidado para não transformar solução em problema. Segundo a Friends of the Earth, 87% do desmatamento de florestas tropicais na Malásia entre 1985 e 2000 se deveu à implantação de culturas de palmas para produção de biodiesel. Estudos preliminares do WWF Brasil sobre as culturas de cana-de-açúcar chamam a atenção para os níveis de erosão, contaminação dos solos por fertilizantes e pesticidas, perda de matas ciliares, poluição do ar por queimadas. Outros estudos lembram a necessidade de retomar a avaliação dos efeitos dos aldeídos liberados na queima, que costumam provocar chuva ácida. Outros ainda advertem para a necessidade de evitar que nessa nova expansão da cana se repitam problemas gerados com a implantação do Proálcool, na década de 1970, no Estado de São Paulo (expulsão das culturas de alimentos, encarecimento dos produtos alimentares, desemprego). Problemas semelhantes já estariam ocorrendo agora, também em regiões de Minas Gerais.

É fundamental rever nossas posturas. A China acaba de decidir baixar suas taxas de crescimento econômico também para reduzir danos ambientais. Mudanças climáticas já estão acontecendo e não se pode correr o risco de agravá-las por falta de responsabilidade. Desprezando inclusive a vantagem estratégica - que será cada vez mais importante - de ter um patrimônio único no mundo de recursos e serviços naturais, exatamente o fator escasso no planeta. E comprometendo o futuro das novas gerações."

sexta-feira, 9 de março de 2007

Calor de Furacão

O grande problema com a maior parte das discussões sobre tendências na atividade dos furacões é que os conjuntos de dados que todos estão utilizando são conhecidos por não serem homogêneos devido a mudanças nos procedimentos de observação e na tecnologia ao longo dos anos. Assim, não é surpreendente que uma nova re-análise (Kossin et al, publicado em 28/02/2007) gerou um significativo interesse e controvérsia no seio da comunidade de pesquisadores de furacões (veja, por exemplo, Prometheus ou Chris Mooney). No entanto, ao invés de tomar este estudo por aquilo que ele é – uma tentativa preliminar e útil de tornar homogênea uma parte dos dados (1983 a 2005) – ele está sendo tratado como se fosse a última e definitiva palavra sobre o assunto. Nós freqüentemente afirmamos que trabalhos isolados não são em geral os grandes avanços (“breakthroughs”) sugeridos pela imprensa ou pelos sítios de comentários, e este caso é um bom exemplo.

Kossin et al desenvolvem um algoritmo baseado em dados do Atlântico Norte que podem teoricamente ser utilizados com os dados de menor resolução do início das séries históricas e de regiões mais remotas. Enquanto esta técnica funciona bem no Atlântico Norte (detectando quase todas as tempestades observadas no dado padrão), ela não funciona tão bem em outras regiões – possivelmente porque as características dos ciclones tropicais não são universais, ou porque a resolução dos dados iniciais de sensoriamento remoto ainda é insuficiente. O pior desempenho em outras regiões é certamente uma razão para antecipar que mais trabalho será necessário para refinar estas estimativas, e deveria servir como um sinal de alerta para aqueles buscando conclusões definitivas.

Como esta pesquisa se encaixa com alguns dos trabalhos precedentes? Bem, ela confirma a forte tendência de aumento no Atlântico Norte (visto em Emanuel, 2005), mas não mostra tendências significativas em outras regiões (desde 1983). Este resultado não pode, entretanto, ser diretamente comparado com os de Webster et al (2005), uma vez que suas tendências começam nos anos 1970, e a brevidade da nova re-análise (somente 23 anos) enfatiza a variabilidade interanual e decadal associada ao El Niño, por exemplo. Então, é improvável que o estudo de Kossin et al venha a esclarecer muito sobre a ligação potencial entre aquecimento global e a intensidade dos furacões.

Em resumo, leia os trabalhos e comentários mas não acredite no oba-oba.

Fonte: RealClimate

União Européia Anuncia Acordo Contra Efeito Estufa

A União Européia (UE) chegou a um acordo com metas "ambiciosas e dignas de crédito" para combater a mudança climática e as necessidades energéticas do bloco, disse a chanceler alemã, Angela Merkel, após uma reunião de líderes da UE.

O acordo compromete a Europa com cortes obrigatórios na emissão de gases do efeito estufa e exige que até 2020 um quinto da energia consumida no bloco venha de fontes "verdes", como painéis solares e turbinas de vento, e que 10% dos carros rodem com biocombustíveis. Num gesto polêmico, o acordo reconhece o papel da energia nuclear no combate às emissões de gás carbônico.

"Esta é uma diferença qualitativa nova, em termos da questão das fontes de energia", disse Merkel, ao anunciar o plano, que requer que as emissões de gases do efeito estufa caiam, até 2020, em 20% em relação aos níveis de 1990, e que 20% da energia do bloco venha de fontes renováveis, uma elevação tremenda em relação ao nível atual, de pouco mais de 6%.

Fonte: Paul Ames, Associated Press

segunda-feira, 5 de março de 2007

Quantas árvores você deve plantar?

Já é possível saber quantas ávores um cidadão deve plantar anualmente para neutralizar suas emissões de CO2 para a atmosfera. O site The Green Initiative formulou uma calculadora de CO2, chamada de calculadora verde. Para estimar suas emissões e verificar o número de árvores que você deveria plantar clique aqui.

Aerossóis: A Última Fronteira?

Comentário convidado de Juliane Fry, UC Berkeley

O Quarto Relatório de Avaliação do IPCC 2007 Sumário para Políticos recentemente divulgado, nos lembra que os aerossóis permanecem o menos compreendido componente do sistema climático. Aerossóis são partículas sólidas ou líquidas suspensas na atmosfera, consistindo de (em ordem aproximada de abundância): sal marinho, poeira mineral, sais inorgânicos como o sulfato de amônia (que vem de fontes naturais e antropogênicas, como a queima de carvão), e aerossóis carbonatados como a fuligem, emissões de plantas, e combustíveis fósseis incompletamente queimados. Como deve ser aparente desta lista, há muitas fontes de aerossóis, mas mudanças foram observadas, em particular na carga atmosférica de aerossóis carbonatados e sulfatos, que se originam em parte da queima de combustíveis fósseis. Apesar de serem uma parte relativamente pequena da massa total de aerossóis, mudanças na contribuição antropogênica dos aerossóis desde 1750 resultaram numa forçante radiativa média de aproximadamente -1.2 W/m2, relativa a uma forçante global devido ao CO2 de +1.66 W/m2.

Figura SPM-2, mostrada aqui, compara a forçante radiativa para gases de efeito estufa e outros agentes, junto com uma avaliação do nível de entendimento científico (cuja sigla em inglês é LOSU), para cada componente. Nesta figura, está claro que os aerossóis contribuem com a maior forçante negativa (resfriamento), e que seu nível de entendimento varia de “baixo” a “meio baixo”. Os efeitos dos aerossóis se dividem em duas categorias: (1) efeitos diretos, relativos ao espalhamento ou à absorção da radiação pelos aerossóis, influenciando a quantidade líquida de energia que chega à superfície da Terra, e (2) efeitos indiretos, como o albedo das nuvens, referindo-se a como a presença dos aerossóis aumenta a refletividade de nuvens ao proporcionar um número maior de núcleos para a formação de gotas, reduzindo a quantidade de energia que chega a superfície. Isto já representa um passo a frente com relação ao último relatório, , onde o LOSU para os aerossóis variava de muito baixo a baixo, e nenhum valor mais provável era assinalado para a parte “indireta”.

Esta figura virtualmente sugere por que melhorar nossa compreensão sobre o papel dos aerossóis no clima é tão importante: enquanto a forçante radiativa líquida global é positiva (aquecimento), aerossóis representam as forçantes negativas (resfriamento) dominante. Consequentemente, os aerossóis atualmente em nossa atmosfera estão atuando de forma a mascarar parte do aquecimento induzido pelos gases de efeito estufa (GEE). Isto significa que ao agirmos para reduzir o uso de combustíveis fósseis para melhorar a qualidade do ar e atacar o aquecimento global, devemos ter em mente como estas mudanças nas emissões vão impactar a concentração e a composição dos aerossóis.

Além disso, nossa deficiência em compreender os aerossóis também prejudica nossa habilidade de utilizar o moderno registro de temperaturas para restringir a “sensibilidade climática” – o parâmetro operacional para determinar exatamente quanto de aquecimento resultará de um dado aumento na concentração de CO2. A determinação da sensibilidade climática foi discutida anteriormente neste fórum aqui. O parâmetro de sensibilidade pode ser obtido a partir do exame dos registros históricos da correlação entre a concentração de CO2 e a temperatura, levando-se em conta outras mudanças contemporâneas. Aerossóis contribuem significativamente para a incerteza na sensibilidade climática pois não podemos modelar o seu impacto no registro de temperaturas com precisão suficiente, apesar de existirem certas restrições à sensibilidade climática, como a última era glacial. Um melhor entendimento sobre aerossóis pode permitir previsões mais acuradas sobre a resposta do clima futura a variações no CO2.

Os tempos de vida relativos do CO2 e dos aerossóis na atmosfera resultam na expectativa de que uma redução no uso de combustíveis fósseis acelerará o aquecimento. A molécula do CO2 tem um tempo de vida de aproximadamente 100 anos na atmosfera, enquanto uma partícula de aerossol possui uma expectativa de vida média de apenas 10 dias em média. Assim, se nós instantaneamente pararmos de usar motores a combustão, os aerossóis (resfriadores) associados aos combustíveis fósseis seriam removidos da atmosfera em algumas semanas, enquanto as (aquecedoras) moléculas de CO2 permaneceriam por muito mais tempo, deixando uma forçante líquida positiva devido a redução das emissões por um século ou mais.

Assim, o que precisamos saber mais sobre os aerossóis para estreitar as barras de erro da Figura SPM-2? Para modelar precisamente o seu impacto no clima, necessitamos saber mais sobre todos os aspectos da vida dos aerossóis: suas diversas fontes, seu processo de envelhecimento (e como este afeta suas propriedades radiativas), como se misturam e os mecanismos e as escalas de tempo de sua remoção da atmosfera. Como o IPCC 2004 4AR deixará claro, percorremos um longo caminho na compreensão dos aerossóis atmosféricos, mas há ainda muito espaço para melhorarmos.

Fonte: RealClimate

domingo, 4 de março de 2007

Energia Nuclear: Um Retorno?

Devido ao impacto do uso de combustíveis fósseis no clima do planeta, no mundo todo a opção nuclear volta a ser considerada seriamente pelos governos. A Revista Desafios do Desenvolvimento, do IPEA, em seu número de janeiro de 2007, analisa as perspectivas do retorno das usinas nucleares como opção energética para o Brasil:

"Depois de passar algumas décadas no papel de vilã das fontes energéticas, a energia nuclear volta a ocupar espaço nas diretrizes dos projetos de diversificação da matriz de energia elétrica brasileira anunciados pelo governo federal. A proposta divulgada no Plano Decenal de Energia Elétrica (2006- 2015), elaborado pela Empresa de Pesquisa Energética (EPE), do Ministério de Minas e Energia (MME), prevê a possibilidade de funcionamento de Angra 3 em 2013, com a injeção de recursos, inicialmente, de 1, 8 bilhão de dólares. A usina, com capacidade de 1.350 MW, é uma pauta polêmica e tornou- se um grande problema de gestão para o país, desde 1975. A termonuclear já consumiu cerca de 750 milhões de dólares em equipamentos e, apesar de estar inativa, sua manutenção custa cerca de 20 milhões de dólares por ano.

A aprovação ou não da implementação de Angra 3 está sob análise do Conselho Nacional de Política Energética (CNPE), presidido pelo ministro de Minas e Energia, Silas Rondeau, e pode vir a sofrer alterações de prazos quanto à operação na nova versão do plano decenal (2007-2016), de acordo com a assessoria de imprensa da EPE. A palavra final caberá ao presidente Luiz Inácio Lula da Silva."

quinta-feira, 1 de março de 2007

Nanoengenharia de Concreto pode Reduzir Gases de Efeito Estufa

CBC News, 30 de Janeiro de 2007.

Cientistas que estudam a nanoestrutura do concreto dizeram que uma mudança no processo de criar o amplamente utilizado material poderia reduzir significativamente as emissões de dióxido de carbono no mundo todo.

Testes conduzidos por um time de engenheiros do Instituto de Tecnologia de Massachusetts (MIT) descobriram o segredo de que a força da camada de cimento não está em seus ingredientes, mas no modo em que suas menores partículas estão arranjadas.

“Se tudo depende da estrutura organizacional das nanopartículas que formam o concreto, ao invés do próprio material, nós podemos imaginar substituí-lo por outro material que possua as características do concreto – força, durabilidade, disponibilidade de massa e baixo custo – mas que não emita tanto CO2 na atmosfera durante sua fabricação”, disse Franz-Josef Ulm, professor de engenharia civil e ambiental do MIT.

Cimento – uma mistura de rocha calcárea (limestone), argila e água que forma uma cola unindo minerais em concreto – naturalmente se alinha como uma estrutura ideal forte e durável, encontrou o time do MIT.

Examinando as partículas de cimento de somente cinco nanômetros – ou cinco bilionésimos de um metro – em diâmetro, Ulm e seu time encontraram que eles naturalmente organizaram objetos esféricos no mais denso arranjo possível: uma de pirâmide similar a uma pilha de laranjas numa quitanda.

Mas enquanto sua estrutura possui uma densidade fixa, fazer cimento requer o aquecimento do calcário e da mistura de argila em temperaturas tão elevadas quanto 1480 graus C, um processo que produz muito do dióxido de carbono emitido durante seu processo de fabricação.

A produção de cimento é responsável por no mínimo 5 por cento do total das emissões mundiais de dióxido de carbono, o que tem sido visto como um grande contribuidor para o aquecimento global.

Os pesquisadores disseram que replicar a estrutura do cimento poderia ser possível sem o processo de intensivo aquecimento do calcário e argila se um material alternativo pudesse ser encontrado.

Ulm disse que está atualmente verificando o magnésio como uma substituição em potencial do cálcio no pó de cimento.

“O magnésio é um metal alcalino-terroso, como o cálcio, mas é um material disperdiçado que as pessoas têm que pagar para jogá-lo fora", disse ele .

A produção annual total de cimento foi de 1652 milhões de toneladas, de acordo com a Canadá Ambiental de 2001. Indústrias de cimento no Canadá produzem 13,6 milhões de toneladas de cimentos, ou menos que 1% da produção mundial.