quinta-feira, 1 de agosto de 2013

Por que 2ºC?

Uma pergunta frequente em debates sobre mudanças climáticas se refere ao objetivo acordado pelos países participantes da cop15, em 2009: Evitar que o aumento da temperatura média do planeta chegue a 2ºC. Mas por que 2ºC e não 1,5ºC ou 3ºC?

A Convenção do Clima foi aprovada em 1992 com o objetivo de “estabilizar a concentração de gases de efeito estufa na atmosfera em um nível que previna uma interferência antropogênica perigosa sobre o sistema climático. Este nível deve ser atingido em um período suficiente que permita que os ecossistemas se adaptem naturalmente às mudanças climáticas, para assegurar que a produção de alimentos não seja ameaçada e permitir que o desenvolvimento econômico aconteça de maneira sustentável”.

Com apenas um relatório do IPCC – Painel Intergovernamental de Mudanças Climáticas da ONU publicado até então, nesse ano não havia elementos suficientes para definir metas mais concretas sobre o nível de concentração dos gases. A publicação do 4o. Relatório do IPCC, em 2007, apresentou uma série de dados e informações com maior grau de certeza sobre os cenários de aumento da concentração dos gases de efeito estufa, os impactos no aumento da temperatura e as possíveis consequências para o sistema climático global e para humanidade.

Nesse Relatório , o IPCC apontava que, em algum ponto entre 1,9ºC e 4,6ºC de aumento médio de temperatura, existe alto risco de ocorrer mudanças abruptas e irreversíveis no sistema climático envolvendo correntes oceânicas, derretimento de geleiras, aumento do nível dos oceanos, perda massiva de biodiversidade e de capacidade produtiva agrícola entre outros impactos. No caso da biodiversidade, indicava que um aumento de 1,5ºC a 2,5ºC pode levar a extinção de 20 a 30% das espécies.

Por outro lado, os diversos cenários desenhados por estudos científicos indicam que, para a temperatura não aumentar acima de 1,5ºC, a concentração de gases não pode passar de cerca 320 ppm. Acima de 400 ppm, a chance de limitar a temperatura em 1,5 ºC cai para menos de 10%. O relatório apontava ainda que a concentração de gases da atmosfera, em 2004, chegaria a 385 ppm, enquanto que, em milhares de anos até o final do século 19, não havia passado de 300 ppm.
Para poder planejar e construir um novo acordo sobre mudanças climáticas, mais efetivo e robusto, era preciso definir de forma mais concreta a referência para alcançar a meta da convenção. Limitar em 2ºC é uma decisão politica tomada em 2009, no âmbito do Acordo de Copenhague que procurava combinar a capacidade e os limites de adaptação às mudanças do clima e, ao mesmo tempo, as possibilidade e os limites para mitigar as emissões de forma a garantir o desenvolvimento dos países.

Dois graus representam quase o limite quase acima do qual as mudanças climáticas tornam-se abruptas e irreversíveis. Temos 50% de chance de limitar o aquecimento a 2ºC. Esse limite também serve de referência para embasar os programas de adaptação às mudanças do clima que, ainda assim, vão ocorrer.
O próprio Acordo de Copenhague reconhece que melhor seria tentar limitar em 1,5ºC quando propõe que, na avaliação da implementação do Acordo, prevista para 2015, a proposta seja reavaliada e reconsiderada.
O fato é que, em 2013, a marca de 400 ppm foi alcançada e não existem perspectivas de que o pico das emissões globais vá ocorrer antes de 2020. Portanto, o cenário de 2ºC está cada vez mais distante e as chances de que ele ocorra caem a cada dia. Nas condições atuais, as chances de a temperatura média subir 4ºC entre 2050 e 2070 é bem maior do que 2ºC. E este seria um cenário trágico que devemos evitar a qualquer custo. Como o aumento de temperatura médio não é homogêneo, determinadas regiões poderiam ter aumento médio de 10ºC neste cenário.

A temperatura média da Terra é de cerca de 14ºC. Um aumento de 2oC equivale proporcionalmente a uma febre de 40ºC em uma pessoa. Imagine o que significam 4ºC.
O 5º. Relatório do IPCC, que começará a ser divulgado em setembro próximo, deverá trazer ainda mais luz e informação sobre os limites que precisamos observar. A conferir.



Agenda do Clima

Os próximos 30 meses serão decisivos para o enfrentamento das mudanças climáticas. Em dezembro de 2015, em Paris, lideranças de todo mundo se reunirão para fechar o novo acordo global sobre mudanças climáticas com previsão de metas e compromissos para todos os países e um conjunto amplo de instrumentos para viabilizar o seu alcance.

Desde o estabelecimento do Painel Intergovernamental de MudançasClimáticas (IPCC), em 1988, o entendimento do tema e suas consequências vieram se consolidando. Sabemos que a temperatura média do planeta está realmente crescendo em ritmo acelerado e que o balanço dos aspectos positivos e negativos deste aumento resulta negativo, especialmente acima dos 2oC de acréscimo. Sabemos com alto grau de certeza que a principal razão para este aquecimento é o aumento da concentração de gases de efeito estufa (GEE) na atmosfera causado essencialmente pela atividade humana direta ou indireta como a queima de combustíveis fósseis, o desmatamento e a degradação florestal e o aumento de resíduos.
Infelizmente o aumento da compreensão sobre mudanças climáticas não vem sendo acompanhada de medidas efetivas para mitigá-las em escala compatível com a urgência e a magnitude do problema. Desde 1992, quando foi assinada a Convenção Quadro das Nações Unidas sobre Mudanças Climáticas as emissões de GEE, que deveriam diminuir, saltaram de 37 Gt CO2e para mais de 50 GtCO2e em 2012:  um aumento de 35% e ainda crescendo a uma taxa de 2-3% ao ano.
Segundo o IPCC, para ter cerca de 50% de chance de limitar o aumento da temperatura média ao teto de 2oC até 2050 também é preciso limitar a concentração de GEE em 450 ppm (partes por milhão). Esta concentração, que nos últimos 800 mil anos não havia passado de 300 ppm, atingiu a marca de 400 ppm em 2013. Para ter 50% de chance de manter a concentração de GEE em 450 ppm é preciso baixar as emissões em 80% até 2050.
Mas, em 2009, a Conferência de Copenhague não tinha como objetivo conseguir um grande acordo para reduzir as emissões e enfrentar as mudanças climáticas? Porque deveria ser diferente agora?
O avanço nas negociações, nos últimos 3 anos, possibilitou o histórico acordo de Cancun, no qual os países se comprometeram em construir um novo acordo global tendo como ponto de partida metas e compromissos para todos. A falta de concordância sobre este ponto foi um dos maiores entraves em 2009, ainda agravado pela distância e o desequilíbrio entre  as posições dos principais emissores de GEE, em especial China e EUA que respondem por quase 1/3 das de todas as emissões do planeta. Recentemente, os dois países apresentaram seus planos para o enfrentamento das mudanças climáticas que irão romper com a trajetória de crescimento de emissões vigente. Em 2020, os EUA estarão com suas emissões em queda de forma consistente e a China em forte processo de desaceleração das emissões. Isto ainda não é suficiente para reverter o quadro crítico atual, mas já representa uma enorme reversão da tendência.
Os seguidos registros de recordes de temperatura, seca, incêndios registrados na ultima década estão ampliando a percepção mais concreta na comunidade internacional sobre a necessidade de agir. A divulgação do 5º relatório do IPCC –que se inicia em setembro próximo com os dados da Ciência do Clima, e se encerra em abril de 2014 com a publicação dados sobre impactos, adaptação e mitigação das mudanças climáticas – deverá consolidar esta visão e oferecer a base do conhecimento que deve nortear o novo acordo em construção.

quarta-feira, 10 de julho de 2013

Energia mais suja e cara

Entre 2005 e 2010 houve uma enorme mudança no padrão de emissões de gases de efeito estufa no Brasil.  Dados divulgados em junho pelo Ministério da Ciência e Tecnologia, mostram que as emissões totais de GEE do Brasil caíram 38,7% resultado formidável e explicado pela queda de mais de 70% das emissões oriundas de desmatamento. Por outro lado, as emissões dos demais setores cresceram  quase 12% puxados principalmente pelo setor de energia que aumentou em 21,4% as emissões.

O setor de energia que representava 16% das emissões em 2005, em 2010 atingiu 32%. Desde então a situação só se agravou. As termoelétricas convencionais (diesel, carvão, gás) que deveriam ser utilizadas apenas como energia de reserva, ligada em situações esporádicas (em geral até 30 dias por ano) estão ligadas continuamente desde meados de 2012.

O Ministro de Minas e Energia acaba de anunciar o desligamento de parte destas termoelétricas a partir de julho. Para além dos enormes custos que ocasionaram (cerca de R$ 1,4 bilhão por mês) tiveram enorme impacto nas emissões de GEE.

Em 2011 as emissões geradas para produzir energia elétrica no Sistema Integrado Nacional foi de 14,8 milhões de tCO2 (o equivalente a emissão de 14 milhões de carros populares rodando com gasolina). Em 2012 estas emissões ultrapassaram 34 milhões de tCO2, ou seja, um aumento de 130%. Apenas nos seis primeiros meses de 2013 as emissões já superam 28 milhões de tCO2.

Neste contexto, é um paradoxo a decisão da Empresa de Planeamento Energético e do MME realizar um leilão exclusivo para energia de termoelétricas, com destaque para o carvão mineral, a fonte mais poluente.  A lógica é de trocar a geração de reserva por geração de base, continua, com vistas a redução de custos. Assim, o que antes era um aumento circunstancial das emissões se tornará um fato consumado e sedimentado para os próximos anos, tornando mais poluente nossa matriz energética no momento em que o planeta precisa de energia mais limpa.

Enquanto isso desperdiçamos cerca de 2 GWh de potencial de produção Eólica (já instalados e prontos para operar) e outros 4 GWh de cogeração com bagaço de cana por falta de linhas de transmissão e entraves burocráticos.  Se tivessem sendo aproveitadas estaríamos evitando mais de 50% das emissões das termoelétricas ligadas nos últimos meses.

Ainda  é tempo de rever o leilão de termoelétricas marcado para agosto e recolocar o Brasil no trilho de uma matriz energética mais limpa.

Publicado em O GLOBO em 10/07/2013



quarta-feira, 12 de junho de 2013

A Máquina de Escrever e o Planejamento Energético

No início dos anos 90 os escritórios tinham dezenas de máquinas de escrever e alguns computadores até então ainda caros, de difícil acesso, e ainda pouco amigáveis. Apesar do cenário aparentemente vantajoso, alguém que investisse numa fábrica de máquina de escrever naquele momento teria visto seu negócio desaparecer uma década depois. Na virada do século sobreviviam apenas algumas poucas fábricas no mundo, e a última fechou as portas na Índia em 2011. Hoje um celular tem mais de 40 vezes a capacidade de processamento do melhor PC de 20 anos atrás.
No campo energético estamos vivendo uma revolução similar. A energia oriunda de combustíveis fósseis, muito poluente e não renovável, ainda é a principal fonte de energia da matriz global. Porém, a curva de aprendizado de uso desta energia apresenta pouquíssimos ganhos incrementais enquanto outras fontes, como eólica e solar que recém-começaram a ganhar escala, ainda estão no início da curva de aprendizagem, e os ganhos de eficiência e redução de custos ainda têm enormes espaços para serem desenvolvidos.
Apenas para ilustrar, em menos de 10 anos as placas fotovoltaicas (que utilizam apenas uma fração da energia do Sol que chega à Terra) dobraram sua eficiência, ou seja, produzem o dobro da energia por m². Em laboratório, pesquisadores da Universidade de Standford já desenvolveram novos métodos e compostos capazes de aumentar a eficiência dos painéis solares em mais de 100 vezes utilizando um maior espectro da luz solar.
Em 20 anos, as fontes de energia renovável de baixo impacto como solar serão dominantes nos novos projetos e na renovação do parque energético ao redor do planeta. Isso será essencial para reduzir 2/3 das atuais emissões globais de CO2 oriundas do setor de energia para mitigar as mudanças climáticas.
A visão antecipatória destes fenômenos de transformação é crucial para o planejamento de longo prazo como o Plano Nacional de Energia - PNE 2050, que se encontra em processo de desenvolvimento pela EPE e deve ser lançado em 2014. Os termos de referência publicados em maio apontam, ainda que de forma tímida, esta evolução de cenário e a possibilidade de considerar outros fatores além da modicidade tarifária para planejar a composição de nossa matriz energética em 2050.
Este trabalho é fundamental para garantir que deixemos de caminhar de olho no retrovisor, promovendo a construção de novas usinas térmicas a carvão mineral como se estivéssemos investindo em fabricar máquinas de escrever 20 anos atrás.
Publicado em O Globo, 12 de junho 2013

quarta-feira, 8 de maio de 2013

Medida de Progresso

Várias iniciativas nos últimos anos buscam identificar o progresso de um país ou uma sociedade. Em comum todas partem do reconhecimento de que o PIB (produto interno bruto) é uma medida bastante limitada que expressa apenas o crescimento econômico e tem limites mesmo para este propósito (por exemplo, uma guerra muitas vezes é acompanhada de crescimento econômico).

Ainda assim o crescimento do PIB é utilizado como pilar central do objetivo de desenvolvimento de boa parte dos países do mundo. O principal índice alternativo hoje utilizado é o IDH - Índice de Desenvolvimento Humano que se limita a três dados: renda, escolaridade e expectativa de vida.

Recentemente foi lançado pela Social Progress Imperative, uma ONG americana, o Índice de Progresso Social (IPS) que procura medir a capacidade de uma sociedade (i) atender as necessidades humanas fundamentais (ex. alimentação, moradia, segurança), (ii) estabelecer a infraestrutura e as bases que permitem ao cidadão e à comunidade melhorar e sustentar a qualidade de suas vidas (ex. ambiente saudável, acesso a educação básica e a informação) e (iii) oferecer a oportunidade para que todos os indivíduos possam atingir seu pleno potencial (ex.acesso ao ensino superior, liberdade de expressão, direito das minorias).

O IPS foi desenvolvido por uma equipe coordenada por pesquisadores da Universidade de Harvard e do MIT inspirados na ideia de produzir um índice similar ao Índice de Competitividade Global, mas voltado para a capacidade de inovação social e ambiental.

Na primeira edição do Índice envolvendo 50 países (serão 100 em 2014) a Suécia aparece como o país de maior progresso social (64,8 de 100 pontos possíveis), seguida de Inglaterra, Suíça, Canadá e Alemanha.  Nenhum desses países está entre as cinco maiores rendas per capita do planeta (Suécia é 13o; Inglaterra, 22o; Suíça, 7o; Alemanha, 17o; e Canadá, 16o) ou IDH (Suécia, 7o e Inglaterra, 24o).

O Brasil é o 18o na lista atrás de Chile (14o), Argentina (15o) e Costa Rica (12o). Considerando o atendimento às necessidades humanas fundamentais, o Brasil cai para 30o. Apesar dos progressos na última década nas políticas sociais (é o 2o no indicador de políticas inclusivas) ainda temos um longo caminho pela frente em temas como segurança onde temos um dos piores desempenhos (46o entre os 50 países avaliados).

A equipe que desenvolveu o IPS trabalha agora o Índice de Potencial de Progresso Social que pretende medir a capacidade de um país evoluir no progresso social. Talvez neste consigamos, hoje, enxergar o Brasil do futuro.

Publicado em O Globo, 08/05/2013 

quarta-feira, 10 de abril de 2013

Baterias Inteligentes


O armazenamento de energia é fundamental conferir a flexibilidade necessária para que o sistema elétrico possa se ajustar a oferta à demanda de energia.  Quando ligamos um notebook na tomada, ele armazena carga na bateria ao mesmo tempo que te permite trabalhar com o aparelho. Em países que tem como base energética as usinas termoelétricas o armazenamento se dá nos estoques de combustíveis (óleo combistível, gás etc). No sistema elétrico brasileiro a função da bateria é exercida basicamente pelo reservatório das Usinas Hidroelétricas.

Mas, com o grosso da expansão das hidroelétricas está na  Amazônia em regiões que por razôes técnicas, economicas e ambientais os reservatórios precisam ser significativamente menores, é preciso pensar outras alternativas para manter a flexibilidade com fontes renováveis e não apenas recorrer termoelétricas poluidoras como fazemos atualmente no país.

Algumas das mais promissoras fontes de energia renovável, como solar e eólica, ainda sofrem bastante resistência para expasão por não possuírem mecanismos próprios de armazenamento em larga escala.

Nos últimos anos uma enorme gama de inovações tem surgido para viabilizar o armazenamento direto das energias solar e eólica. Nos Estados Unidos centenas de usinas eólicas operam apenas bombeando água para os reservatórios de pequenas centrais hidroelétricas. Uma recente patente da Apple (seria o iEnergy?) descreve um sistema onde energia eólica e solar são utilizadas para aquecer um tanque de líquido de baixa condutividade (precisa bastante energia para aquecer poucos graus) que se conecta por uma membrana a um tanque menor de líquido de alta condutividade que gera vapor e movimenta uma turbina.

São várias alternativas, mas talvez o mais interessante seja a criação de baterias inteligentes, que podem ser programadas para armazenar energia nos momentos de maior oferta e devolver à rede energia nos momentos de maior demanda. Hotéis nos Estados Unidos já utilizam sistemas de baterias inteligentes para armazenar energia durante os períodos do dia de tarifa mais baixa e utilizar esta energia no momento de maior demanda no hotel, o final da tarde, quando as tarifas da rede são também mais caras.

Antes do final da década a questão da flexibilidade da energia solar e eólica estará superada e quem sabe todas as baterias de nossos diferentes equipamentos terão a capacidade de interagir com a rede e contribuir para a operação do sistema de armazenamento de energia.

Publicado em O Globo em 10 de Abril de 2013

quarta-feira, 13 de março de 2013

Pimentão Envenenado


Organofosforado, piretroide, benzimidazol, metilicarbamato de oxima, dicarboximida, ditiocarbamato, clorociclodieno e pirimidinil carbinol. Estes são alguns dos agrotóxicos de uso proibido no Brasil cujos resíduos foram encontrados em 1 de cada 4 amostras de frutas, legumes e verduras realizada em todos estados brasileiros em 2010 em estudo publicado pela ANVISA como parte do Programa de Análise de Resíduos de Agrotóxicos em Alimentos conduzido pela agência desde 2001.

Se se somarem a estes dados os residuos de agrotóxicos autorizados, mas em quantidade superior aos limites de tolerância, quase 30% amostras apresentava irregularidades e representam uma ameaça a saúde dos consumidores.

Observado os dados para diferentes culturas, é ainda mais chocante. Se você, assim como eu, adora pimentão (hábito que herdei de meu pai), a chance de estar comendo um produto contaminado com estes agroquímicos é de mais de 90%.

Os agrotóxicos são um dos principais responsáveis por doenças crônicas não transmissíveis (DCNT) que segundo Nota Técnica da ANVISA podem gerar sintomas como dores de cabeça, alergia e coceiras até distúrbios do sistema nervoso central ou câncer.

Segundo o Ministério da Agricultura entre 2002 e 2011 a produção agrícola cresceu cerca de 46%. No mesmo período o consumo de fertilizantes nitrogenados cresceu 89% e de agrotóxicos cerca de 60%.  O Brasil é desde 2008 o maior usuário de agrotóxicos do planeta, quase 20% do mercado mundial.

O uso excessivo de agroquímicos não impacta apenas a qualidade dos alimentos, mas tem consequêcias na contamição dos cursos dágua, do solo e dos trabalhadores expostos a estes produtos.

Curiosamente, apesar da gravidade dos resultados da pesquisa anual – com pouca ou nenhuma evolução ao longo dos anos – a ANVISA limita-se a fazer recomendações sobre ações que poderiam reduzir a contaminação. Ninguém é responsabilizado por vender produtos contaminados com agroquímicos proibidos, não licenciados ou fora dos limites de tolerancia de resíduos. Esta situação seria equivalente a encontrar  1 em cada 4 produtos de um comércio com data de validade vencida e não tomar qualquer atitude de responsabilização. Não faz sentido.

Segundo o estudo da ANVISA, em apenas 30% das amostras foi possível identificar o produtor ou associação de produtores responsável pelo produto. Ou seja, a cadeia de valor não tem sistemas que permitam saber a origem dos alimentos que eles vendem e tão pouco tem sistemas para aferir a presença de residuso químicos irregulares destes mesmos alimentos.

É fundamental que os orgãos de controle, como a ANVISA, exijam dos varejistas a garantia de que 100% dos produtos estejam livres de contaminação. E, em tempos de responsabilidade social corporativa em alta, é imperativo que os varejistas se antecipem e comecem a trabalhar imediatamente na cadeia de fornecimento para garantir que somente alimentos seguros e saudáveis cheguem as suas prateleiras.

Quero voltar a olhar para o pimentão como um alimento saudável que faz lembrar os hábitos de infância e não o risco de contaminação.

Publicado em O Globo em 13/03/2013