sexta-feira, 30 de janeiro de 2009

A confusão entre Áreas de Preservação Permanente e Reserva Legal

Recentemente escrevi aqui neste espaço sobre a Reserva Legal (RL), a qual se trata de um percentual das propriedades rurais que, por determinação do Código Florestal, deve ser mantido preservado. Porém, noto que há uma certa confusão sobre os conceitos de Reserva Legal e Área de Preservação Permanente (APP), e a aplicação dos mesmos. Por isso julguei ser útil esclarecer aqui, complementarmente ao meu artigo anterior, as diferenças entre as duas entidades.
No caso da RL, o percentual da área de cada propriedade a ser preservado, para o sul do Brasil é de 20%. Inclusive na Amazônia este percentual, que é de 80%, está hoje no cerne dos desentendimentos entre nossos ministros Carlos Minc e Reinhold Stephanes, pois este último pleiteia sua redução para 50%. Já a APP (que em muitos casos é chamada popularmente de mata ciliar) trata-se de áreas a serem preservadas com as finalidades, entre outras, de prevenir a erosão dos solos e o assoreamento dos rios, localizando-se por isso à margem de corpos d’água, topo de morros e locais com elevada declividade. A APP é uma área ALÉM da RL que deve ser destinada a preservação, de modo que as duas NÃO SE SOBREPÕEM, a não ser em alguns casos específicos que serão citados mais adiante.
A largura mínima da APP, para os rios com menos de 10 m de largura, é de 30 m em cada uma das margens, medidos a partir do nível mais alto.
Para os rios com largura de 10 a 50 m, a APP é de 50 m. Para rios mais largos há outros tamanhos de APP, porém não há casos deste tipo em São Bento do Sul e região. Outros casos que ocorrem na região são:
- Ao redor de nascentes, onde deve ser mantida uma faixa de 50 m;
- Em lagoas naturais rurais com superfície de até 20 hectares, 50 m;
- Lagoas artificiais rurais com superfície de até 20 hectares, não utilizadas para geração de energia elétrica, APP com 15 m de largura;
- Lagoas rurais naturais ou artificiais com superfície maior que 20 hectares, 100 m de APP;
- No topo de morros e montanhas, a partir da curva de nível correspondente a dois terços da altura com relação a base; e
- Em encostas com inclinação superior a 45 graus.
Para ter uma visão mais completa da questão e aplicável a outras situações e regiões do país, recomendo uma leitura de Lei Federal nº 4.771/65 e suas alterações, Resolução do CONAMA nº 302/02 e Resolução do CONAMA nº 303/02.
O tamanho da APP tem sido, inclusive, objeto de discussão em Santa Catarina. A Lei nº 0238.0/2008, ainda em tramitação, reduz a APP em algumas situações, a exemplo das margens de rios onde esta poderia chegar a até 5 m. O projeto de lei fere diretamente a lei federal (Código Florestal) neste quesito, situação que, teoricamente, não poderia ocorrer.
Voltando à questão dos casos em que a APP pode ser inclusa no cômputo da RL, há duas situações básicas em que isto ocorre:
1) Em pequenas propriedades, quando a APP for superior a 5% de sua área total, esta poderá ser contabilizada na composição de RL
2) Nas demais propriedades, quando a APP for superior a 30% da área, até 60% desta poderá ser computada para constituição da RL.
São consideradas pequenas propriedades, no sul do Brasil, aquelas com até 50 hectares, exploradas mediante trabalho pessoal de proprietário ou posseiro que obtenha um mínimo de 80% de sua renda bruta desta, mediante atividade agroflorestal ou extrativista.
Como os leitores podem perceber, “há casos e casos”. Apresentei aqui, na intenção de descomplicar um pouco a interpretação da lei, um resumo das situações que julgo mais comuns para a região. Há várias outras situações ainda previstas na legislação, como a dos imóveis urbanos e dos localizados nos litoral e em outras regiões do país. Porém espero que conseguido esclarecer aqui aquelas que mais freqüentemente geram dúvidas aos proprietários rurais de nossa região.

quarta-feira, 28 de janeiro de 2009

Países à venda. Tratar aqui. E ali.

Mencionamos em nossa última coluna a cadeia alimentar e o equilíbrio que esta mantém com o ambiente físico, quando em estado natural e balanceado. Hoje mencionaremos os aspectos energéticos da cadeia alimentar e suas surpreendentes consequências ambientais e fundiárias.

Pense no destino metabólico do que você come: se você é um adulto moderado (por opção ou obrigação) tentará consumir o suficiente para manter seu peso. A matéria que você ingere será fonte de combustível para seu metabolismo, fonte de peças de reposição (eletrólitos, aminoácidos, vitaminas, micronutrientes) e de resíduos sólidos e líquidos. Se você ingere mais do que é capaz de metabolizar, ganhará peso e alimentará a próspera indústria que promete nos livrar daqueles quilinhos a mais.

As crianças, ao contrário, devem consumir mais do que o mínimo de subsistência para poder investir o saldo energético no seu desenvolvimento e crescimento. E todo pai ou mãe sabe a quantidade de comida que crianças saudáveis devoram ao longo do ano para aumentar seu peso em uma pequena fração do peso de alimento consumido no período.

Herbívoros e carnívoros têm, assim, este drama em comum: vivem direta ou indiretamente da fotossíntese dos vegetais, e enormes extensões de vegetação sustentam grandes manadas de herbívoros, que por sua vez garantem o sustento de uns poucos carnívoros. Portanto, você nunca verá grandes manadas de leões ou onças, ou revoadas de gaviões, a não ser em filmes-catástrofe de Hollywood.

Mas há um detalhe fundamental nos exemplos acima: herbívoros e carnívoros não têm livre arbítrio, a vaca nunca poderá se alimentar de frango, nem a onça de brócolis. Mas nós, os cupins do planeta, somos onívoros. Temos um largo leque de opções de dieta, do estrito vegetarianismo à carnivoria quase estrita, cada opção com uma pegada ecológica diferente.

A opção carnívora é a que exerce a maior pressão sobre o ambiente, traduzida em maior consumo de recursos como terra e água, entre outros, emissão de carbono etc. Mas as diferentes opções carnívoras podem diferir enormemente em sua pegada ecológica. Produzir um quilo de frango requer uma superfície e uma quantidade de água muito menor do que produzir um quilo de carne de boi.

Você acaba de entender por que um quilo de frango é mais barato do que um quilo de carne e mais caro do que um quilo de soja. Também entendeu por que um país como a Argentina, até recentemente grande produtor, consumidor e exportador de carne, tem densidade populacional muito menor do que a China, de hábitos basicamente vegetarianos.

Biosfera finita
Ouvimos cada vez mais que o atual consumo de recursos naturais pelos humanos não é sustentável e que mantê-lo só seria possível com uma biosfera e meia, ou duas. Então, se nos tornarmos todos vegetarianos da noite para o dia, estará resolvido o problema e a Terra poderá sustentar mais algumas décadas ou séculos de crescimento populacional. Certo?

Aí está o problema: não há como fazer pastagens de três andares, nem fabricar água ou solo. O universo talvez seja infinito, mas a biosfera, com certeza, é finita. Então, serão quantas décadas, e quanto crescimento populacional? Onde? E com que qualidade de vida?

Por isso a questão da segurança alimentar frequenta cada vez mais as agendas políticas nacionais e internacionais. O aumento dos preços dos alimentos no início de 2008 provocou graves distúrbios em diversos países em desenvolvimento. A disponibilidade de terra e água e a capacidade de produzir alimentos são mais do que nunca uma questão estratégica.

Não basta ter recursos para importar alimentos produzidos em outros países, já que, em caso de escassez ou crise, esses países se recusarão a exportar. Portanto, para assegurar o suprimento alimentar, torna-se necessário ter algum controle sobre o seu ciclo produtivo.

Desta forma, está em curso, nem tão silenciosamente, uma corrida às terras e mananciais de água, estejam onde estiverem. Particulares, empresas e governos estão comprando ou arrendando grandes extensões de terra em países como Argentina, Senegal, Uganda, Indonésia, Madagascar, Sudão, Etiópia e, dizem as más línguas, Brasil.

Atrás do balcão, países que ainda dispõem de grandes extensões de florestas, terras agrícolas degradadas ou subexploradas. E na fila de candidatos à compra? Países ricos, com muita população, alto consumo e pouca terra arável, como Coreia do Sul e China, e países muito ricos com nenhuma terra arável, como os chamados países do Golfo Pérsico.

Madagascar, Camboja, Senegal
A busca por novas terras não é nenhuma novidade, mas a intensidade atual do fenômeno e sua extensão global o são. Assim o Sr. Hong Yong-Wan, um dos responsáveis da Daewoo Logistics, o braço agrícola do gigante coreano Daewoo, empresa que conhecemos como montadora de automóveis, declara “em nosso mundo, a comida pode ser uma arma”. Brrrr... nunca mais olharei minha inocente (?) marmita com os mesmos olhos depois disso!

Mas essa declaração talvez explique porque a Daewoo arrendou 1,3 milhões de hectares em Madagascar – metade da superfície arável do país – por 99 anos. Pretende produzir ali 4 milhões de toneladas de milho, ou um terço da atual importação de milho da Coreia do Sul, e até 500 mil toneladas de óleo vegetal. Ambos para consumo... na Coreia do Sul.

A empresa não pagará um tostão sequer pela locação das terras; a contrapartida será investir 6 bilhões de dólares em benfeitorias nas terras em questão, ao longo de 25 anos. Talvez isso melhore as condições de vida da população local, talvez não. Pena: 70% da mesma está abaixo do nível de pobreza e metade da população infantil até 3 anos de idade sofre de desnutrição.

Já os países do Golfo Pérsico têm fortunas oriundas do petróleo e grandes territórios, mas o clima é desértico e eles importam de 70 a 90% dos alimentos que consomem. Como garantir o abastecimento interno nessas condições? Com petrodólares na mesa. Khalil Zainy, um executivo saudita, diz o seguinte: “temos projetos no Sudão, Indonésia e Senegal. São acordos em que todos ganham: eles têm as terras, e nós, o dinheiro”. Não é de se estranhar que a FAO – o braço das Nações Unidas para agricultura e alimentação – já fale em “neocolonialismo agrário”.

O Camboja, por sua vez, com sua razoável extensão e população encolhida pelos genocídios do Khmer Vermelho, está sendo cortejado pelo Kuwait e pelo Qatar. Estão em jogo ali 2,5 milhões de hectares.

Mas a China é o maior pesadelo de qualquer neocolonialista agrário. Tem um quarto da população mundial e apenas 7% das terras aráveis do planeta. Para piorar, a industrialização e a urbanização reduziram a sua superfície arável em 8 milhões de hectares em apenas 10 anos, e a desertificação avança em muitas regiões do país. Quem vai então alimentar a China? Outros países, claro!

E é impossível pensar em comida chinesa sem gergelim em suas várias formas. Mas a China consome 700 mil toneladas de gergelim e só produz 300 mil. A solução da Datong Trading Entreprise foi assumir a gestão de 35 mil hectares disseminados no Senegal, cuja produção integral de gergelim será adquirida por ela, cabendo-lhe também determinar o preço da safra. Obviamente, toda a produção será exportada para a China. Cinquenta supervisores em motos circularão nas regiões produtoras para assegurar que não haja desvios. Afinal, Arábia Saudita e Índia também são vorazes compradores de gergelim.

Banco Imobiliário Agrário
Lembra aquele jogo, o Banco Imobiliário? Cada jogador iniciava a partida com uma certa quantia inicial pré-determinada de dinheiro, jogava dados e tomava decisões sobre comprar ou vender bens, a fim de aumentar sua fortuna. E, depois da partida, um lanche, um mergulho, um joguinho de futebol.

Mas esse Banco Imobiliário Agrário, não sei não, acho que não vai acabar bem... Afinal, ele é para valer, os jogadores não têm a mesma quantia inicial e os dados são meio esquisitos. Quem vai pagar o lanche?


Jean Remy Guimarães
Instituto de Biofísica Carlos Chagas Filho
Universidade Federal do Rio de Janeiro
16/01/2009

Fonte: Ciência Hoje

segunda-feira, 26 de janeiro de 2009

Pesquisadores querem proteção especial ao ipê

"O ipê é o novo mogno". E, se não for protegido como a famosa árvore de madeira vermelha, tende a ter um fim trágico. O alerta aparece em artigo na revista científica "Biological Conservation". Madeira nobre, o ipê (tanto sua versão amarela quanto a roxa) é considerado raro em nossas florestas tropicais e não cresce bem com luz - ou seja, após a abertura de clareiras na mata.

Marco Lentini, um dos autores do texto e diretor-executivo adjunto do IFT (Instituto Floresta Tropical), diz que a densidade do ipê varia de somente uma árvore para cada 10 hectares até uma árvore para cada 3 hectares. Além disso, sua exploração tem sido muito grande nos últimos tempos graças a seu alto valor comercial.

Os pesquisadores estimam, baseados em dados oficiais do governo, que só em 2004 cerca de 1,1 milhão de m3 de ipê foram explorados para gerar 167 mil m3 de madeira exportada.

"Essas estimativas são comparáveis aos volumes de mogno extraídos da Amazônia brasileira durante a corrida pelo mogno no final da década de 1980 e começo dos anos 1990", ressalta o artigo, cujo autor principal é Mark Schulze, da Escola de Recursos Florestais e Conservação da Universidade da Flórida (EUA).

Outro problema é a baixa regeneração da árvore. De acordo com o professor de reprodução e genética florestal da USP (Universidade de São Paulo) Paulo Kageyama, que não assina o artigo, espécies raras como ipê e mogno "só se regeram sob clareiras pequenas", menores do que 1.000 m2.

A exploração do mogno começou a ficar mais intensa na década de 1970, e teve ápice nas duas décadas seguintes. Houve diversas invasões de terras indígenas para exploração dessa espécie e muitos conflitos foram registrados.

Após campanhas de proteção do mogno, como a feita pelo Greenpeace, em 1996 o governo federal decretou a primeira moratória para novos projetos de exploração da espécie.

E, em 2003, passou a vigorar a inclusão do mogno no anexo 2 da Cites (Convenção sobre o Comércio Internacional de Espécies Ameaçadas), que exige uma exploração legal e comprovadamente sustentável. São responsabilizados os países produtores e os consumidores pelo controle compartilhado do comércio, o que contribui para reduzir o contrabando - na prática, houve a proibição do comércio do mogno no país.

Na opinião de Lentini, a primeira medida é, sem dúvida, incluir o ipê no anexo 2 da Cites. De acordo com o artigo, a exploração insustentável dessa madeira só abrandou quando esforços sistemáticos para restringir o corte, transporte e comércio foram implementados em nível nacional e internacional. "Esses esforços chegaram tarde demais para a maioria das populações de mogno. Vamos repetir a história com o ipê?", indagam os autores.

Adalberto Veríssimo, pesquisador do Imazon, concorda que o ipê deve ser protegido, adotando-se o princípio da precaução. Segundo ele, essa madeira é excepcional - durável, estável, aguenta bem a chuva -, mas seu repovoamento na floresta é muito difícil.

Desmatamento - Em 2004, o ipê representou 8,8% do valor total exportado de madeira da Amazônia - sozinha rendeu US$ 82,8 milhões. Dados da ITTO (Organização Internacional de Madeira Tropical, na sigla em inglês) de julho de 2008 confirmam o alto valor do ipê: o preço dessa madeira serrada era de US$ 739 por m3, enquanto o jatobá ficava em US$ 568 por m3 e o eucalipto, em US$ 217 por m3.

Mas, para chegar ao ipê, novas áreas têm sido abertas, ampliando o arco de desmatamento da floresta amazônica. "Fica viável construir uma estrada numa área antes remota para tirar a madeira de alto valor", afirma Lentini.

Segundo ele, em 2004 mais de 600 mil hectares de florestas foram explorados na Amazônia apenas para extrair a quantidade de ipê exportada nesse único ano.

Fonte: Portal Remade

Calor polar

22/1/2009

Agência FAPESP – Cientistas que estudam mudanças climáticas estimavam que, enquanto o resto do mundo está se aquecendo, grande parte da Antártica estava no sentido contrário, tornando-se cada vez mais fria. Mas um novo estudo mostra que nos últimos 50 anos o continente tem aquecido em taxas comparáveis com as dos demais.

Segundo artigo publicado na edição desta quinta-feira (22/1) da revista Nature, o aquecimento no oeste da Antártica é maior do que o esfriamento no leste e, na média, as temperaturas no continente estão mais elevadas do que há meio século.

“O oeste da Antártica é muito diferente do leste e há uma barreira física, as montanhas Transantárticas, que separa os dois lados”, disse Eric Steig, diretor do Centro de Pesquisa Quaternária da Universidade de Washington e principal autor do estudo.

Há anos se achava que uma relativamente pequena área conhecida como península Antártica, mais ao sul, estivesse se aquecendo, enquanto o restante do continente estaria esfriando.

Mas a nova pesquisa verificou que o manto de gelo da Antártica ocidental, que está em média a 1,8 mil metros acima do nível do mar, é significativamente menor do que o manto no lado oriental, que está a 3 mil metros.

O manto no oeste é o que está mais suscetível a entrar em colapso no futuro. Segundo os pesquisadores, o aquecimento no lado ocidental tem sido maior do que 0,1ºC por década nos últimos 50 anos, ou seja, um total de 0,5ºC no período.

Os autores do estudo usaram dados de satélites e de estações meteorológicas para calcular as variações na temperatura de 1957 a 2006 e desenvolveram um novo modelo probabilístico para estimar variações no futuro.

Satélites ajudam a calcular a temperatura superficial por meio da medição da intensidade de luz infravermelha radiada pelo gelo. Mas, apesar de cobrirem todo o continente, estão em operação há apenas 25 anos. De outro lado, as estações meteorológicas operam no continente desde 1957, o Ano Geofísico Internacional, mas a grande maioria está a curtas distâncias da costa e, portanto, não fornece informações diretas das condições no interior.

Até então os cientistas estimavam que a Antártica estava esfriando por conta do buraco na camada de ozônio, que diminuiria a conservação da temperatura feita pela camada. “Assumiu-se que o buraco estaria afetando o continente por inteiro, quando não há evidências que comprovem tal ideia”, disse Steig.

O artigo Warming of the Antarctic ice-sheet surface since the 1957 International Geophysical Year, de Eric Steig e outros, pode ser lido por assinantes da Nature em www.nature.com.

Fonte: Agência FAPESP

Hora de mudar, não de paralisia, artigo de Washington Novaes

“Em toda parte, governos e empresários já se deram conta de que a crise econômico-financeira é uma oportunidade para mudar padrões de produção e consumo, formatos de produção de energia, transportes, etc. Aqui o imobilismo é inquietante”


Washington Novaes (wlrnovaes@uol.com.br) é jornalista especializado em meio ambiente. Artigo publicado em “O Estado de SP”:

Da mesma forma que terminou 2008, este ano começa com graves notícias e ameaças na área do clima - inclusive no Brasil. O ministro da Agricultura anuncia uma perda de até 8% na produção agrícola na safra 2008-2009, principalmente por causa da seca que atinge Rio Grande do Sul, Paraná, Goiás e Mato Grosso do Sul. No Paraná já se constatam perdas de 39,7% na safra de feijão, 37,1% na de milho.

As notícias vêm na sequência dos dramas provocados por deslizamentos de encostas e inundações em Santa Catarina, Minas Gerais, Rio de Janeiro, Espírito Santo e São Paulo, com centenas de milhares de desalojados, dezenas de milhares de desabrigados, centenas de mortos, pontes e rodovias destruídas, etc., etc.

Ao mesmo tempo, estudo da Universidade Federal de Minas Gerais indica que poderá haver perda de até 11% na produção agrícola do Nordeste brasileiro, por causa de mudanças do clima. A Argentina alarma-se com redução de até 60% nas safras em certas áreas do país, principalmente no oeste. E anuncia-se que os gelos polares poderão desaparecer até meados deste século.

Mas a nossa quase-paralisia diante do problema não chega a surpreender, tanto tem sido o descaso com o quadro global que a ciência tem descrito reiteradamente. Ainda neste começo de janeiro, o respeitado Worldwatch Institute divulgou o seu Estado do Mundo 2009, preparado por 47 cientistas e com apoio do Painel Intergovernamental de Mudanças Climáticas (IPCC). E não hesita em afirmar que é indispensável acabar até 2050 com as emissões de gases que intensificam o efeito estufa.

É fundamental que elas cessem de crescer até 2020, baixem em pelo menos 85% até meados do século e depois se estabilizem, no mínimo. Porque a temperatura do planeta já subiu 0,8 grau Celsius, subirá pelo menos mais um grau em consequência do carbono já acumulado na atmosfera e que ali permanecerá durante muito tempo.

Na verdade, um diagnóstico até otimista diante do que afirma a Agência Internacional de Energia: o aumento da temperatura será de 3 graus. Será preciso, diz o Worldwatch, investir a cada ano entre US$ 1 trilhão e US$ 2,5 trilhões para evitar um quadro ainda pior - mesmo em meio à gravíssima crise financeira de hoje. Se não for assim, o quadro será “dramático”, com um planeta “hostil ao desenvolvimento humano e bem-estar social”. Rajendra Pachauri, presidente do IPCC e Prêmio Nobel da Paz, diz que, no ritmo de hoje, as transformações no mundo “podem ultrapassar nossa capacidade de adaptação”.

Embora menos quente do que 2007, 2008 ainda foi um dos dez anos mais quentes desde que se registram temperaturas, todos de 1997 para cá. Por isso, diz a Organização Meteorológica Mundial, a “tendência mais forte hoje sem dúvida é pelo aquecimento”. E “calor extremo pode vir a ser a regra em 2100”, escreveu Herton Escobar (Estado, 9/1), com base em estudo publicado pela revista Science. As temperaturas médias no verão poderão ser mais altas que as máximas até aqui registradas nos anos mais quentes.

E as regiões tropicais, onde estamos, poderão ser as mais atingidas - probabilidade altíssima, segundo o Departamento de Ciências Atmosféricas da Universidade de Washington. Cada grau a mais na temperatura poderá significar perdas na agricultura de até 16%.

Um quadro como esse sugeriria que o Brasil adotasse uma política avançada e urgente em matéria de clima. Mas continuamos muito longe disso. O próprio ex-secretário-geral do Ministério do Meio Ambiente (MMA) João Paulo Capobianco - que conhece de perto o problema, por havê-lo tido entre suas ocupações durante anos - diz (Instituto de Pesquisa Ambiental da Amazônia, 8/1) que “o avanço do Brasil na área do clima é tímido, muito aquém do papel que deveria desempenhar”.

A seu ver, a “fragilidade” do Plano Nacional de Mudanças Climáticas (PNMC) é evidente, “sem propostas concretas e mensuráveis”. E isso inclui a questão da Amazônia, fundamental, já que 75% das emissões brasileiras de gases se devem a mudanças no uso do solo, desmatamentos e queimadas, área em que o bioma responde por 59% do total.

Capobianco, bem ao contrário do tom triunfalista que tem cercado os atuais pronunciamentos governamentais nesse campo, lembra que a meta (voluntária, não obrigatória, no âmbito da Convenção do Clima) de reduzir em 40% o desmatamento na Amazônia entre 2006 e 2010, comparando com a média do período 1995-2005, “é muito pouco”, pois, na verdade, “praticamente já havia sido atingida”.

E bastará manter o desmatamento estável durante os próximos dois anos, “à taxa absurda pouco abaixo de 11 mil quilômetros quadrados anuais”, para assegurar a meta (mas nem isso tem sido conseguido: o último balanço acusou área pouco inferior a 12 mil km2).

Não bastasse isso, o ex-secretário-geral do MMA afirma que na Amazônia “quase nada tem sido feito em direção ao desenvolvimento sustentável”. De certa forma, seu pensamento é corroborado pelo próprio ministro atual do Meio Ambiente, que afirmou (Correio Braziliense, 21/12) haver tido há cerca de quatro meses uma reunião com os ministros Mangabeira Unger, Reinhold Stephanes, Nelson Jobim, Tarso Genro e Guilherme Cassel exatamente para tratar de uma estratégia conjunta. Mas de lá para cá, segundo ele, nada aconteceu. Se não acontecer, como será? Continuaremos com as atuais taxas de desmatamento? Já há indícios de que as emissões brasileiras, no mínimo, dobraram, do inventário de 1994 para cá.

Em toda parte, governos e empresários já se deram conta de que a crise econômico-financeira é uma oportunidade para mudar padrões de produção e consumo, formatos de produção de energia, transportes, etc. Aqui o imobilismo é inquietante. Nem sequer pensar a matriz energética conseguimos: embora o consumo já tenha caído no final do ano e não haja vislumbre de crise de abastecimento, continuamos a privilegiar usinas termoelétricas, as mais poluidoras.
(O Estado de SP, 23/01)

Fonte: JC E-mail (SBPC)

Dois satélites entram na luta contra o aquecimento global

Japão e EUA vão monitorar gases-estufa na atmosfera


O Japão lança hoje um satélite cuja missão é analisar a concentração de gases do efeito estufa na atmosfera e monitorar seu volume. Chamado de Gosat (Observação do Efeito Estufa por Satélite, na sigla em inglês), ele vai ter a companhia do OCO (Observatório Orbital de Carbono, também na sigla em inglês), satélite da Nasa que tem objetivo parecido e deve ser lançado ainda no primeiro semestre. Serão os primeiros exclusivamente dedicados a esta função.

Os gases do efeito estufa — como o dióxido de carbono (CO2) e metano (CH4) — são os responsáveis pelo aquecimento global. O CO2 proveniente de atividades humanas é o principal agente causador das mudanças climáticas associadas ao aquecimento global, mas importantes dados sobre a sua circulação na atmosfera ainda permanecem obscuros.

De acordo com um comunicado da agência espacial japonesa, a Jaxa, o satélite — que será lançado a partir de uma base em Tanegashima — vai “contribuir para os esforços internacionais de combate aos efeitos do aquecimento global”.

O Gosat vai mapear os gases do efeito estufa a uma altitude de 666 quilômetros da Terra, ao longo de cinco anos de missão. Já o satélite da Nasa vai detalhar a concentração de CO2 próximo à superfície, onde o efeito do aquecimento é mais sentido, e apontar os principais locais na atmosfera onde o CO2 é absorvido, os chamados sorvedouros.

Sabe-se que a Terra absorve cerca de 50% do CO2 que liberamos na atmosfera, a maioria indo parar nos oceanos e florestas. Mas os demais sorvedouros ainda são pouco conhecidos.

— O Gosat e o OCO vão tentar medir quantidades semelhantes de CO2, mas seus objetivos científicos diferem sutilmente — explica o pesquisador Paul Palmer, da Universidade de Edimburgo, colaborador da missão japonesa. — O OCO busca encontrar os principais sorvedouros de CO2. Já o Gosat vai tentar identificar e monitorar as fontes de CO2. Mas ele também vai medir os sorvedouros.

Com o Gosat, o Japão pretende monitorar suas fontes de emissão e manter suas metas de redução, de acordo com o Protocolo de Kioto, do qual é um dos signatários. O acordo internacional contra o aquecimento global entrou em vigor em 2005 e expira em 2012.

O satélite japonês pode também ajudar a esclarecer alguns pontos obscuros relacionados às mudanças climáticas. Como, por exemplo, a existência de sorvedouros de CO2 ainda desconhecidos.

— Baseado no que conhecemos sobre o papel das florestas e dos oceanos, ainda restam grandes quantidades de carbono sendo absorvidas, mas não sabemos como — explica Palmer.
(O Globo, 23/1)

Fonte: JC E-mail (SBPC)

União doa pequenas terras a posseiros na Amazônia

Com definição de lei, áreas de até 400 hectares sairão de graça ou por valor simbólico. Governo tira do Incra parte da responsabilidade por regularizações; medidas anunciadas ontem devem beneficiar 290 mil posseiros


Hudson Corrêa e Simone Iglesias escrevem

Em reunião com ministros, o presidente Luiz Inácio Lula da Silva definiu ontem a nova legislação para regularizar propriedades de até 1.500 hectares que estão nas mãos de posseiros na Amazônia -são consideradas grandes áreas as terras com mais de 2.500 hectares.

Quem estiver morando desde antes de dezembro de 2004 em imóveis com até 400 hectares ficará com a terra de graça ou por um valor simbólico.

A decisão do governo representou uma derrota para o ministro Mangabeira Unger (Assuntos Estratégicos), coordenador do PAS (Plano Amazônia Sustentável). Ele queria a criação de uma autarquia, vinculada à sua pasta, para cuidar da regularização. Mas, Lula decidiu que o trabalho será feito por uma diretoria subordinada ao ministro Guilherme Cassel (Desenvolvimento Agrário).

Cassel disse que a nova legislação será implantada por projeto de lei, a ser enviado ao Congresso, ou medida provisória. Lula pediu pressa.

Cerca de 290 mil posseiros devem ser beneficiados pelas medidas anunciadas ontem. A regularização das terras com até 400 hectares alcançaria uma área equivalente a 4% de toda a Amazônia, ou seja, pouco mais de duas vezes o Estado de Pernambuco, segundo cálculo do Ministério do Desenvolvimento Agrário. As terras estão na Amazônia Legal que alcança nove estados (AM, PA, MT, RO, AC, RR, TO, AP e MA).

Atualmente, segundo Cassel, a regularização de um imóvel dura até cinco anos, mas com nova legislação passaria a 120 dias. Para acelerar o processo, entre outras medidas, será abolida a vistoria em áreas de até 400 hectares e haverá convocação de posseiros por edital.

Também ocorrerá doação de terras. O posseiro de uma área de até 100 hectares não pagará nada. Os que estão em propriedades de 101 a 400 hectares pagarão um valor, no prazo de 20 anos, a ser calculado com inúmeras variantes que o tornam simbólico, segundo o ministro Carlos Minc (Meio Ambiente).

A legislação atual prevê que na regularização de área entre 101 e 400 hectares o posseiro pague preço de mercado para ficar com a terra. Esse critério, pela nova lei proposta ontem, passará a vigorar apenas para área de 401 a 1.500 hectares.

Os beneficiados não poderão vender as terras por dez anos e ficarão proibidos de desmatar a reserva legal, que corresponde a 80% da propriedade.

Estavam ainda na reunião, Reinhold Stephanes (Agricultura), Dilma Rousseff (Casa Civil), José Múcio (Relações Institucionais), José Antonio Toffoli (Advocacia Geral da União) Nelson Jobim (Defesa) e Paulo Bernardo (Planejamento).

A senadora e presidente da Confederação da Agricultura e Pecuária do Brasil, Kátia Abreu (DEM-TO), disse que não acredita na eficiência da proposta. Segundo ela, o governo errou ao não criar a autarquia defendida por Mangabeira.

"Nada seria mais eficaz que a agência, esse era o segredo, de outra forma, não acho que vai dar certo porque o Incra é encrenqueiro e burocrático". O Incra fornecerá técnicos a Cassel para atuar na regularização.

Para o presidente do MNP (Movimento Nacional dos Produtores), João Bosco Leal, a proposta do governo é viável e a tendência é que acabe com os conflitos entre posseiros e donos das terras.

Desmate cresce 52% em 14 cidades das líderes de lista

Um ano após a entrada em vigor do plano emergencial para combate ao desmatamento nos 36 municípios que mais devastavam a Amazônia, dados do Inpe (Instituto Nacional de Pesquisas Espaciais) mostram que, embora tenha havido redução média de 7% no desmate, em 14 dessas cidades as derrubadas cresceram 52%.

Em janeiro de 2008, o governo suspendera as licenças para desmatamento no grupo de municípios -a maioria no Pará e em Mato Grosso.

Em Nova Ubiratã (MT), o total de áreas abertas subiu de 19,7 km2 entre agosto de 2006 e julho de 2007, para 143,2 km2 no período posterior, um aumento de 624%. Em Marcelândia (MT), campeã de desmate segundo o Ministério do Meio Ambiente, o aumento foi de 132%.

Nos outros 22 municípios, a redução média foi de 32%, com destaque para Porto Velho (RO), que registrou a maior redução em termos de área, e Brasil Novo (PA), com maior redução proporcional.

Considerando apenas os 36 municípios da lista, as derrubadas caíram de 5.246 km2 para 4.897 km2.
(Folha de SP, 23/1)

Fonte: JC E-mail (SBPC)

Mares mortos

26/1/2009

Agência FAPESP – Se nada for feito para enfrentar o problema do aquecimento global, em breve os oceanos começarão a sufocar. Um estudo publicado neste domingo (25/1) na revista Nature Geoscience verificou um aumento considerado dramático na quantidade de zonas mortas nos oceanos, áreas com tão pouco oxigênio que não permitem a sobrevivência da vida marinha.

Essas zonas podem ser causadas pela contaminação da água por causa do uso excessivo de fertilizantes ou pela queima de combustíveis fósseis. Mas, enquanto zonas costeiras mortas podem ser recuperadas pelo controle no uso de fertilizantes, as áreas com pouco oxigênio, resultantes do aquecimento, podem continuar sem vida por até milhares de anos.

O estudo foi feito por pesquisadores da Dinamarca, que apontam uma expansão de zonas mortas por uma potência de 10 (o número atual vezes 10 bilhões) ou mais nos próximos 100 mil anos. Estima-se que atualmente existam mais de 400 zonas mortas nos oceanos.

“Se, como muitos modelos climáticos apontam, a circulação nos oceanos se alterar e enfraquecer por conta do aquecimento global, essas zonas quase sem oxigênio expandirão grandemente e invadirão as profundezas oceânicas”, disse Gary Shaffer, do Instituto Niels Bohr da Universidade de Copenhague, primeiro autor do artigo.

Casos extremos de depleção do oxigênio nos oceanos para um estado de anóxia são considerados candidatos importantes para explicar alguns dos grandes eventos de extinção em massa na história terrestre, como o maior deles, no fim do período Permiano, há cerca de 250 milhões de anos.

Além disso, como destacam os pesquisadores, à medida que as zonas com pouco oxigênio se expandem, nutrientes essenciais são eliminados dos oceanos pelo processo de desnitrificação (perda de nitrogênio). Esse processo, por sua vez, altera a produção biológica nas camadas mais superficiais (e mais iluminadas) dos oceanos, com o aumento na atividade de espécies de plâncton que são capazes de fixar o nitrogênio livre.

O resultado, apontam os cientistas, são mudanças grandes e imprevisíveis no ecossistema e na produtividade dos oceanos. Outro componente para piorar o cenário é o aumento na acidez oceânica, promovido pelas maiores concentrações de dióxido de carbono atmosférico resultantes da queima de combustíveis fósseis.

“O resultado disso tudo é que o futuro dos oceanos como uma grande reserva de alimentos é incerto. A redução das emissões de combustíveis fósseis é necessária nas próximas gerações para limitar a atual depleção do oxigênio e a acidificação oceânica e seus efeitos adversos de longo prazo”, disse Shaffer.

O artigo Long-term ocean oxygen depletion in response to carbon dioxide emissions from fossil fuels, de Gary Shaffer e outros, pode ser lido por assinantes da Nature em www.nature.com/ngeo.

Fonte: Agência FAPESP

segunda-feira, 12 de janeiro de 2009

O herbicida Roundup é perigoso, inclusive em doses mínimas, segundo estudo

CAEN, França (AFP) - Um estudo realizado por um especialista em biologia molecular, afirma que o herbicida Roundup, o mais utilizado no mundo, é perigoso para a saúde humana, inclusive em doses mínimas, o que foi desmentido pelas empresa americana Monsanto que o vende.

“Trabalhamos com células de recém-nascidos com quantidades do produto 100.000 vezes inferiores com as quais qualquer jardineiro comum está em contato. O Roundup programa a morte das células em poucas horas”, declarou à cientista francês Gilles-Eric Séralini, professor de biologia molecular, autor do estudo publicado pela revista Chemical Research in Toxicology.

“Os riscos são principalmente para as mulheres grávidas, mas não apenas para elas”, acrescentou o pesquisador do Comitê de Pequisa e Informação Independente sobre Engenharia Genética (Crii-gen).

Da alergia ao câncer, quando é maior a fragilidade da pessoa, maior é o risco, acrescentou.

A Monsanto França responde à consulta da AFP a respeito desse estudo mediante um comunicado no qual assinala que o “Roundup foi concebido unicamente como herbicida. Os trabalhos realizados regularmente pela G-E. Séralini sobre o Roundup constituem um desvio sistemático do uso normal do produto a fim de denigri-lo, apesar de ter sido demonstrada sua segurança sanitária há 35 anos no mundo”.

Por sua parte, a Séralini recordou que, “em 2005, foi provada sua toxicidade, mas não em doses infinitesimais”.

A agência americana de proteção ao meio ambiente (US Environmental Protection Agency, EPA) detalhou os efeitos nocivos para a saúde que pode provocar a exposição a importantes doses de Roundup: “congestão pulmonar e aceleração do ritmo respiratório”, entre outros.

Este herbicida é utilizado pelo governo colombiano apoiado pelos Estados Unidos dentro do chamado Plano Colômbia, oficialmente destinado a destruir as plantações de coca.

Em janeiro de 2007, a sociedade Monsanto foi condenada por um tribunal de Lyon (centro-leste da França) por falsa propaganda do Roundup, tal como ocorreu anterioremente e pelos menos motivos nos Estados Unidos.

Em virtude destas condenações, a Monsanto não pode assinalar nos rótulos do produto que o mesmo é biodegradável.

* Matéria da Agência France-Presse, publicada no Yahoo Notícias, Qua, 07 Jan, 02h12

Fonte: EcoDebate

Flexibilização ou cumprimento da legislação florestal: Quem está com a razão? artigo de André Lima

Têm razão as organizações não-governamentais que propõem um Pacto pelo Desmatamento Zero na Amazônia e o cumprimento da legislação florestal? Têm razão os ruralistas que propõem modificação na legislação florestal pela consolidação das ocupações históricas? Penso, logo existo! Então vejamos.

Além das nove ONGs proponentes do Pacto pelo Desmatamento Zero na Amazônia, proposta lançada no Congresso Nacional, no dia 3 de outubro de 2007, algumas das principais lideranças políticas nacionais que atuam no setor agropecuário têm afirmado concordância em relação à tese de que não é preciso desmatar mais nada na Amazônia para o País consolidar e expandir a produção agropecuária nacional. Cito apenas alguns desses ícones do agronegócio brasileiro que já concordaram publicamente com a assertiva, motivo pelo qual não há porque omitir: ministro da Agricultura Reynhold Stephanes, governador de Mato Grosso Blairo Maggi, secretário de Meio Ambiente de São Paulo Xico Graziano, deputado federal de Mato Grosso Homero Pereira, que é presidente da Federação dos Agricultores de Mato Grosso, professor Roberto Rodrigues ex-Ministro da Agricultura.

Mas por que esse consenso não se torna realidade? O INPE divulgou no final de novembro que 2008 foi mais um ano de massacre florestal na Amazônia, quase 12.000 km2, o que representa pelo menos mais 180 milhões de toneladas de Carbono na atmosfera. Em extensão territorial, chegamos próximo do valor mais baixo da história, entretanto retomamos a curva de alta, interrompendo três anos consecutivos de quedas significativas. Então o consenso pelo Desmatamento Zero seria um daqueles que a ex-ministra Marina Silva batizou de “consenso oco”?

O Plano Nacional de Mudanças Climáticas lançado na semana passada pelo presidente da República fala em recuperar mais de 100 milhões de hectares de pastos degradados no país. A média da produtividade da pecuária em Mato Grosso, por exemplo, estado líder da produtividade agropecuária na Amazônia, é inferior a uma cabeça de gado por hectare, ocupando algo próximo de 25 milhões de hectares do Estado. Um desperdício de solo e floresta inaceitável.

Paralelamente, há um movimento pela alteração do Código Florestal, Lei Federal 4.771 de 1965, que, com as alterações promovidas pela Medida Provisória 2166/01, determina que na Amazônia os imóveis rurais (propriedades ou posses) devem manter, no mínimo, 80% das florestas que, embora não possam ser objeto de corte raso (supressão total), podem ser exploradas sob manejo, dada a evidente aptidão florestal da região.

Alegam os produtores rurais que a Lei nunca foi cumprida, que a culpa é do governo que não fiscalizou, que não é uma lei e sim uma medida provisória, portanto, não tem legitimidade, que a regra foi alterada no meio do jogo, quando produtores rurais já haviam adquirido seus imóveis para utilizar no mínimo 50% de sua área, que as limitações de uso deveriam ser estabelecidas pelo Zoneamento Ecológico-Econômico. Apenas para citar alguns dos “bons” argumentos dos produtores rurais.

Pois bem, por um lado todos concordam (em tese) com a tese do Desmatamento Zero na Amazônia, enquanto os tratores e serras continuam a operar na região e a produtividade média da pecuária permanece inferior a uma cabeça de gado por hectare, ocupando cerca de 70% da área total já desmatada na Amazônia. Por outro lado, há um movimento por “flexibilização” incondicional da lei florestal, capitaneado agora pelo Ministro da Agricultura, para permitir que áreas desmatadas que estejam em uso agropecuário sejam mantidas como tal, portanto, para não aplicar a lei àqueles que, ou desmataram antes da mudança da regra da reserva legal florestal (que era de 50% e passou a ser de 80%), ou aos que mesmo depois da nova regra (junho de 1996, com nova alteração em maio de 2000) a ignoraram solenemente.

Fosse apenas isso! Mais que isso, os agroflexibilistas pleiteam que a anistia geral também se estenda para os que ocuparam mais de 80% de seus imóveis rurais no restante do país, ignorando que desde 1934 vigora a lei que determina a manutenção de, no mínimo, 25% das florestas nativas. Essa regra, com o “novo” Código Florestal de 1965, passou a ser de 20% de manutenção da vegetação nativa a título de reserva legal florestal, somadas às chamadas áreas de preservação permanente (margem de rios, nascentes, terrenos com alta declividade, topos de morros e montanhas). Só isso? Não! Querem mais: anistia geral aos ocupantes de áreas de preservação permanente até 31 de julho de 2007.

Como resolver esse impasse? Querem tudo! E numa tacada só. Misturam deliberadamente conflitos derivados da insaciável ocupação territorial do país inteiro para, na confusão geral, obter o maior benefício setorial possível. Do caos a nova ordem? Todos querem ignorar a lei sob o argumento racional de que a vida real foi incompatível com as leis ambientais, quando na verdade o que aconteceu foi a crença, quase fundamentalista, de que a Lei é para os mais fracos.

Então as leis florestais e os ajustes (ou arremedos?) de 1934, de 1965, de 1989, 1996 e de 2000, de 2001 estavam todos errados e militando deliberadamente contra a produção agropecuária nacional? Culpa dos ambientalistas? Concordar com a tese? Impossível.

Quais são as condições objetivas, os compromissos transparentes, explícitos, públicos e mensuráveis que as lideranças políticas sérias do agronegócio brasileiro e suas entidades representativas assumirão para que de fato cheguemos, no mais curto espaço de tempo possível, ao Desmatamento Zero na Amazônia e também nos demais biomas brasileiros?

O Ministro da Agricultura, em atitude qualificada pelo Ministro Minc como “descompensada”, criticou ambientalistas afirmando que estes só sabem “comer e poluir”, desviando o debate em torno do absurdo de suas propostas. Se é para ir nesse rumo, então deveria a autoridade máxima da agropecuária nacional falar dos “inimputáveis” que comem (e muito bem por sinal), incineram biodiversidade e poluem o clima, os solos e os rios brasileiros custeados com dinheiro público, inclusive dos ambientalistas, a juros subsidiados, e que vivem pedindo flexibilizações, anistias e desonerações. Esse não é o caminho do bom senso. Retomemos a razão.

(André Lima, advogado e pesquisador associado do IPAM, foi diretor de Articulação de Ações da Amazônia e de Políticas de Combate ao Desmatamento do Ministério de Meio Ambiente entre 2007/08)

* Artigo originalmente publicado em Clima em Revista, n° 9, Dez. de 2008/Jan. de 2009. Clima em Revista é uma publicação mensal on-line do Instituto de Pesquisas da Amazônia (IPAM)

Fonte: EcoDebate

domingo, 11 de janeiro de 2009

Menos comida com aquecimento

9/1/2009

Agência FAPESP – O acelerado aumento nas temperaturas afetará seriamente a agricultura no planeta, especialmente nas regiões tropicais e subtropicais. Se nada for feito, até o fim do século pelo menos metade da população mundial terá que enfrentar uma drástica falta de alimentos.

A afirmação é de um estudo publicado na edição de 9 de janeiro da revista Science por David Battisti, professor do Departamento de Ciências Atmosféricas da Universidade de Washington, e Rosamond Naylor, diretor do Programa de Segurança Alimentar e Ambiental da Universidade Stanford, ambos nos Estados Unidos.

O impacto do aquecimento global na agricultura deverá afetar particularmente as regiões mais pobres e que apresentam as maiores taxas de crescimento populacional.

“Os efeitos apenas da temperatura na produção global de alimentos serão enormes, isso sem levar em conta as fontes de água impactadas pelo aquecimento”, disse Battisti.

“Precisamos investir na adaptação. Está claro que essa é a direção em que estamos indo, em termos de temperatura, e serão necessárias décadas para desenvolver novas variedades de cultivos que possam enfrentar melhor um clima mais quente”, disse Naylor.

Ao combinar observações diretas com dados de 23 modelos climáticos globais – produzidos no âmbito do Painel Intergovernamental de Mudanças Climáticas (IPCC) –, Battisti e Naylor concluíram que há uma probabilidade superior a 90% de que em 2100 as menores temperaturas durante os períodos de cultivo nas regiões tropicais e subtropicais serão maiores do que qualquer temperatura registrada até hoje nas mesmas áreas.

Segundo o estudo, nos trópicos as temperaturas mais altas deverão reduzir a produção de grãos primários, como milho e arroz, de 20% a 40%. Mas o aquecimento deverá prejudicar também a umidade do solo, o que levaria a uma diminuição ainda maior na produção.

“Temos que repensar os sistemas agrícolas como um todo e não apenas buscar novas variedades, além de reconhecer que muitos deixarão de ser agricultores e abandonarão as terras onde vivem e trabalham”, disse Naylor.

Atualmente, cerca de 3 bilhões de pessoas vivem nas regiões tropicais e subtropicais, um número que deverá dobrar até o fim do século.

O artigo Historical warnings of future food insecurity with unprecedented seasonal heat, de David Battisti e Rosamond Naylor, pode ser lido por assinantes da Science em www.sciencemag.org.

Fonte: Agência FAPESP

Distorção matemática

9/1/2009

Por Fábio de Castro

Agência FAPESP – Calcular a biomassa presente em uma floresta é fundamental para estimar a quantidade de carbono que seria emitida em caso de queimada e, consequentemente, para fazer avaliações ambientais e atribuir valor à floresta em pé.

Mas, de acordo com um estudo realizado por pesquisadores do Instituto Nacional de Pesquisas da Amazônia (Inpa), as equações utilizadas para fazer esses cálculos têm distorcido os dados na região do arco do desmatamento na Floresta Amazônica, superestimando sua biomassa.

Coordenado por Philip Martin Fearnside, o trabalho foi realizado por Euler Melo Nogueira, Bruce Walker Nelson, Reinaldo Imbrozio Barbosa e Edwin Willem Hermanus Keizer. Os resultados foram publicados em setembro na revista Forest Ecology and Management. O artigo está entre os mais consultados da publicação desde então.

Os resultados mostram que a emissão de gases de efeito estufa proveniente da queima de biomassa florestal na Amazônia é bem inferior ao que se pensava. A estimativa de biomassa é feita com o auxílio de um modelo alométrico: uma equação matemática que relaciona algumas variáveis das árvores, como o diâmetro e a altura, com a biomassa.

Mas essas equações, feitas com base nas características da floresta densa, não funcionam bem, segundo Fearnside, quando aplicadas à floresta aberta do arco do desmatamento – que corresponde a um terço da Amazônia e gera 80% das emissões por desmatamento.

As novas equações alométricas criadas pelos pesquisadores, mais adequadas à realidade da floresta aberta, indicam que a floresta emite anualmente 24 milhões de toneladas de carbono a menos do que se imaginava.

Agência FAPESP – O grupo do Inpa coordenado pelo senhor desenvolveu recentemente novas equações alométricas que permitem realizar estimativas mais precisas da biomassa da floresta no arco do desmatamento. O que havia de errado com as equações usadas até agora?
Philip Fearnside – O problema dos cálculos feitos até agora é que eles se baseiam na extrapolação de dados obtidos exclusivamente na Amazônia central. Até hoje, todos os dados são das regiões de Manaus, Belém e de áreas de florestas densas perto do rio Amazonas. Mas no arco de desmatamento o que existe é um outro grupo de florestas, a floresta aberta.

Agência FAPESP – Trata-se de que tipo de dados?
Fearnside – Dados como a densidade de madeira, forma e altura das árvores. Na falta desses dados, para calcular a biomassa no arco do desmatamento eram usadas equações com base nas áreas da Amazônia central. O inventário brasileiro sobre as emissões de carbono, por exemplo, utilizou equações que foram feitas aqui em Manaus, para florestas densas, e aplicou ao arco do desmatamento.

Agência FAPESP – E essa extrapolação dos dados induzia a erro?
Fearnside – Sim, foi uma coisa que descobrimos em pesquisas anteriores: as árvores de lá são mais leves do que as da Amazônia central. A madeira é menos densa e, portanto, tem menos biomassa.

Agência FAPESP – Os cálculos feitos até agora estavam superestimados?
Fearnside – Sim. O procedimento normal para as estimativas de biomassa começa ao se medir as árvores grandes de diversas parcelas de floresta. Com a equação alométrica, essas medidas são convertidas em volume de madeira. Para calcular a biomassa, multiplica-se o volume pela densidade. A partir daí se pode calcular a quantidade de carbono da floresta para estimar qual será a quantidade de emissões em caso de desmatamento. Mas, se a madeira é mais leve, com o mesmo volume de madeira temos menos biomassa e menos emissões.

Agência FAPESP – Quando se descobriu que as árvores da floresta aberta são mais leves do que as da Amazônia central?
Fearnside – Em pesquisas feitas desde 1997 mostrávamos que as espécies mais leves apareciam com mais frequência no arco do desmatamento. O que descobrimos agora é que as árvores da mesma espécie também são mais leves por lá. Além disso, o teor de água na madeira é maior do que na área de floresta densa. Quando a madeira é mais leve, ela contém mais água. Então, quando se multiplicavam os valores por uma constante, para extrair o peso certo, sempre se usavam dados da área de Manaus. Além disso, observamos que as árvores de diâmetro semelhante nas duas regiões são mais curtas na área de floresta aberta. Tudo isso contribuiu para um grande exagero nas estimativas de biomassa.

Agência FAPESP – Qual foi a magnitude desse exagero?
Fearnside – Cada fator desses que mencionei acrescenta uma redução de biomassa e, quando se soma tudo, a diferença é gritante. No caso do desmatamento de 2004, por exemplo, quando houve um pico de desmatamento de 27,4 mil quilômetros quadrados desmatados em um ano, a diferença de cálculo é de 24 milhões de toneladas de carbono. E é preciso lembrar que a parte mais considerável dessa devastação se deu no arco do desmatamento e, portanto, essa diferença se aplica.

Agência FAPESP – Os cálculos feitos até agora, então, estavam completamente errados?
Fearnside – Sim, estavam errados. Houve um exagero considerável: 24 milhões de toneladas de carbono em um ano equivalem ao triplo das emissões na cidade de São Paulo. É impressionante. Mas temos que encarar isso como o processo contínuo, normal, do melhoramento dos números da ciência.

Agência FAPESP – A pesquisa conclui que a emissão potencial de carbono é muito menor do que se imaginava. Isso prejudica de alguma forma a argumentação contra o desmatamento?
Fearnside – Ao contrário, os argumentos contra o desmatamento se fortalecem, porque os cálculos estão mais corretos. Por acaso, os valores de emissões eram mais baixos do que os previstos. Mas o importante é ter certeza se os dados são ou não confiáveis. O fato de sempre haver muita incerteza é um dos principais argumentos para não dar valor à floresta. O resultado da pesquisa joga a favor da preservação. Não tenho a menor dúvida disso.

Para ler o artigo Estimates of forest biomass in the Brazilian Amazon: New allometric equations and adjustments to biomass from wood-volume inventories, de Euler Melo Nogueira e outros, clique aqui.

Fonte: Agência FAPESP

segunda-feira, 5 de janeiro de 2009

Os ricos do Brasil superam os da Suécia no IDH

Da redação da PrimaPagina

Os brasileiros mais pobres vivem em condições de desenvolvimento humano comparáveis às da Índia, mas os 20% mais ricos, em situação melhor que a fatia mais rica da população da Suécia, Alemanha, Canadá e França. As informações estão no relatório do PNUD que analisa os números recentes do Índice de Desenvolvimento Humano (IDH) e cita um estudo europeu que conclui que países que atingiram alto desenvolvimento humano (IDH maior de 0,800) nos últimos anos, como o Brasil, ainda têm parte da população sofrendo privações comuns às de países do fim da lista.

O estudo “Desigualdade no Desenvolvimento Humano: Uma determinação empírica de taxas de 32 países” menciona cálculos que comparam a desigualdade em 32 nações ricas e em desenvolvimento. São elas: Austrália, Canadá, Finlândia, França, Alemanha, Itália, Holanda, Polônia, Espanha, Suécia, Estados Unidos, Colômbia, Brasil, Peru, Paraguai, Vietnã, Indonésia, África do Sul, Bolívia, Quirguistão, Nicarágua, Guatemala, Índia, Gana, Camarões, Madagascar, Guiné, Costa do Marfim, Zâmbia, Etiópia, Moçambique, Burkina-Fasso.

Nessas nações, os números do IDH foram calculados para 5 estratos da população de acordo com a renda. No Brasil, a fatia mais rica tem um IDH de 0,997, próximo do máximo (1,000). O número é maior que o IDH do país que encabeça o último ranking, a Islândia (IDH de 0,968), e supera o valor correspondente aos 20% mais ricos de todos os outros países calculados, incluindo o do Canadá (0,967) e o da Suécia (0,959), terceiro e sétimo lugar na lista, respectivamente.

O atual IDH do Brasil, uma média de todo o país, é de 0,807, mas os mais pobres estariam sujeitos a condições correspondentes a um IDH de 0,610, ficando abaixo do segmento mais pobre da Indonésia (0,613), do Vietnã (0,626), do Paraguai (0,644) e da Colômbia (0,662). O IDH dos mais pobres brasileiros é comparável ao IDH da Índia (0,609)

“Os resultados mostram que a desigualdade no desenvolvimento humano foi bastante alta, e maior ainda em países em desenvolvimento”, afirma o relatório do PNUD. O texto acrescenta que a América Latina é o continente que apresenta as maiores desigualdades. No Brasil e em países como Guatemala e Peru, a diferença do IDH dos 20% mais pobres para o IDH dos 20% mais ricos só não é superior à de alguns países da África, como Madagascar e Guiné.

O relatório do PNUD ainda destaca outras formas de desigualdade. Segundo o documento, uma criança que nasce em algum dos 20 países do topo do ranking pode viver até os 80 anos, mas se ela nascer nos países de IDH mais baixo, sua expectativa de vida não é maior que 49 anos. Segundo a entidade, houve avanços importantes na maioria dos países, em especial nos índices de educação, mas, especialmente na África, alguns países tiveram retrocesso. “São preocupações centrais as extensas lacunas entre os ricos e pobres e entre homens e mulheres dentro dos países. Altos níveis de pobreza humana em muitos países em desenvolvimento requerem ações prioritárias”, conclui o texto.

(PNUD)

Fonte: Mercado Ético

sexta-feira, 2 de janeiro de 2009

The Financial Meltdown and a Socialist Response

By David Finkel

THE FINANCIAL AND stock market meltdown of September-October 2008 is unlike anything that the vast majority of us have seen in our lifetimes. Americans would have to be old enough to remember 1929 and the onset of the Great Depression to have seen a crisis of this magnitude. People in Japan, it’s true, know all about the “lost decade” after the late 1980s bank crashes – but the current situation is a disaster on a global scale.

The reference to 1929 does not mean necessarily that the world economy today is headed for the same destination, i.e. a Great Depression. Actually, the outcome of this crisis is unpredictable. Among other differences, the 1929 stock market crash and subsequent credit crisis led to the Great Depression of the 1930s in part because governments responded with “tight money” policies until too late, an act of suicide which central banks and governments today definitely will not repeat. Quite the contrary, extremely energetic state interventions in Europe and the USA – very much against the recent ideological free-market “run of play” – have halted the fears of a total global banking collapse and the short-term stock market panic.

It’s indeed instructive how quickly the entire ideology of “unleashing the free market” and financial deregulation could be thrown aside in order to rescue giant banks that are “too big to fail.” The U.S. Treasury will not only be purchasing (at above-market rates) the “toxic assets” held by these institutions, but pumping hundreds of billions more into them by buying “preferred shares” in them. This means “non-voting shares,” so that the bailout of these collapsing banks still leaves them under private control. Nonetheless the U.S. government, that bastion of rightwing free-market conservatism, is taking measures that the most liberal Democrats wouldn’t have dreamed of proposing six months ago. Many European governments (e.g. Britain) are going further in partial nationalization of banks, even if these measures are intended to be temporary.

There’s the bailout for the corporate and Wall Street incompetents and crooks who helped drive the economic ship into the ground. The obvious question becomes, then, where’s “the rescue package” for working people who are losing their homes, their jobs, their credit, their health insurance and their hopes for security in retirement? What can, or should, government do to confront our emergency? This question has to be addressed in the context of where the U.S. and global economies are heading.

Regarding the underlying economy, all that seems certain now is that a recession has begun, on a global scale and likely to be sharp and severe for the next 18-24 months. The figures for September show escalating job losses in the United States and many European countries. Beyond that, we don’t know where the present crisis leads in the long run and we won’t try to speculate here. But there are a number of important ideas that socialists have to present about what the crisis means for working people and what kind of response is necessary.

Capitalism – all the way from the 17th century until that time in the future when it will be overthrown – is inherently a system of booms and bubbles and busts and panics. That’s true with or without “heavy state intervention” or “the unfettered free market.” But the magnitude of the present disaster in global credit markets marks the colossal failure, and the terminal point, of a whole “regime” of deregulation of finance capital, especially in the USA, in which the “unfettered free market” would produce ever-growing wealth and the institutions would somehow police themselves. The Depression-era rules regarding the separation of commercial and investment banking were obliterated (Enron showed where this kind of deregulation would lead in the energy industry, but the obvious lessons were disregarded).

What happened in reality, as everyone now knows, was the combination of a housing bubble, those subprime loans imposed overwhelmingly in poor and communities of color, massive increases in personal and corporate debt, and the proliferation of “derivatives,” based on the packaging and recirculation of debts. Banks throughout the world economy made enormous paper profits by selling each other the equivalent of casino chips. In the end, they have wound up sitting on uncounted trillions of dollars in fictitious value (those “toxic assets” consisting of loans that will never be repaid). No wonder they stopped lending money even to each other – because each bank not only feels the need to hoard its own cash, but also suspects all other banks of hiding their real conditions just as it’s hidden its own.

The current wave of government intervention was essential in order to prevent the threat of a complete shutdown of credit – the oil in the engine of global capitalism – a threat that had caused stock markets to plunge by 40% in a few weeks. The political tide in the United States is also turning toward re-regulation, not only cosmetically in reducing the obscene pay of Wall Street CEOs but placing some controls on the behavior of finance capital. This trend will accelerate in 2009 with larger Democratic majorities in Congress and the likelihood of a Democratic president – although Barack Obama’s economic advisors include the likes of Robert Rubin, one of the Clinton-era architects of deregulation.

Regulation in itself, however, does little to address the real catastrophe facing tens of millions of working class families. And yet the measures that need to be taken in this emergency are quite clear, including these:

Immediate ban on foreclosures. Not only homeowners are being thrown on the street, but renters who didn’t even know their landlords were in foreclosure! Thanks to some popular struggles, the Cook County (IL) sheriff has suspended eviction of renters – an example that needs to spread. But no one should lose their home until there’s a –
Rewriting of mortgages to their real value. There’s no point in pretending that homes in today’s market are worth their paper value in the housing bubble. Mortgages on primary residences, not only those now in foreclosure, need to be written down by 30-40%, with interest payments reduced to abolish those subprime “adjustable-rate” schemes that were jammed down the throats of lower-income people and communities of color. (There are many cases where African-American women in particular could only get these extortion-rate loans even though their income and credit rating should have qualified for standard-rate mortgages.)
The government should take over these mortgages, paying the banks no more than their actual – not paper – value, and the more subprime lenders that go out of business in the process, the better. Further, no family should have to make mortgage payments exceeding 15% of household income. This will also have the effect of a serious “stimulus program” for working class America.
Change government priorities to what we need and eliminate what we can’t afford. At a time when federal, state and city budgets are choked by debt, “what we can’t afford” is obvious: the cost of empire. That means the Bush gang’s $3 trillion war in Iraq has got to go. U.S. military bases in 150 countries; hundreds of billions for weapons in space; those bloated contracts for Halliburton and private mercenary forces like Blackwater – all those expenses need to be zeroed out, and the world as well as our own society will be better for it.
What is it then that we really need? For openers, the following:

Guaranteed universal health care is an absolute must, especially at a time of growing employment insecurity. There are already at least 45 million people in this country without health insurance, a number growing all the time. For all those families, the real-life threat of a “terrorist attack” is negligible compared to the daily terror of being bankrupted by an illness, or even permanent injury or death from lack of treatment. A single paper universal health insurance program is the proven, affordable method for resolving this crisis, cutting costs, saving lives, and protecting families from bankruptcy at the same time.
A jobs program on the scale of the 1930s is necessary and feasible. There is no lack of work to be done – especially when our infrastructure needs to be not only repaired but converted to the imperatives of a sustainable economy to avoid environmental disaster. Wherever corporate America won’t invest in renewable energy, massive recycling, mass transit and news transportation technologies, the government should step in with the necessary resources, creating literally millions of productive jobs at union wages.
Universal higher education can be guaranteed by supporting sustainable university tuition at public institutions, and by removing the crushing burden of student loans. This society has the resources to guarantee free higher education to all – but at the very least, rather than leaving school with tens of thousands of dollars in debts they can’t pay, students must have access to no-interest loans that they can repay after graduation with payments not exceeding 10% of their income.
There’s a great deal more that can and should be done to meet human needs rather than corporate profit in our society – as well as addressing the global crises of hunger, poverty and health, and the threats of irreversible environmental catastrophe within a few short decades. In reality, the way out of the global economic crisis lies in a democratically controlled “sustainability revolution” as profound as the industrial and scientific revolutions of previous centuries. That journey has to begin with immediate human needs, and the above measures are first steps in addressing our emergency at home. What’s needed most urgently right now are the mass labor and social movements capable of fighting for these demands and winning them!

-- David Finkel is an editor of Against the Current and member of the National Committee of Solidarity.

Fonte: Solidarity

quinta-feira, 1 de janeiro de 2009

Desmatamento fica estável em 2008

O maior rigor e a regularidade nas operações de fiscalização do Ibama contribuíram para manter a taxa de desmatamento anual da Amazônia entre agosto de 2007 e julho de 2008 em 11.968 km², praticamente a mesma taxa (11.532 km²) contabilizada entre agosto de 2006 e julho de 2007. A meta em 2009 é reduzir a taxa a quatro dígitos, ou seja, menos de 10 mil km².

Um dado interessante é que nos meses de junho até setembro deste ano, houve queda nos índices do Sistema de Detecção em Tempo Real - Deter, que fornece indicativos mensais do desmatamento na região. Durante esses meses, época de estiagem na região, tradicionalmente ocorre a maior parte dos desmatamentos. Mas neste ano, houve 22% de redução do desmatamento acumulado nos meses de junho, julho, agosto e setembro de 2008 em relação ao mesmo período em 2007. Nos quatro meses críticos em 2007, a destruição da floresta atingiu 3.256 km², já neste ano foram 2.539 km².

Fonte: Ambientebrasil