Mudanças climáticas, desastres naturais
e prevenção de riscos

segunda-feira, 26 de dezembro de 2011

A evolução da Química como Ciência

* Valderi Pacheco dos Santos

O neto diz ao avô que precisa fazer uma prova de Química e que o assunto é sobre Átomos:

- Vô, por que temos que estudar sobre estas coisas, se nem sequer as enxergamos?

O avô responde:

- Meu neto, houve um tempo, cerca de 500 anos antes de Cristo, em uma civilização ímpar na história da humanidade - a Grécia -, que alguns pensadores, entre eles Demócrito e Leucipo, ainda que de forma meramente intuitiva, pregavam a existência de pequenas partículas indivisíveis que constituíam a matéria, os átomos. Entretanto, esses pensadores, os atomistas, não foram muito levados a sério pela grande maioria das pessoas, que achavam muito mais plausíveis as idéias defendidas por outra linha de pensadores, os socráticos, que afirmavam que a matéria era contínua. Para Aristóteles (século IV a.C), o mais famoso e influente entre os filósofos gregos, a matéria era constituída por diferentes combinações de quatro elementos fundamentais, a terra, o ar, a água e o fogo. Cada um desses elementos tinha propriedades que os caracterizavam. Assim o fogo era quente e seco; o ar era quente e úmido; a água era fria e úmida; e a terra era fria e seca. Apesar da simplicidade dessa teoria, fica claro que já havia nessa época uma noção não sobre a composição da matéria, mas sobre os estados da matéria, já que o ar eram os gases, a água os líquidos, a terra os sólidos e a forma de energia que converte um estado em outro era o fogo. Era isto que caracterizava o modo de pensar dos gregos, a substituição de interpretações mítico-religiosas da natureza pelo raciocínio lógico intuitivo, baseado exclusivamente na razão.

- Ah vô, então é por isso que o meu professor parece falar só em grego, diz o Neto.

O avô continua:

- Devido à contundência das propostas de Aristóteles, a teoria dos quatro elementos é que foi transmitida às próximas civilizações, tanto que as idéias atomistas foram deixadas de lado por mais de dois milênios. Na verdade, durante esse período, a Química, apesar de praticada por muitos, só que com outro nome, Alquimia, não era vista com caráter científico, mas com uma forte influência mística, sendo associada a bruxarias e à busca por riqueza, a partir da tentativa de converter metais menos preciosos em ouro, e por vida eterna, a partir da procura pelo elixir da longa vida. Essa influência mística dava aos alquimistas sérios problemas com a Igreja, principal poder político na Europa no período da Idade Média. Por este motivo, os praticantes da Alquimia dificilmente se declaravam alquimistas e assinavam seus escritos usando pseudônimos, bem como utilizavam uma linguagem codificada, decifrada somente por iniciados.

- Por que você acha que até hoje o cheiro de enxofre é associado ao inferno, pergunta o avô? É porque os alquimistas usavam-no muito em suas práticas secretas, juntamente com mercúrio e sal. Muitos se denunciavam pelo forte cheiro que exalavam.

A coisa só mudou a partir do século XV, quando uma nova tendência de pensamento eclodiu na Europa, o Renascimento, gerando fortes influências na política, nas artes, na filosofia, nas ciências e na religião, principalmente a partir de um pensamento mais crítico baseado na razão e no raciocínio lógico. Nessa época, algumas gerações de pensadores influenciaram todos os ramos das atividades humanas, podendo-se citar Copérnico, Galileu, Descartes, Kepler, Newton, entre muitos outros.

É nessa época, mais precisamente a partir do século XVII, que surge uma geração de estudiosos promissores que dariam à Química o status de ciência que outras áreas já haviam conquistado. Entre eles pode-se citar principalmente Robert Boyle e Antoine Lavoisier, considerados os principais responsáveis pela transição da Alquimia à Química. Ambos, em suas obras históricas, O Químico Cético (Boyle, 1661) e Tratado Elementar da Química (Lavoisier, 1789), desenvolveram métodos experimentais criteriosos, nos quais foram medidos respectivamente os volumes e as pressões dos gases e as massas das substâncias sólidas. Como consequência, muitos elementos foram descobertos durante os séculos XVII e XVIII. A partir disso, as teorias herdadas de Aristóteles e seguidas pelos Alquimistas tornaram-se ultrapassadas, assim como já havia ocorrido na Física, quando a teoria geocêntrica de Aristóteles já havia caído por terra frente à teoria heliocêntrica de Copérnico.

Apesar de muito ter-se descoberto nos séculos XVII e XVIII a respeito da composição das substâncias e sobre as proporções com que estas reagiam, não havia ainda uma teoria sólida sobre a causa das reações químicas. Nesse contexto, Georg Stahl, no principio do século XVIII, propôs uma teoria controversa e não unânime sobre as reações de combustão e de oxidação, que apesar de simplória, representou um entrave na evolução da Química por quase um século. Era a teoria do Flogístico, que afirmava que durante os processos de combustão e de oxidação, uma suposta substância invisível era liberada, o phlogiston. O mérito da teoria do flogístico, ou de seus defensores, é que estes eram capazes de interpretar uma série de processos, inclusive fenômenos estranhos à teoria.

Por exemplo, ao ser oxidado um metal ganhava massa. Stahl afirmava que o flogístico era mais leve que o ar, e que ao liberar flogístico, o ar ocupava este espaço e por isso o corpo ficava mais pesado. Porém, ainda no século XVIII, em 1781, Antoine Lavoisier demonstraria que o ganho de peso que ocorria quando um metal oxidava-se em um recipiente fechado, era equivalente à perda de peso de ar preso no vaso, e que a presença de oxigênio era imprescindível à combustão, visto que nenhum material queimava-se na ausência de oxigênio. Estas observações de Lavoisier, além de uma sucessão de outras, derrubaram de vez a teoria do flogístico, a qual teve de ser definitivamente abandonada.

Já no século XIX, com a evolução dos métodos químicos de análise pós século XVIII, um grande número de novos elementos foi descoberto. Nessa época, já se sabia que alguns deles tinham propriedades químicas semelhantes, apesar de massas diferentes. Em 1896, Dimitri Mendeleyev propôs uma tabela de classificação periódica dos elementos, onde organizou 60 dos elementos químicos conhecidos até então em 12 linhas horizontais em ordem crescente de massas atômicas, tomando o cuidado de colocar os elementos com propriedades semelhantes na mesma vertical. Era o nascimento da Tabela Periódica, praticamente da forma como a conhecemos hoje.

Outro fato importante do século XIX foi a Evolução da Química Orgânica. Nesse período, imperava na Química uma teoria proposta por Jöns Berzelius em 1807, a teoria da Força Vital, a qual afirmava que apenas seres vivos podiam produzir matéria orgânica. Ele baseava-se na idéia de que os compostos orgânicos precisavam de uma força maior (a vida) para serem sintetizados. Foi quando em 1828 Friedrich Wöhler inaugurou uma nova era na Química com a síntese da uréia (um composto orgânico) a partir do cianato de amônio (um composto inorgânico). A partir de então, a teoria da força vital começou a ruir, abrindo espaço para uma série de outras sínteses de compostos orgânicos.

Curta a página da SNCT no Facebook


- Mas vô, pergunta o neto já impaciente, e os átomos, onde entram nessa história? Você nem falou deles!

- Calma, é a partir daqui que os átomos voltam a ocupar o intelecto humano, responde o avô. Com a definição de algumas leis que regiam as reações químicas por aquele grupo de cientistas precursores da Química moderna (entre eles Lavoisier, Boyle e Proust), John Dalton propôs no início do século XIX a existência de uma unidade mínima de matéria que poderia ser uma partícula fundamental. Entretanto, ainda não havia métodos experimentais para detectar estas partículas.

Por este motivo, por todo o século XIX as teorias atômicas não tiveram muita relevância no âmbito da Química. Nessa época, muitas teorias importantes foram desenvolvidas sem a necessidade da idéia de átomo, entre elas a Eletroquímica e a própria Química Orgânica. Alguns cientistas até recusavam-se a aceitar a idéia de átomo.

- Eu também vô, dispenso essa idéia, assim nem preciso estudar para a prova de amanhã, diz o neto.

- Preste atenção meu neto, foi só no final do século XIX, quando Joseph Thompson realizou um experimento famoso em que eletrizava um gás em uma ampola, através de descargas elétricas, que ele descobriu que os raios emitidos pelo gás eram na verdade elétrons excitados. A partir daí, os modelos atômicos passaram a protagonizar no cenário da Química, com modelos cada vez mais bem elaborados e que buscavam descrever as propriedades da matéria com precisão cada vez maior.

O interessante é que as cargas elétricas associadas às reações químicas já eram conhecidas há quase um século, por cientistas como Daniell, Volta, Faraday, mas não eram associadas a partículas fundamentais, como propôs Thompson. Apesar da revolução na ciência provocada pela descoberta de Thompson, sua proposta de modelo atômico não foi muito bem sucedida e durou menos de uma década. Isto porque propunha um átomo com cargas positivas e negativas uniformemente distribuídas.

Foi no princípio do século XX que outro grande nome da Química, Ernest Rutherford, propôs a existência de um núcleo atômico muito pequeno em relação ao tamanho total do átomo, que apresentava carga positiva. Ele observou que quando projetava partículas com carga positiva em uma chapa fina de ouro (um dos metais mais densos que se conhece), a grande maioria das partículas passava sem que sofresse desvio algum; apenas uma pequena parte se desviava; e uma parte menor ainda se chocava com a placa e retornava. Rutherford concluiu que o átomo não podia ser maciço como propunha Thompson, mas que tinha uma região densa e pequena de matéria com carga positiva (o núcleo) e que era envolto por uma região bem maior, onde ficavam as cargas negativas (a eletrosfera). A idéia de Rutherford era fantástica e representou um marco na história do estudo da constituição da matéria. Não à toa ele é considerado o Pai da Física Nuclear.

Só que o modelo de Rutherford tinha um problema: um paradoxo que contrariava as teorias clássicas da Física sobre o eletromagnetismo: partículas portadoras de carga, como os elétrons girando em torno de um núcleo, perdiam energia e teriam sua velocidade diminuída gradativamente até que caíssem no núcleo e o átomo entrasse em colapso. Estava claro que era necessária uma correção no modelo de Rutherford, e quem teve a incumbência disto foi o jovem e promissor pupilo de Rutherford, Niels Bohr.

Bohr, inspirado pelos estudos de Max Planck sobre a quantização da energia e posteriormente pelos estudos de Albert Einstein sobre a quantização da luz, propôs que quando os elétrons giravam em torno do núcleo, o faziam sem perder ou ganhar energia, como se estivessem em níveis estacionários de energia. Também propôs que quando os elétrons absorviam energia saltavam de órbitas mais internas para órbitas mais externas e ao retornarem emitiam o excesso de energia na forma de luz. Apesar da simplicidade das idéias e das fórmulas matemáticas utilizadas por Bohr para propor seu modelo atômico, elas davam a resposta numérica exata para as posições das linhas dos espectros de hidrogênio, obtidos ao longo do século XIX por Balmer, Paschen e Lyman sem saber ao certo o que significavam, o que instigava os cientistas. Por isso o modelo atômico de Bohr representou um importante pilar para o desenvolvimento de uma teoria mais elaborada que viria a ser desenvolvida e consolidada na primeira metade do século XX, a Teoria Quântica.

Siga a SNCT Uberlândia no Twitter


Esta última, por sua vez, levava em conta dois princípios fundamentais da matéria: o comportamento dual entre partícula e onda, proposto por Louis de Broglie, e a incerteza em relação à posição quando se conhecia com precisão o momento ou a energia de um átomo ou de um elétron, descoberto por Werner Heisenberg. Destas limitações intrínsecas com relação ao que podemos observar sobre a natureza da matéria, surge uma teoria matemática refinada que descarta a idéia improvável de Bohr de que os elétrons giravam em órbitas bem definidas em torno do núcleo atômico e a substitui por densidades de probabilidade de se encontrar os elétrons em determinadas regiões do espaço, os orbitais.

Além disso, no princípio do século XX, Henri Becquerel, Marie Curie e Pierre Curie seriam os responsáveis pela descoberta e explicação do fenômeno da radioatividade ao estudarem elementos que emitiam luz espontaneamente, abrindo caminho para um vasto campo de pesquisas ao longo do século XX, cujas aplicações teriam enorme influência na história da humanidade, seja por seu uso menos nobre, como na bomba atômica que devastou as cidades de Hiroshima e Nagasaki em 1945, seja por sua principal utilização, a aplicação de radioisótopos em diagnósticos e tratamentos de câncer.

Já a teoria Quântica e o modelo atômico quântico que derivou dela são responsáveis pela maneira como interpretamos o mundo microscopicamente e pelo desenvolvimento das teorias atuais sobre as propriedades da matéria. Dois importantes nomes são responsáveis pela aplicação da teoria quântica na interpretação das ligações químicas durante o século XX, Gilbert Lewis e Linus Pauling. A partir de suas teorias, passou-se a ter uma maior compreensão sobre como a matéria interage a partir das ligações químicas, que são a base principal da descrição da natureza e de tudo que envolve suas transformações.

- Tudo isso já no século em que eu nasci. Pra ver meu neto como seu avô é velho!

- Vô, o senhor que é velho ou será a Química que é nova demais? Argumenta o neto.

Para saber mais:

CHASSOT, A. Ciência através dos tempos. 2ª. ed. São Paulo: Editora Moderna, 2004.

GREENBERG, A. Uma Breve História da Química: Da Alquimia às Ciências

Moleculares Modernas. 1ª. ed. São Paulo: Editora Edgard Blucher, 2009.

FARIAS, R. F. Para gostar de ler: A historia da Química. 1ª. ed. São Paulo: Editora

Átomo, 2003.

VANIN, J. A. Alquimistas e Químicos: o passado, o presente e o futuro. São Paulo:

Editora Moderna, 2005.

GLEISER, M. Mundos Invisíveis. São Paulo: Globo, 2008.

STRATHERN, P. trad. BORGES, M. L. O sonho de Mendeleiev: a verdadeira história

da química. Rio de Janeiro: Jorge Zahar, 2002.

* Valderi Pacheco dos Santos é professor de Química da Universidade Estadual do Oeste do Paraná (Unioeste).

Fonte:
Jornal da Ciência.

domingo, 25 de dezembro de 2011

Pesquisadores desenvolvem jogo sobre sustentabilidade

O Centro Multidisciplinar para o Desenvolvimento de Materiais Cerâmicos (CMDMC) – um dos Centros de Pesquisa, Inovação e Difusão (CEPIDs) da FAPESP – e o Instituto Nacional de Ciências dos Materiais em Nanotecnologia lançaram na internet, em parceria com a empresa Aptor Games, um jogo educativo sobre sustentabilidade.

Batizado de Half na Floresta, o jogo foi criado pela mesma equipe que desenvolveu o Ludo Educativo – um game on-line que auxilia estudantes do ensino médio no aprendizado de ciências – e o Jogo da Dengue.

Curta a página da SNCT no Facebook


No novo jogo, o personagem Half percorre uma floresta a fim de cumprir objetivos que giram em torno de ações para a preservação do meio ambiente.

Cada uma das jogadas aborda uma questão diferente sobre conservação ambiental. Na primeira fase, o personagem deve ajudar a libertar os animais em extinção que foram capturados ilegalmente, como araras e macacos, sempre atento para escapar das investidas dos animais perigosos que perambulam pela floresta.

Siga a SNCT Uberlândia no Twitter


Já na segunda fase, o personagem necessita plantar árvores e superar a ação de lenhadores encontrados pelo caminho.

O jogo pode ser acessado gratuitamente na internet em www.ludoeducajogos.com.br.

Fonte: Agência Fapesp.

sábado, 24 de dezembro de 2011

Meio Ambiente, Ciência e Tecnologia: pontos estratégicos para o desenvolvimento nacional

* Valdir Lamim-Guedes

A Ciência e Tecnologia (C&T) são responsáveis por melhorias na qualidade de vida da humanidade, sobretudo nos últimos séculos. Com avanços nestas áreas, obtivemos um melhor acesso à saúde, segurança alimentar e um grande espectro de facilidades, como meios de transporte e de comunicação.

A história dos Países mais desenvolvidos socioeconomicamente deve-se, em parte, ao fato de terem colonizado outros locais, possibilitado pela capacidade de dominar outros povos e comercializar com outras nações. Isto dependeu, por exemplo, de novas técnicas de plantio e beneficiamento da cana de açúcar, a capacidade de transportar mercadorias e ter exércitos eficientes. Estas características dependeram da existência de avanços científicos que refletiram em um número considerável de pessoas capacitadas e na aplicação do conhecimento cientifico na criação e aprimoramento de tecnologias, um exemplo neste caso, é a possibilidade de fazer mapas detalhados e ter embarcações eficientes e seguras. Nesta linha de raciocínio, a revolução industrial, foi fruto do avanço tecnológico na produção de tecidos, que deixou de ser artesanal e passou a ser manufaturada.

Conclui-se que investimentos em C&T foram estratégicos para o desenvolvimento dessas nações. Muitas decisões políticas são mediadas por um debate baseado em evidências cientificas e disponibilidade de tecnologias. No caso do Brasil, o debate acirrado em torno de questões ambientais tem utilizado de muitas informações no âmbito da C&T.

Siga a SNCT Uberlândia no Twitter


Ruralistas e outros setores da sociedade afirmam que a expansão da área agrícola é essencial para o País continuar crescendo, e por causa disto, foram propostas alterações no código florestal, atualmente em trâmite no senado. Do outro lado, ambientalistas argumentam que as exigências do código florestal de 1965 são adequadas, e insistem que a manutenção das florestas é importante pela manutenção da biodiversidade, dos serviços ambientais e que as áreas florestais podem gerar renda, por exemplo, com a extração de produtos como frutos, sementes e óleos. E ainda, apontam que a utilização adequada das terras utilizadas pela agropecuária é o suficiente para a expansão da produção agrícola sem derrubar mais nenhuma árvore.

Este debate envolve o planejamento a curto, médio e longo prazos, e é justamente por focar apenas no curto-médio prazo (ruralistas) ou preocupar-se com o longo prazo (ambientalistas) que parece existir uma polêmica sem solução. Tal polêmica consiste na existência de uma falsa dicotomia entre desenvolvimento econômico e proteção do meio ambiente, e um ponto de equilíbrio é possível ao utilizar a C&T.

Curta a página da SNCT no Facebook


O desenvolvimento de novas tecnologias e diversificação da produção agrícola, a redução dos impactos ambientais e a reforma agrária são aspectos que fazem convergir desenvolvimento e meio ambiente. Um exemplo disto seria uma mudança de olhar sobre as florestas, ou seja, produtos florestais geram renda, como é o caso de óleos essenciais que são utilizados pela indústria de cosméticos, assim como o pagamento por serviços ambientais e créditos de carbono podem complementar a renda das famílias.

O triângulo da sustentabilidade consiste na existência de um desenvolvimento econômico que agride pouco o meio ambiente e que apresente avanços sociais. Para obter uma configuração destas, é necessário a valorização e investimentos em C&T. O modelo econômico adotado atualmente está baseado na exploração de matérias-primas e produtos agropecuários (minérios, soja e carne), geralmente com pouco valor agregado.

Assim, para a obtenção de avanços reais e duradouros, é necessário investir fortemente em C&T, na formação de profissionais de diversas áreas e na melhoria da qualidade de vida com redistribuição de renda, evitando ao máximo a degradação ambiental. Isto é que permitirá ao Brasil ser considerado um país desenvolvido, dada à nova configuração internacional.

* Valdir Lamim-Guedes é mestre pelo Programa de Pós-graduação em Ecologia de Biomas Tropicais da Universidade Federal de Ouro Preto (Ufop).

Fonte: Jornal da Ciência.

sexta-feira, 23 de dezembro de 2011

Novos radiotelescópios permitirão estudos inéditos sobre explosões solares

Um grupo brasileiro de cientistas liderou a instalação de um sistema de dois radiotelescópios polarimétricos solares na Argentina, no dia 22 de novembro. Os instrumentos são os únicos no mundo a operar em frequências entre 20 e 200 gigahertz, preenchendo uma grande lacuna que impedia o estudo de vários aspectos relacionados às explosões solares.

O projeto “Telescópios de patrulhamento solar em 45 e 90 GHz com polarização”, financiado pela FAPESP na modalidade Auxílio à Pesquisa – Regular, é coordenado por Adriana Válio, professora da Escola de Engenharia da Universidade Presbiteriana Mackenzie, e por Pierre Kaufmann, coordenador do Centro de Radioastronomia e Astrofísica Mackenzie (Craam).

Os instrumentos serão operados no âmbito de um convênio que envolve, há 11 anos, cientistas do Craam e do observatório do Complexo Astronômico El Leoncito (Casleo), localizado em San Juan, na Argentina – onde os radioteslescópios foram instalados, alinhados e já começaram a operar.

Curta a página da SNCT no Facebook


De acordo com Kaufmann, os dois radiotelescópios para ondas milimétricas permitirão a realização de observações, respectivamente, em 45 e em 90 gigahertz.

“São os únicos radiotelescópios do gênero existentes em operação no mundo. Suas medições complementarão espectros de explosões solares observadas em frequências mais elevadas feitas no Casleo – entre 200 e 400 gigahertz – e em frequências mais baixas do que 20 gigahertz, obtidas em instrumentos instalados nos Estados Unidos”, disse Kaufmann à Agência FAPESP.

A lacuna na faixa de frequências de 20 a 200 gigahertz não apenas tem limitado os estudos sobre determinados parâmetros das explosões solares, como tem trazido grandes complicações para a interpretações dos resultados obtidos nos instrumentos existentes.

“Trata-se de uma faixa muito crítica sobre a qual a comunidade científica não dispõe de informações. Os novos instrumentos deverão trazer informações cruciais para a interpretação das explosões solares”, disse.

Os radiotelescópios terão a função de estudar mecanismos de conversão e produção de energia por trás das explosões solares. “Embora atualmente seja possível assistir com riqueza de detalhes às espetaculares ejeções de massa das explosões solares, o fenômeno físico que dá origem a todas essas manifestações é desconhecido”, explicou.

Além da relevância científica, o estudo do mecanismo energético das explosões solares, segundo Kaufmann, é importante também por causa de seus subprodutos que têm impacto no planeta Terra, alterando o chamado “clima espacial”.

“Embora não tenhamos detalhes sobre a física das explosões solares, é certo que esses fenômenos têm forte impacto no clima terrestre. Essas explosões liberam imensas quantidades de energia, interagindo com o espaço interplanetário e com a Terra”, disse.

Explosões e efeitos

Segundo Válio, os dois radiotelescópios terão papel complementar em relação aos outros instrumentos do Casleo – com frequências de 200 a 400 gigahertz –, instalados a 60 metros de distância em El Leoncito, e instrumentos nos Estados Unidos, operados em frequências abaixo dos 20 gigahertz. O conjunto das medições oferecerá um quadro completo da atividade solar, do nível de microondas até o submilimétrico.

“Os dois novos radiotelescópios observam todo o disco solar com elevada resolução temporal de 10 milissegundos, proporcionando grandes quantidades de dados em função do tempo. Quando terminarem todas as calibrações, os instrumentos irão operar praticamente de forma remota, observando o Sol diariamente e disponibilizando os dados na internet”, explicou.

Siga a SNCT Uberlândia no Twitter


Os radiotelescópios custaram 165 mil euros e a instalação teve orçamento de US$ 25 mil. Embora o custo não seja alto para instrumentos desse tipo, eles não haviam sido construídos ainda porque a fabricação de seus receptores exigia um grande esforço de desenvolvimento tecnológico.

“Outro fator que torna esses instrumentos exclusivos, além das frequências em que operam, é a capacidade de medir polarização. A emissão de energia do Sol é térmica e não polarizada. Mas uma explosão envolve elétrons acelerados a altas energias que espiralam em torno de linhas magnéticas com uma direção preferencial – o que faz com que sua emissão acabe sendo polarizada”, disse Válio.

Com a polarização, segundo ela, é possível distinguir as explosões solares – mesmo as que são muito pequenas – de efeitos atmosféricos. “Vamos poder investigar fenômenos que nos darão informações sobre como os elétrons são injetados no campo magnético da explosão”, disse.

Fonte: Agência Fapesp.

quinta-feira, 22 de dezembro de 2011

Mulheres são as últimas a terem acesso a fundos climáticos

Dos milhões de dólares destinados a projetos para conter os efeitos da mudança climática no mundo em desenvolvimento, muito pouco é concedido de maneira a beneficiar as mulheres, as mais prejudicadas pelo aquecimento na África. Segundo a Organização das Nações Unidas (ONU), as mulheres constituem 80% dos pequenos agricultores, são responsáveis pela segurança alimentar de milhões de pessoas e trabalham em um dos setores mais afetados pela mudança climática.

“Fala-se muito no âmbito internacional em destinar fundos para que as comunidades locais possam adaptar-se à mudança climática e, em especial, as mulheres, mas é pouco o que se faz”, disse Ange Bukasa, que dirige a organização ChezAnge Connect, na República Democrática do Congo (RDC), dedicada a facilitar investimentos.

Bukasa participa da Associação dos Fundos de Investimento no Clima (CIF). Esses fundos, criados pelo Banco Mundial em colaboração com bancos de desenvolvimento regionais, oferecem cursos para que os países do Sul tomem medidas de adaptação e mitigação. Desde seu lançamento, em 2008, foram concedidos US$ 6,5 bilhões a projetos destinados a conter a mudança climática em 45 nações em desenvolvimento. Mais de um terço foi concedido a 15 países africanos.

Porém, mais de 70% foram para projetos de transporte e energias limpas em grande escala, setores da economia formal tradicionalmente dominados por homens. Apenas 30% foram destinados a projetos de pequena escala que beneficiam diretamente comunidades rurais pobres e que podem chegar a melhorar o sustento das mulheres. Especialistas do Programa das Nações Unidas para o Desenvolvimento alertam que esses fundos correm o risco de perpetuar os desequilíbrios de gênero existentes.

Curta a página da SNCT no Facebook


Quando se quer criar e implantar ações para adaptação e combate à mudança climática, é necessário consultar as mulheres para levar em conta a perspectiva de gênero no consumo de energia e os modelos de trabalho doméstico em contextos pobres, insistem os especialistas. Entretanto, isto não ocorre com frequência.

“Não há relação entre as grandes instituições regionais que administram os fundos e a população que deles precisa”, alertou Bukasa, que trabalha com agricultores em Katanga, no sul da RDC, e em outras partes do país. Bukasa também se queixou da falta de consulta às mulheres, que são maioria na pequena agricultura da região. Além disso, afirmou que grande parte das comunidades rurais não tem informação suficiente sobre a mudança climática e como mitigá-la ou adaptar-se às consequências.

“As pessoas podem ter ouvido falar de mudança climática, mas não têm ideia do que fazer nem onde obter informação”, acrescentou Bukasa. Isto as impede de identificar problemas e soluções, desenvolver seus próprios projetos e solicitar fundos. Sua única opção é “continuar cultivando como antes”, acrescentou.

A informação oferecida por especialistas que trabalham no terreno teve algumas consequências. Os bancos que gerenciam os CIF prometeram incluir indicadores de gênero em suas operações, bem como em seus principais critérios para concessão de fundos. Também se comprometeram a incluir análise de gênero e dados discriminados por sexo, entre outros, nos projetos financiados pelos CIF para garantir o benefício a homens e mulheres.

Siga a SNCT Uberlândia no Twitter


“Planejamos dar maior atenção a questões de gênero e introduzir cada vez mais indicadores para avaliar essa dimensão nos projetos”, informou Mafalda Duarte, coordenadora de finanças do clima do Banco de Desenvolvimento Africano, uma das instituições regionais responsáveis por administrar os fundos. Há um interesse particular em financiar fontes de energia locais não conectadas à rede nacional para melhorar a vida de mulheres e meninas, ainda angustiadas por terem de coletar lenha e buscar água nas comunidades rurais, ressaltou Duarte.

Os fundos destinarão a projetos de energia solar, fogões melhorados, reflorestamento sustentável, sistemas de irrigação que funcionem com energia solar, bem como calefação e armazenamento de água. “Quando revisarmos as propostas vamos assegurar que as mulheres tenham acesso a tecnologias financiadas”, acrescentou Duarte. O único inconveniente é que o interesse está em investimentos de pequena escala, que representam uma porcentagem menor do total de fundos disponíveis. “Precisamos ampliar a quantidade de projetos com perspectiva de gênero porque temos muitos lugares conflituosos no continente”, reconheceu Duarte.

Florah Mmereki, diretora de projeto da Wena Industry and Environment, fundação dedicada à educação ambiental, com sede em Gaborone, Botsuana, concorda que é preciso acelerar os esforços. “Os poucos projetos que existem em Botsuana não estão dirigidos às mulheres. É um enorme descuido”, lamentou. As mulheres continuam excluídas porque sua participação em muitos projetos de adaptação à mudança climática costuma exigir um investimento inicial, como a contribuição para fogões de baixo consumo de lenha, disse Mmereki. “Mas as camponesas não têm esses fundos. Elas trabalham no campo e são seus maridos que administram o dinheiro. Ainda há muitas barreiras para eliminar”, acrescentou.

Fonte: Envolverde.

quarta-feira, 21 de dezembro de 2011

Efeitos do biodiesel em peixes

O biodiesel, embora seja menos poluente do que o diesel de petróleo – emite menor quantidade de gases de efeito estufa na atmosfera –, também pode causar impactos significativos na biota marinha, dependendo da espécie atingida. Isso porque sua formulação possui elementos naturais que poderiam facilitar a absorção de substâncias tóxicas pelos animais.

É o que indica o estudo "(BIOEN-FAPESP) Petrodiesel vs Biodiesel: a comparative study on their toxic effects in nile tilapia and armoured catfishes", realizado pelo grupo do professor Eduardo Alves de Almeida no Departamento de Química e Ciências Ambientais da Universidade Estadual Paulista (Unesp), em São José do Rio Preto (SP).

O biodiesel é um combustível derivado de fontes renováveis como óleos vegetais – entre os quais mamona, dendê, girassol, babaçu, soja e algodão – ou de gorduras animais que, estimulados por um catalisador, reagem, principalmente com o metanol, gerando ésteres metílicos dos ácidos graxos presentes nesses óleos.

Curta a página da SNCT no Facebook


A pesquisa, publicada no periódico Chemosphere, teve como objetivo inicial a análise comparativa das respostas bioquímicas entre as espécies Oreochromis niloticus, ou tilápia-do-nilo, e Pterygoplichthys anisitsi, conhecido como cascudo marrom, após exposição controlada ao diesel de petróleo e ao biodiesel de sebo animal.

“Utilizamos a tilápia, que é um modelo em toxicologia e possui hábito nectônico, ou seja, por nadar na coluna d’água ela tem acesso a todos os compartimentos do ambiente aquático”, disse Almeida à Agência FAPESP.

Já o cascudo, espécie endêmica da América Latina, é bentônico. Está relacionado ao fundo do ambiente aquático, o que lhe permite maior contato com frações de combustível associadas a sedimentos.

Siga a SNCT Uberlândia no Twitter


“Nosso objetivo foi observar se, pelo hábito dos peixes, as respostas à exposição ao tipo de biodiesel testado seriam diferentes. Para isso, estudamos exposições de dois a sete dias nas duas espécies ao diesel derivado de petróleo com biodiesel B5 (contendo 5% de biodiesel), biodiesel B20 (contendo 20% de biodiesel) e biodiesel puro (100% de biodiesel), a 0,1 e 0,5 ml/L de água”, explicou.

"O B20, nas condições testadas, apresentou menos efeitos adversos do que o diesel de petróleo e do que o B5, o que pode indicar uma alternativa de combustível menos danoso do que o diesel. Entretanto, mesmo o biodiesel puro pode ativar respostas biomecânicas em peixes, nas condições experimentais testadas, indicando que esse combustível também pode representar um risco para a biota aquática", destaca o artigo.

Segundo Almeida, embora parte da origem do biodiesel seja renovável – óleos vegetais, gorduras animais, algas e materiais gordurosos –, pouco se sabe sobre os efeitos desse combustível, assim como seu grau de toxicidade, sobre a biota aquática.

O pesquisador, que está finalizando os estudos relacionados ao cascudo, adianta que, apesar dos hábitos diferenciados das duas espécies, as respostas dos animais são muito parecidas. “Existem somente pequenas variações nas atividades enzimáticas desses peixes”, disse.

“Observamos também que, quando misturados ao biodiesel, alguns metabólitos tóxicos do petrodiesel foram encontrados em concentrações levemente maiores na bile das tilápias do que nas análises dos animais expostos ao diesel de petróleo puro”, destacou.

Para Almeida, o biocombustível não está isento de toxicidade. Segundo os resultados apresentados no artigo, ele pode ocasionar, de forma mais agressiva que o diesel de petróleo, a oxidação nas membranas celulares das brânquias dos peixes.

“Isso sugere que os elementos naturais do biodiesel, especialmente os derivados de ácidos graxos, são facilmente absorvidos pelos peixes e, de certa forma, auxiliam a entrada de mais substâncias tóxicas do petrodiesel presentes na mistura, na ausência do biodiesel como ‘facilitador’ eram mais difíceis de serem absorvidas”, disse.

O artigo Biochemical biomarkers in Nile tilapia (Oreochromis niloticus) after short-term exposure to diesel oil, pure biodiesel and biodiesel blends (doi:10.1016/j.chemosphere.2011.05.037), de Eduardo Alves de Almeida e outros, pode ser lido na Chemosphere em www.sciencedirect.com/science/article/pii/S004565351100590X.

Fonte: Agência Fapesp.

terça-feira, 20 de dezembro de 2011

Estudo rejeita descoberta sobre partícula mais rápida que a luz

Uma equipe internacional de cientistas na Itália, estudando os mesmos neutrinos que alguns de seus colegas dizem parecer ter se deslocado a velocidades superiores à da luz, rejeitou a polêmica constatação neste final de semana, afirmando que seus testes determinaram que os resultados devem estar incorretos.

O anúncio da descoberta, em setembro, sustentado por novos estudos divulgados na semana passada, causou agitação no mundo científico porque parecia sugerir que as ideias de Albert Einstein sobre a relatividade, e boa parte da física moderna, se baseavam em uma premissa errônea.

A primeira equipe, responsável pela experiência Opera, no laboratório Gran Sasso, ao sul de Roma, anunciou ter registrado que neutrinos transmitidos à instalação do centro de pesquisa Cern, na Suíça, haviam chegado lá 60 nanossegundos mais cedo do que um raio de luz teria chegado.

Curta a página da SNCT no Facebook


Mas os cientistas do Icarus, outro projeto do Gran Sasso - um laboratório subterrâneo operado pelo Instituto Nacional de Física Nuclear italiano em uma cadeia de montanhas próxima da capital da Itália - agora argumentam que suas mensurações da energia dos neutrinos ao chegar contradizem a leitura dos colegas.

A equipe do Icarus afirma que suas constatações "refutam uma interpretação supraluminar (mais rápida que a luz) dos resultados do Opera". Eles argumentam, com base em estudos recentemente publicados por dois importantes físicos norte-americanos, que os neutrinos transmitidos do Cern, perto de Genebra, teriam perdido a maior parte de sua energia se tivessem se deslocado a velocidade superior à da luz, mesmo que por margem ínfima. Mas o feixe de neutrinos testado por seus equipamentos registrou um espectro de energia correspondente ao que deveria exibir caso as partículas estivessem se deslocando no máximo à velocidade da luz.

Siga a SNCT Uberlândia no Twitter


O físico Tomasso Dorigo, que trabalha no Cern, e no Fermilab, laboratório nuclear norte-americano perto de Chicago, afirmou em texto no site Scientific Blogging que o estudo do Icarus era "muito simples e definitivo".

Segundo ele, o estudo determinou que "a diferença entre a velocidade dos neutrinos e a da luz não podia ser tão grande quanto a observada pelo Opera, e era certamente menor por três ordens de magnitude, e compatível com zero."

Fonte: Terra.

segunda-feira, 19 de dezembro de 2011

Método israelense recicla águas residuais para fabricar papel

Um novo método desenvolvido em Israel usa as águas residuais de zonas residenciais para fazer papel, um método que contribui com o meio ambiente e ajuda a baratear o preço da água e do papel. O curioso método foi inventado por Rafi Aharon, um médico da região de Tzur Yigal, detalha o jornal Yedioth Ahronoth.

Curta a página da SNCT no Facebook


Aharon garante que pode transformar águas residuais utilizando um novo recurso de aproveitamento do material sólido que é retido nos filtros das plantas urbanas de reciclagem e que são ricos em celulose. "Não há nenhuma razão para não fazer essa reciclagem, da mesma forma que fazemos com o plástico", afirmou Aharon, que explicou que 99,9% das águas que saem das casas são compostas por material líquido, sendo que apenas 0,10% pode ser considerada matéria sólida", declarou o médico.

Siga a SNCT Uberlândia no Twitter


Para o especialista, esse pequeno percentual é muito aproveitável porque contém celulose proveniente de alimentos, além de papel higiênico. O método reduz pela metade o material sólido e por isso a unidade de reciclagem precisa de menos eletricidade e produtos químicos para descontaminar a água, o que significa economia para os consumidores.

Depois de serem secados e purificados, os restos podem ser vendidos a empresas de papel a um preço inferior ao do papel reciclado comum. O sistema já foi instalado no sul de Israel, mesmo lugar onde conseguiram produzir grandes quantidades de celulose.

Fonte: Terra.

domingo, 18 de dezembro de 2011

Estudo no AM quer caracterizar vírus que atacam o sistema nervoso central

Diagnóstico molecular possibilita a identificação de agentes virais.
Já foi possível identificar agente etiológico em 31% de meningoencefalites.


Identificar os vírus que causam infecções no sistema nervoso central é o objetivo do estudo ‘Caracterização molecular dos vírus nas infecções do sistema nervoso central no Estado do Amazonas, da farmacêutica-bioquímica do Laboratório de Virologia da Fundação de Medicina Tropical Doutor Heitor Vieira Dourado (FMT HVD), Michele de Souza Bastos Barrionuevo.

O trabalho conta com financiamento do Programa de Pesquisa para o SUS: Gestão Compartilhada (PPSUS), financiado pela Fundação de Amparo à Pesquisa do Estado do Amazonas (FAPEAM) e pelo Ministério da Saúde e Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).

A pesquisadora disse que, entre todos os casos de meningites notificados na FMT, no período entre 2007 e 2010, cerca de 21% são de etiologia viral, ou seja, sem identificação do agente etiológico (relativo à origem viral). “Isso chamou muito a atenção do nosso grupo de pesquisa. A partir daí, estamos tentando identificar esses vírus para depois tentarmos compreender como se dá essa atuação no sistema nervoso central", disse a pesquisadora.

De acordo com Barrionuevo, os vírus mais propensos a causar infecções no sistema nervoso central são os herpesvírus, enterovírus e os arbovírus, entre esses, podemos destacar os vírus da dengue, da encefalite de Saint Louis, vírus rocio e os vírus das encefalites equina do leste, encefalite equina do oeste e encefalite equina venezuelana.

Curta a página da SNCT no Facebook


O estudo vem sendo realizado em parceria com Centro de Desenvolvimento Científico e Tecnológico (CNPq), Ministério da Saúde (MS) e o Centro de Pesquisa Leônidas e Maria Deane – Fiocruz Amazônia e o Centro de Virologia da Faculdade de Medicina da Universidade de São Paulo (USP/Ribeirão Preto).

Diagnóstico molecular

A partir do diagnóstico molecular, realizado diretamente no Líquido Cefalorraquidiano (LCR), conhecido como Fluido Cerebrospinal ou Líquor do paciente, é possível fazer a identificação dos agentes virais. Ela explica que o LCR é um fluido corporal estéril e de aparência clara que ocupa o espaço subaracnoídeo no cérebro. “É uma solução salina muito pura, pobre em proteínas e células, que age como um amortecedor entre o córtex cerebral e a medula espinhal”, disse.

Na presença de infecção no sistema nervoso central, é possível identificar o agente etiológico nesse fluido. Essa identificação será futuramente útil ao paciente, ao corpo clínico e, para as autoridades de saúde pública e do Sistema de Vigilância Epidemiológica do Estado do Amazonas, completou.

Segundo a pesquisadora, até o momento, foi possível identificar o agente etiológico em 31% (41/130) dos casos de meningoencefalites virais em 130 pacientes atendidos na FMT-HVD. Os vírus identificados foram: varicela zoster vírus, citomegalovirus, epstein-barr vírus, herpes simplex tipo 1 e 2, vírus oropouche, vírus da dengue e enterovirus.

Siga a SNCT Uberlândia no Twitter


Segundo Barrionuevo, a implantação dessa metodologia resultará em uma nova linha de pesquisa, pioneira no Estado do Amazonas e facilitará as ações de vigilância para esses vírus tão pouco estudados.

Sobre o PPSUS
O Programa de Pesquisa para o SUS: Gestão compartilhada em saúde (PPSUS), desenvolvido em parceria com o Ministério da Saúde e CNPq, consiste em apoiar, com recursos financeiros, projetos de pesquisa que visem a promoção do desenvolvimento científico, tecnológico e de inovação na área de saúde no Estado do Amazonas.

Fonte: G1.

sábado, 17 de dezembro de 2011

Temperatura global pode subir 6 ºC até fim do século, diz OCDE

A tendência atual fará com que a temperatura aumente entre 3 ºC e 6 ºC no final do século sobre os níveis pré-industriais, um cenário com graves consequências que ainda pode ser evitado com um custo de ação limitado, segundo anunciou a Organização para a Cooperação e o Desenvolvimento Econômico (OCDE).

Siga a SNCT Uberlândia no Twitter


Esta é a principal mensagem de um relatório sobre a mudança climática divulgado pela OCDE às vésperas da conferência de Durban, que começa na próxima semana, no qual pede aos governos que se engajem para conseguir um acordo internacional. "Os custos econômicos e as consequências ambientais da ausência de ação política da mudança climática são significativas", advertiu o secretário-geral do organismo, Ángel Gurría, durante a apresentação do estudo.

Concretamente, as medidas para modificar sobretudo o panorama energético que se espera para 2050 e reduzir as emissões de efeito estufa em 70% custariam 5,5% do Produto Interno Bruto (PIB), um número que os autores do relatório relativizaram em entrevista coletiva, ao ressaltarem que significaria que o crescimento da economia mundial nos quatro próximos decênios seria de 3,3% ao ano, em vez de 3,5%, um corte de dois décimos.

Curta a página da SNCT no Facebook


O relatório destacou que não alterar as políticas atuais geraria prejuízos ambientais que afetariam muito mais a economia. O relatório Stern de 2006 havia antecipado perdas permanentes do consumo por habitante superiores a 14%.

A OCDE advertiu que sem novas políticas de contenção das emissões de efeito estufa, as energias fósseis seguirão mantendo seu peso relativo atual, de 85% do total, o que conduziria a um volume de concentração na atmosfera de 685 partes de dióxido de carbono (CO2) ou equivalentes por milhão, muito longe das 450 que os cientistas consideram que permitiriam limitar o aquecimento climático global a 2 ºC.

Para o órgão, um ponto relevante é estabelecer "um preço significativo" das emissões de CO2 para induzir à mudança tecnológica, mas também a fixação de metas de diminuição de emissões "claras, críveis e mais restritivas" com as quais "todos os grandes emissores, setores e países" precisarão se comprometer.

Fonte: Terra.

sexta-feira, 16 de dezembro de 2011

Diminuição da camada de gelo do Ártico é a maior em 1450 anos


A camada de gelo do Ártico diminuiu – e muito – nos últimos tempos. Pesquisadores montaram um modelo que demonstra que as perdas recentes na região são as maiores dos últimos 1450 anos. O Ártico perdeu cerca de 2 milhões de quilômetros quadrados de gelo desde o final do século XX – o equivalente a varrer do mapa os estados do Amazonas e da Bahia inteiros.

Os resultados dão suporte à teoria que a variação do clima no Ártico e o tamanho da sua camada de gelo estão intimamente conectados. “Não ficamos muito surpresos que a diminuição da extensão da camada de gelo seja sem precedentes pois outros modelos [...] já haviam mostrado como o aquecimento moderno é extremamente anômalo no contexto dos últimos 1000 anos ou mais”, afirmou ao iG Christophe Kinnard do Centro de Estudos Avançados em Zonas Áridas do Chile e autor do estudo publicado no periódico científico Nature.

Siga a SNCT Uberlândia no Twitter


Os dados mostraram também que outros declínios ocorreram na mesma velocidade em épocas diferentes, mas nenhum deles com uma extensão tão grande como a de agora. De acordo com o pesquisador, essa tendência deve continuar. “A diminuição da extensão da camada de gelo causa um feedback positivo no aquecimento, pois a perda da cobertura do gelo, que reflete o sol, causa uma maior absorção da radiação solar que aquece ainda mais o oceano e a atmosfera acima dele que por sua vez derrete mais gelo.”, afirmou Kinnard. E completou: “Todos os modelos apontam para aumento da temperatura da superfície da Terra nos próximos séculos devido ao aumento dos gases do efeito estufa. Portanto, é muito improvável que essa tendência se reverta.”.

Curta a página da SNCT no Facebook


O trabalho, porém, não foi capaz de mostrar se essa diminuição é atípica ou se faz parte de um ciclo natural. Os autores da pesquisa, no entanto, acreditam que haja, sim, uma relação entre ela e a mudança climática causada pela ação humana.

Fonte: iG.

quinta-feira, 15 de dezembro de 2011

Relatório alerta diminuição da flora e fauna de água doce na Europa

Mexilhão está no topo da lista de espécies ameaçadas. De acordo com estudo, 37% dos peixes também correm risco de extinção

Os ecossistemas de água doce da União Europeia estão gravemente ameaçados e precisam de "medidas urgentes de conservação", informou um relatório da União Internacional para a Conservação da Natureza publicado nesta terça-feira.

A poluição, a pesca em excesso, a perda dos habitats e a introdução de espécies exóticas figuram entre os motivos da diminuição. O relatório, conhecido como "A Lista Vermelha Europeia", avaliou a situação de 6 mil espécies e concluiu que o problema atinge 44% dos moluscos de água doce, 37% dos peixes, 23% dos anfíbios e 19% dos répteis.

Siga a SNCT Uberlândia no Twitter


No topo do ranking dos ameaçados estão os moluscos, principalmente o mexilhão de água doce, antes muito estendido e agora confinado a poucos rios da França e da Espanha.

A existência de um plano de ação europeu e de programas de conservação em curso traz, no entanto, "esperanças para o futuro", conforme comunicado da Comissão Europeia.

Dentre os peixes, o esturjão é o mais afetado, com sete das oito espécies europeias "em situação crítica".

A vegetação ligada a esses habitats, também ameaçada, inclui, por um lado, lavouras com plantio de beterraba, trigo, aveia e alface e ainda plantas silvestres.

O relatório indica que 15% dos mamíferos e libélulas, 13% das aves, 11% de uma seleção de escaravelhos saproxílicos, 9% das borboletas e 467 espécies de plantas vasculares estão agora ameaçadas.

Curta a página da SNCT no Facebook


O Comissário do Meio Ambiente europeu, Janez Potocnik, declarou que a União Europeia "pagará um preço muito alto" se não investigar as causas dessa diminuição e agir com urgência para detê-la.

O lado positivo do relatório é que algumas medidas de conservação deram bom resultado, como a coordenação sobre habitats, que contribuiu para a proteção de zonas naturais.

A União Europeia conta com uma nova estratégia de biodiversidade adotada em maio deste ano, que pretende, entre outros objetivos, proteger os ecossistemas, contribuir para uma agricultura e silvicultura sustentáveis e melhorar os controles sobre as espécies invasoras.

Fonte: iG.

quarta-feira, 14 de dezembro de 2011

Cientistas mapeiam genoma de ácaro que ataca plantas

Ácaro rajado se alimenta de mais de mil tipos diferentes de plantas.
Pequeno animal possui defesa genética contra toxinas.


O ácaro rajado tem menos de um milímetro, mas é uma praga perigosa. É o que os cientistas chamam de “praga cosmopolita”, pois ataca diversos tipos de planta – mais de 1,1 mil espécies diferentes. Suas prediletas são as folhas de tomate, pimenta, pepino, morango, milho, soja, maçã e uva, mas a lista de alvos inclui até plantas ornamentais.

Siga a SNCT Uberlândia no Twitter


Um estudo publicado na revista “Nature” mapeou o genoma desse artrópode e descobriu porque ele é uma ameaça tão grande para as plantas. Esse ácaro possui genes capazes de neutralizar toxinas, tanto as presentes nos pesticidas quanto as naturais, que as plantas produzem para defesa própria.

Richard Clark, pesquisador da Universidade de Utah e um dos principais autores, diz que a importância do estudo “está, em grande parte, em compreender como os animais comem plantas, com o objetivo em longo prazo de desenvolver maneiras eficazes de prevenir os danos causados por ácaros e insetos nas plantações”.

“Se conseguirmos identificar os caminhos biológicos que os ácaros usam para se alimentar de plantas, potencialmente conseguiremos identificar métodos químicos e biológicos para interromper esses caminhos e evitar que os ácaros ataquem as plantas”, explica o especialista.

Curta a página da SNCT no Facebook


O mapeamento do genoma do ácaro rajado também pode ser útil em outras linhas de pesquisa. Um exemplo é o uso da teia que ele produz, tão forte quanto a da aranha, mas bem mais fina. Na natureza, ela serve para proteger contra predadores. Para nós, pode se tornar útil na medicina, como um material biodegradável para suturas.

Com 90 milhões de “pares base” de letras de DNA, o genoma do ácaro rajado é o menor já seqüenciado em um artrópode. Segundo Clark, a maior parte possui algo na casa de 3 bilhões de “pares base”.


Fonte: G1.

terça-feira, 13 de dezembro de 2011

Estudo descarta presença do oxigênio no núcleo externo da Terra

O oxigênio não é um componente significativo no núcleo externo da Terra, a camada líquida que cobre seu núcleo interno e central, segundo informa um estudo publicado nesta quarta-feira na revista britânica Nature. Uma equipe de cientistas liderada por Yingwei Fei, do Carnegie Institution de Washington, chegou a esta conclusão depois de fazer experimentos geofísicos com materiais que poderiam estar nessa zona, como o sulfureto, o carbono e o próprio oxigênio.

Há muito tempo sabe-se que o núcleo externo da Terra (líquido) é formado, principalmente, por ferro, mas se suspeita que também exista em menores quantidades outros elementos mais leves que influenciam na geração do campo magnético terrestre. A identificação desses elementos leves esclareceria fatos sobre a época adiantada de formação da Terra e sobre a composição do núcleo central terrestre (sólido), que continua sendo um mistério.

Curta a página da SNCT no Facebook


De acordo com a teoria proposta por Yingwei e sua equipe, que contou com a colaboração do especialista Haijun Huang, da Wuhan University of Technology na China, quando se diferenciaram os dois núcleos terrestres, pôde haver um ambiente "reduzido" e menos oxidado, o que indicaria um núcleo central em oxigênio. Yingwei disse para a Nature que, depois de constatar em seus experimentos a ausência de oxigênio, os pesquisadores deveriam agora "se concentrar na potencial presença de elementos como o silicone no núcleo externo atual".

Dada a impossibilidade de chegar ao centro da Terra, os cientistas tiveram que utilizar técnicas de laboratório para poder comprovar quais elementos poderiam estar presentes na camada que cobre o núcleo central terrestre. Os cientistas costumam obter detalhes sobre o funcionamento e a composição das camadas internas do planeta, como suas diferentes densidades e a velocidade à qual viaja o som, através de observações dos movimentos sísmicos, mas, para contrastar os dados, devem realizar experimentos com modelos simulados em laboratório.

Siga a SNCT Uberlândia no Twitter


Para realizar os experimentos deste estudo foram utilizadas ondas de choque sobre os materiais que poderiam estar no núcleo externo, como ligas de metais de ferro, sulfureto e oxigênio. As ondas reduziram estes materiais a um estado líquido e então os especialistas mediram sua densidade e a velocidade à qual se transmitia o som sob condições comparáveis às do núcleo externo da Terra.

Os especialistas concluíram que o oxigênio não podia ser um componente significativo no núcleo externo, uma vez que os resultados obtidos no laboratório com os materiais ricos em oxigênio não coincidiam com os registrados nas observações sísmicas.

Fonte: Terra.

segunda-feira, 12 de dezembro de 2011

Mudanças climáticas ameaçam o Himalaia

Cúpula, realizada no Butão, discute soluções para uma das áreas de maior biodiversidade do mundo
Chuvas erráticas, geleiras que se derretem e uma biodiversidade ameaçada são os sintomas da mudança climática na cordilheira do Himalaia, enquanto os governos da região se esforçam para encontrar soluções o mais rápido possível.

Um exemplo da necessidade de cooperar é a Cúpula do Clima pela Vida do Himalaia, que ocorreu neste último fim de semana no Butão com a participação também de dirigentes da Índia, Bangladesh e Nepal, para elaborar estratégias de adaptação à mudança climática.

Os especialistas constatam que a quantidade de neve na cordilheira diminuiu e que o aumento das temperaturas está derretendo as geleiras, o que terá efeitos sobre o nível dos rios que nascem nela.

Curta a página da SNCT no Facebook


Também correm perigo a fauna e a flora dessas montanhas que percorrem o norte da Índia e atravessam Nepal e Butão, consideradas pela organização WWF uma das áreas de maior biodiversidade do mundo.

"Existe um impacto acelerado de um planeta cada vez mais quente, pressões da crescente população humana sobre seus recursos e uma extração insustentável de produtos florestais", denuncia a WWF.

Nos montes do Himalaia, foi documentada a presença de 10 mil espécies de plantas, 977 aves, 300 mamíferos, 269 peixes de água doce, 176 répteis e 195 anfíbios. Além disso, alguns grandes animais selvagens, como elefantes, tigres e rinocerontes costumam passar inadvertidamente de um país para o outro, motivo pelo qual os ambientalistas reivindicam uma ação além das fronteiras.

"Precisamos que as florestas estejam conectadas para proteger a biodiversidade", disse o organizador da Cúpula, Nwang Norbu, em uma videoconferência transmitida da capital do Butão para a imprensa em Katmandu.

Esta é a primeira vez que se discutem os problemas do Himalaia de maneira específica. Por isso, os organizadores da conferência depositam bastante esperança em relação a novas linhas de atuação.

Segundo Jayaram Adhikari, do Ministério do Meio Ambiente nepalês, ainda existem arestas organizacionais para serem aparadas, mas a conferência já se divide em quatro seções: biodiversidade, alimentação, segurança energética e gestão de água.

Siga a SNCT Uberlândia no Twitter

Este último assunto é o que desperta mais preocupação, pois os rios que nascem no Himalaia abastecem milhões de pessoas no subcontinente indiano, além de regar as plantações que os alimentam e lhes fornecem eletricidade.

"Trabalhamos para compartilhar informações sobre fluxos de água nos rios, assim como sobre a quantidade de chuva e temperatura. Há muito poucos dados científicos disponíveis para uma análise apropriada", explicou Adhikari.

O ciclo de chuvas em transformação gerou no passado efeitos devastadores em zonas da Índia e Bangladesh, onde se registraram inundações, e está tendo efeitos sobre a segurança alimentar dos habitantes.

Enquanto agora no Nepal chova mais do que antes, em alguns lugares do subcontinente onde a monção que chega sempre na mesma data, as chuvas vem com atraso. "Há lugares onde as casas costumavam ter telhados de palha. É preciso criar estratégias de adaptação, pois agora a chuva poderia arrasá-las", alertou Adhikari.

Segundo o organizador da Cúpula, a troca de tecnologia para criar cultivos resistentes à seca poderia ser uma forma de cooperação. No horizonte de colaboração aparecem também os intercâmbios energéticos e econômicos, porque a Índia importa energia hidrelétrica a partir do Butão e suas empresas iniciaram a construção de novas unidades no Nepal.

Contudo, isto ocorre em paralelo com o derretimento das geleiras e a formação de lagos que ameaçam, enquanto novas rachaduras ocorrem, povoados localizados em altitudes mais baixas.

"Os países não podem sozinhos diminuir os efeitos da mudança climática, precisamos cooperar porque isso reduzirá os custos e poderemos compartilhar conhecimento", disse à Agêcia Efe o porta-voz do ministério do Meio Ambiente do Nepal, Meena Khanal.

Fonte: iG.

domingo, 11 de dezembro de 2011

Lixo espacial pode dificultar uso de satélites no futuro, diz especialista

Mais um objeto espacial deve cair na Terra nos próximos dias. Agora, trata-se da sonda interplanetária Fobos-Grunt, lançada de uma base do Cazaquistão e que se perdeu no espaço. Segundo especialistas, ela deve "aparecer" em algum ponto do planeta a partir de 3 de dezembro. O caso alerta, mais uma vez, para a quantidade de objetos espaciais que são lançados sem preocupação com o fim de sua vida útil. "Podemos chegar a uma época em que não poderemos mais usar tecnologias como o satélite devido ao grande número de dejetos que vão estar no espaço", explica Renato Las Casas, professor do Departamento de Física do Instituto de Ciências Exatas da Universidade Federal de Minas Gerais (UFMG).

A Nasa já informou que a quantidade de detritos suspensos no espaço alcançou um ponto crítico, o que gera perigo, principalmente, para satélites e astronautas. De acordo com a agência espacial americana, são tantos os objetos que vagam pelo espaço no momento que é grande a chance de colisão. Com isso, ainda mais lixo seria gerado, aumentando os riscos de danificar outros aparelhos espaciais. "Os detritos espaciais aumentam geometricamente", declara Las Casas.

Embora a ONU tenha um subcomitê jurídico que aponta diretrizes para o uso espacial, os países dificilmente as cumprem, e acidentes graves já ocorreram em decorrência do acúmulo de aparelhos e fragmentos deles no espaço. Na opinião de Las Casas, a legislação não ganha força porque as agências espaciais estão mais preocupadas com o lucro que suas atividades podem gerar.

Quando o lixo espacial vira terrestre
Quando os objetos espaciais param de funcionar como deveriam (por perder sua validade ou ser afetado por algum problema), perdem a velocidade com a qual orbitam a Terra. Quando essa velocidade diminui muito, a força gravitacional terrestre puxa os objetos em direção ao planeta, gerando as quedas. Thais Russomano, coordenadora do Centro de Microgravidade da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS) afirma que, apesar da frequência com que detritos de lixo espacial retornam à Terra, a probabilidade do objeto acertar alguém é rara porque nosso planeta tem mais água do que terra - e esta, por sua vez, não é totalmente habitada.

Siga a SNCT Uberlândia no Twitter


Estatisticamente, a chance é pequena de algum objeto espacial cair em porção habitada. Mas especialistas que procuram a sonda russa projetam que sua queda possa ocorrer sobre os territórios dos Estados Unidos, China, África, Austrália, sul da Europa ou Japão. Já foi divulgado que os EUA e a China têm mísseis capazes de abater a espaçonave, que pesa 13,5 t. Contudo, esta proposta só aumentaria ainda mais o número de detritos espaciais.

Segundo Thais Russomano, explodir satélites ou outros objetos espaciais pode agravar ainda mais o problema, pois vários componentes, bem como a poeira originada na explosão, ficariam orbitando o planeta.

Há solução?

Se a população mundial começou a se preocupar com o lixo produzido no planeta apenas há 50 anos, a consciência de que a atividade espacial também produz dejetos veio ainda mais tarde. O professor da UFMG relata que há 20 anos cientistas já falavam em lixo espacial, mas em lugares restritos. A preocupação com o tema é recente e é consequência dos artefatos que volte e meia caem e são divulgados pela mídia.

Thais Russomano diz que já existem planos de que as agências espaciais, responsáveis por terem colocado os satélites (ou outros objetos) em órbita ou mesmo tenham produzido lixo cósmico de outras formas, comecem um processo de limpeza. No entanto, o custo da limpeza é muito alto e ainda não há solução para este problema.

Já Renato Las Casas conta que existem ideia para se fazer esta faxina - como uma grande rede que recolheria os dejetos ou pistolas a laser que consumissem com os detritos. Porém, todas elas são impraticáveis por enquanto. "Por enquanto, o que podemos fazer é diminuir o envio de artefatos para o espaço", alerta.

Curta a página da SNCT no Facebook


Uma medida apontada por Las Casas seria a instalação obrigatória de um dispositivo que o lançasse para mais longe da Terra após sua vida útil - não evitaria o lixo, mas diminuiria a concentração dele na órbita da Terra.

A sonda perdida
A missão da sonda interplanetária Fobos-Grunt seria de 34 meses e teria o objetivo de trazer a Terra uma amostra de 200 gramas do solo de Marte. O projeto custou US$ 170 milhões e tinha a intenção de estudar a matéria inicial do sistema solar e explicar a origem de Fobos e Deimos, a segunda lua de Marte, e de outros satélites naturais do sistema solar.

A tentativa anterior da Rússia de enviar um aparelho a Marte, em 1996, terminou fracassada depois da queda da sonda Mars-96, no oceano Pacífico, sem sequer alcançar a órbita terrestre.

Fonte:
Terra.

sábado, 10 de dezembro de 2011

Cientista desenvolve spray que detecta tumores em poucos minutos

Tecidos com células cancerígenas brilharam 20 vezes mais que o restante após serem pulverizados com o reagente

Uma equipe liderada por dois cientistas japoneses desenvolveu um reagente que provoca o brilho de células cancerígenas e facilita, assim, a detecção de tumores muito pequenos, informa nesta quinta-feira a agência de notícias japonesa "Kyodo".

Ao ser pulverizado sobre uma área determinada, o reagente, ainda em fase experimental, pode ressaltar um carcinoma de tamanho inferior a um milímetro. O reagente dá às células malignas um brilho de cor verde, detalham os cientistas na última edição da revista médica "Science Translational Medicine".

Siga a SNCT Uberlândia no Twitter


A ressonância magnética e outros métodos existentes são incapazes de destacar tecidos cancerígenos de dimensões tão pequenas. A equipe considera que este avanço poderá, no futuro, ajudar a detectar com maior precisão e menor custo o desenvolvimento de um câncer.

"A capacidade do olho humano em detectar, sem ajuda, pequenos focos de câncer ou limites precisos entre o câncer e o tecido normal durante a cirurgia ou a endoscopia é limitada", explicam os pesquisadores em seu artigo.

Yasuteru Urano, professor de Bioquímica da Universidade de Tóquio, e Hisataka Kobayashi, cientista-chefe dos Institutos Nacionais de Saúde dos Estados Unidos, são os dois pesquisadores que lideram a equipe. Eles esperam que o reagente possa ser utilizado dentro de poucos anos.

Curta a página da SNCT no Facebook


O reagente desenvolvido emite um brilho verde em questão de minutos graças a uma reação química quando entra em contato com uma enzima chamada GGT, só presente na superfície das células cancerígenas.

Durante a pesquisa, o grupo conseguiu fazer com que o tecido afetado brilhasse 20 vezes mais que o restante, poucos minutos após pulverizar o reagente sobre o abdômen de ratos que tinham recebido células humanas afetadas por câncer de ovário.

A equipe ainda terá de certificar que a molécula fluorescente não é tóxica para o restante das células, mas já afirma que não foram detectados efeitos perigosos, mesmo ao utilizar grandes quantidades do reagente.

Fonte: iG.

sexta-feira, 9 de dezembro de 2011

Transplante de neurônios recupera funções cerebrais

Nova técnica, usada em camundongos, ainda precisa ser aperfeiçoada, mas é esperança no tratamento de doenças que afetam o cérebro

Doenças que afetam o cérebro comprometem a qualidade de vida de milhões de pessoas em todo o mundo. Uma nova pesquisa publicada nesta quinta-feira (24) no periódico científico Science mostrou que o cérebro de mamíferos aceita mais reparos na idade adulta do que se imaginava.

Feito por pesquisadores da Universidade de Harvard, do Hospital Geral de Massachusetts e Centro Médico Beth Israel, o trabalho implantou neurônios de embriões de camundongos em animais adultos que tinham uma deficiência cerebral, a incapacidade de responder ao hormônio leptina, responsável por regular o metabolismo e controlar o peso em diversos mamíferos, entre eles o camundongo e o homem.

Siga a SNCT Uberlândia no Twitter


Como consequência, os camundongos adultos que tinham obesidade mórbida à falta de leptina emagreceram e passaram a ter um metabolismo normal. “O que fizemos aqui foi reconectar um sistema do circuito cerebral que geralmente não se regeneraria naturalmente e isto restaurou substancialmente sua função normal”, afirmou Jeffrey Macklis, de Harvard, em podcast disponibilizado pela revista.

Aparentemente, o que ocorreu no hipotálamo dos camundongos adultos – local em que foram inseridos os neurônios – foi que estes se diferenciaram em quatro tipos diferentes de neurônios, formaram conexões e restauraram a capacidade de processar o sinal da leptina.

Curta a página da SNCT no Facebook


Embora não seja um meio prático para tratar obesidade, o estudo traz evidências de que este tipo de transplante pode ajudar a recuperar funções em regiões do cérebro que controlam mecanismos complexos – o hipotálamo gere, por exemplo, emoções, comportamento sexual, temperatura corporal, sede, entre outros.

Os resultados também mostraram aos pesquisadores que, em teoria, há a possibilidade de aplicar técnicas similares para outras doenças neurológicas e psiquiátricas. “Nosso próximo passo é fazer perguntas paralelas para outras partes do cérebro e da medula espinhal, relacionadas a esclerose lateral amiotrófica e traumas medulares. A pergunta é: nesses casos, podemos reconstruir o circuito no cérebro de um mamífero? Imagino que sim”, afirmou Macklis.

Fonte: iG.

quinta-feira, 8 de dezembro de 2011

Câncer visto em 3D

Uma das principais características das células cancerosas é que determinadas regiões de seu DNA tendem a se duplicar muitas vezes, enquanto outras são eliminadas. Essas alterações genéticas costumam auxiliar as células a se tornar mais malignas, tornando-as mais capazes de crescer e se espalhar pelo corpo.

Um grupo de cientistas do Instituto de Tecnologia de Massachusetts (MIT) e da Universidade Harvard, nos Estados Unidos, observou que a estrutura tridimensional do genoma das células tem um papel fundamental em determinar quais partes do DNA têm mais chances de serem alteradas nas células tumorais.

Siga a SNCT Uberlândia no Twitter


Os pesquisadores, liderados por Leonid Mirny, do MIT, desenvolveram uma técnica para comparar a arquitetura em 3D da cromatina (complexo de DNA e proteínas dentro do núcleo celular) com aberrações cromossômicas frequentemente observadas em cânceres.

O estudo, publicado no dia 20 de novembro na revista Nature Biotechnology, mostrou que quaisquer dois pontos que frequentemente se encontram têm mais chances de formar o final da molécula de DNA que é cortado ou duplicado.

Curta a página da SNCT no Facebook


“Aparentemente, as aberrações cromossômicas no câncer são formatadas pela estrutura do cromossomo”, disse Mirny. Segundo ele, o estudo revela mecanismos que poderão ajudar a apontar locais que hospedam genes causadores de câncer e ainda não identificados.

Os cientistas pretendem analisar genomas em 3D de diferentes tipos de câncer, para verificar se alterações que costumam ocorrem em tumores no fígado, por exemplo, são diferentes dos que atingem o pulmão.

O artigo High order chromatin architecture shapes the landscape of chromosomal alterations in cancer (doi:10.1038/nbt.2049), de Leonid Mirny e outros, pode ser lido por assinantes da Nature Biotechnology em www.nature.com/nbt/journal/vaop/ncurrent/full/nbt.2049.html.

Fonte: Agência Fapesp.

quarta-feira, 7 de dezembro de 2011

As redes sociais e a Semana Nacional de Ciência e Tecnologia em Uberlândia

O mundo está conectado. Prova disso são as redes sociais, lugares cibernéticos onde pessoas de várias idades interagem em busca de diferentes contatos, sejam eles profissionais ou pessoais. Nesses locais, a Semana Nacional de Ciência e Tecnologia (SNCT) – Uberlândia se inseriu com perfis no Orkut, Facebook e Twitter, além de comunidades e páginas onde os usuários dessas redes puderam ler sobre as curiosidades da área de ciência e tecnologia ao serem direcionados para o blog da Semana, o qual recebeu mais de 12 mil visitas antes, durante e após o evento.

Empresas, jovens e adultos têm adicionado frequentemente o perfil da Semana no Facebook, com uma média de cinco pedidos de amizade por dia. Além disso, as micropostagens do Twitter são retweetadas, isto é, repetidas por outras pessoas diariamente. Isso impactou positivamente no número de participações no evento, haja vista que a população compareceu aos eventos realizados em nossa cidade.

Os números não mentem: a 3ª edição da SNCT Uberlândia foi um sucesso!


Números da SNCT nas redes sociais*

Twitter (@SNCTUberlandia)
Postagens (Tweets): 175
Retweets: 20
Seguidores: 86

Blog (http://www.sctuberlandia.blogspot.com/)
Postagens: 160
Acessos: 12.635

Perfil do Facebook (SNCT Uberlândia)
Amigos: 787

* Dados coletados até 28 de novembro de 2011.

Rafael Abrahão de Sousa
Revisor de textos e editor deste blog

terça-feira, 6 de dezembro de 2011

Aplicativo permite avaliar desmatamentos

O Instituto Nacional de Pesquisas Espaciais (Inpe) lançou o Land Use and Cover Change (LuccME) – uma ferramenta de código aberto para a construção e customização de modelos de mudança de uso e cobertura da terra.

Desenvolvida pelo Centro de Ciência do Sistema da Terra (CCST) do Inpe, a ferramenta é uma extensão do ambiente de modelagem TerraME, resultado de parceria entre o Instituto e a Universidade Federal de Ouro Preto.

De acordo com o Inpe, o aplicativo possibilita representar e simular diferentes processos de mudança de uso e cobertura da terra, como desmatamentos, expansão da fronteira agrícola, desertificação, degradação florestal, expansão urbana e outros processos em diferentes escalas e áreas de estudo. Uma das aplicações desse tipo de modelo é a construção de cenários espacialmente explícitos de futuros alternativos.

Siga a SNCT Uberlândia no Twitter


Segundo Ana Paula Aguiar, pesquisadora do Inpe e líder do projeto, a proposta do LuccME é prover uma ferramenta de código aberto – a primeira no país e, talvez, no mundo – na qual componentes já existentes podem ser combinados e facilmente estendidos para a criação de modelos Land Use and Cover Change (LUCC).

O LuccME poderá ser utilizado por instituições de ensino, organizações da sociedade civil, iniciativa privada e órgãos públicos, como secretarias de planejamento de estados e municípios.

A nova ferramenta permite ao usuário explorar diferentes ideias, decidir quais os componentes mais adequados à sua necessidade e utilizá-los integralmente ou em partes, adaptando o modelo de acordo com a aplicação.

A ferramenta foi projetada para facilitar a construção e o reuso de modelos por pessoas que não possuem um forte conhecimento de programação de computadores.

Curta a página da SNCT no Facebook


Além disso, o LuccME possibilita aos usuários melhorar os componentes de modelagem já implementados dentro de seu ambiente, bem como criar novos componentes baseados em ideias e teorias preexistentes e inovadoras, tanto do ponto de vista computacional como das novas abordagens nos chamados sistemas socioecológicos.

Outra característica é facilitar o acoplamento dos modelos LUCC a outros modelos do sistema terrestre, visando à construção de modelos integrados. Para isso, a ferramenta utiliza as facilidades de encapsulamento e acoplamento de modelos oferecidas pelo TerraME.

O LuccME é usado no Inpe para a construção de modelos operacionais de mudança de uso da terra em diferentes biomas brasileiros, acoplados ao modelo de emissões de gases do efeito estufa por mudanças de cobertura da terra. Tais modelos serão utilizados na análise de cenários de mudança de uso da terra até 2050, por sua vez acoplados a modelos climáticos, hidrológicos e de vegetação, no contexto do projeto Amazalert.

Mais informações: www.inpe.br.

Fonte: Agência Fapesp.

segunda-feira, 5 de dezembro de 2011

Estudo revela ação de gene para crescimento de planta

Trabalho que rendeu artigo na Plant Phisiology, está relacionado ao melhoramento da cana-de-açúcar

Pesquisa recente desenvolvida no Centro de Biologia Molecular e Engenharia Genética (CBMEG) com a planta modelo Arabidopsis thaliana revelou que o AtbZIP63, “um gene que regula outros genes”, tem uma participação relevante no ajuste do crescimento e do desenvolvimento dessa planta, integrando a disponibilidade de energia obtida através da fotossíntese com a de água no solo (estresse hídrico). O trabalho gerou um artigo que acaba de ser publicado na revista norte-americana Plant Phisiology. Resultado do Bioen, projeto temático da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp) relacionado com Bioenergia, a investigação está focada no melhoramento da cana-de-açúcar e na compreensão como as plantas conseguem otimizar a conversão de energia através da fotossíntese para ser transformada em biomassa, seja celulose ou açúcar.

O que se percebeu foi que esse gene é capaz de combinar duas informações importantes quando se trata de crescimento e desenvolvimento. A primeira das informações é como estão suas reservas de energia na forma de glicose – carboidrato essencial a praticamente todas as formas de vida – e onde está contida a energia química e o carbono para a construção das moléculas da vida. Já a segunda informação é como está a disponibilidade de água no solo, informação codificada na quantidade de um dos hormônios mais importantes para as plantas, o ácido abscissíco (ABA), que sinaliza para todo o organismo se há água suficiente no solo para que ela possa crescer normalmente ou se precisa fazer alguns ajustes.

O biólogo Cleverson Carlos Matiolli – autor do trabalho, escrito em colaboração – reporta que o entendimento de como esse processo de ajuste ocorre pode ser fundamental à compreensão de como a planta lida com as variações que ocorrem no ambiente, principalmente em tempos em que as perspectivas de mudanças climáticas podem ocorrer nas próximas décadas devido ao aquecimento global. “Entender como as plantas conseguem lidar com o estresse hídrico e com o uso de energia (obtido na fotossíntese e acumulada na forma de açúcares para crescer e se desenvolver) pode fornecer pistas que poderão ser empregadas futuramente para a manipulação de outras plantas que, diferentemente dessa planta modelo, têm interesse econômico, como por exemplo a cana-de-açúcar ou o eucalipto. Estas plantas, assim como a planta modelo Arabidopsis thaliana, também precisam usar estas informações sobre as reservas de energia e disponibilidade de água para que possam crescer e acumular sacarose e celulose”, contextualiza.

No estudo, Matiolli procurou entender como as plantas são capazes de se desenvolver e, junto do seu desenvolvimento normal, adaptar-se às condições variáveis do meio, inclusive com o estresse. A Arabidopsis thaliana, recorda ele, é a primeira planta cujo genoma foi completamente sequenciado e que vem sendo usada como organismo modelo para estudo da biologia molecular vegetal nas últimas duas décadas. É uma planta modelo como o camundongo é modelo de estudo de mamíferos e a Escherichia coli é modelo de estudo de microbiologia. Ela foi escolhida há anos devido a algumas características especiais que possui, como um ciclo de vida curto, facilidade de gerar e selecionar mutantes, e o fato de ser um genoma bastante compacto dentre as plantas, o que traria uma maior facilidade de ser sequenciado.

Otimização
O biólogo buscou compreender como as plantas conseguem otimizar o uso da energia obtida através da fotossíntese, como ela estabelece um protocolo de uso balanceado dessa energia para o seu desenvolvimento e crescimento num ambiente que varia constantemente.

Durante o dia, explica ele, a planta é agraciada pela luz do sol e produz compostos de carbono através da fotossíntese. Boa parte desta energia é canalizada para o seu crescimento. O seu excedente é reservado sob a forma de compostos de carbono, mais especificamente de amido, para que, durante a noite, esse amido tenha uma quantidade suficiente de energia para que a planta possa continuar crescendo e se desenvolvendo. “A planta cresce ao longo das 24 horas do dia”, pontua. Mas essa energia armazenada durante o dia necessita ser empregada de modo otimizado.

A ação do gene AtbZIP63 varia de acordo com o dia e a noite, obedecendo a um ciclo circadiano, que nada mais é que um relógio biológico que os organismos seguem. Sua atividade aumenta durante a noite e diminui durante o dia, e esta sua variação é uma pista valiosa de que ele está envolvido nestes ajustes que são necessários nas transições dia-noite. “O relógio biológico ajuda as plantas a preverem as mudanças que acontecerão quando a noite chegar e quando o dia amanhecer, preparando a sua adaptação e o uso das reservas”, afirma o pesquisador.

É claro que há ainda a possibilidade de existirem estresses provocados por patógenos (como bactérias, vírus e fungos) e pouca disponibilidade de água no solo (estresse hídrico), reduzindo a eficiência de crescimento. A planta precisa se adequar a estas situações, adverte Matiolli, e tentar usar da melhor forma possível o que tem.

Por outro lado, como ela consegue fazer uso dessas reservas de maneira eficiente? O autor do artigo explica que nesse contexto entra em ação o gene estudado – conhecido como fatores reguladores de transcrição (FTs). Eles atuam regulando o processo de ativação e de inativação, em geral muito significativo, de múltiplos genes que são centrais na adaptação da planta a uma nova condição, entre elas a presença ou não de luz do sol.

Curta a página da SNCT no Facebook


No caso das plantas, isso é preponderante já que, durante o dia, elas têm um aporte de energia do sol através da fotossíntese (com a conversão dessa energia do sol) e à noite, não tendo mais essa energia, elas precisam utilizar as suas reservas. A previsão da planta serve para prevenir carências de energia e de compostos de carbono, para continuar crescendo e se desenvolvendo. No ciclo dia-noite, ela tem uma mudança de fisiologia, mostrando um metabolismo de dia e outro de noite. Fazem parte dessa mudança também os genes que são ativados ou desativados, desde que relacionados com o uso da energia. Durante a noite, a planta não precisa produzir proteínas ou ativar genes ligados à fotossíntese. Precisa, antes, ativar genes responsáveis pela mobilização das reservas.

Adversidades
A expressão do gene AtbZIP63, da família bZIP (Basic Leucine Ziper), também modifica: durante o dia, ela cai e durante a noite aumenta, acompanhando o ciclo circadiano. Sendo esse um gene que regula outros genes, os “regulados” vão em geral obedecer o mesmo padrão de oscilação. “Recentemente, vimos que o regulador de transcrição rege processos relacionados ao uso de amido e de energia contida nele, pela reserva durante o dia. Ativa e inativa genes que vão atuar no controle do uso do amido durante a noite.” Esse pode ser um dos aspectos como esse gene trabalha.

O que se observou na pesquisa de Matiolli, orientada pelo docente do CBMEG Michel Vincentz, foi que o mutante (uma planta que não tem esse gene ativo) apresenta problemas de desenvolvimento e de crescimento. Essa dificuldade tem uma íntima relação com o seu possível papel no controle do uso do amido e com o desenvolvimento da parede celular. Já no que tange ao fator de transcrição, esse gene ainda regula um conjunto de outros genes do estresse energético, situação em que se verifica escassez aguda de energia.

Siga a SNCT Uberlândia no Twitter


Cleverson pondera que a planta necessita lidar com esse tipo de adversidade. É o caso de uma situação em que por uma semana inteira o dia fica nublado e com pouca luz do sol. A planta não consegue acumular muita energia através da fotossíntese. Então ela começa a entrar numa carência de energia sem a luz do sol para se alimentar.

Como a planta consegue responder a essa escassez aguda de energia? Esse gene encara um papel decisivo. A tendência natural, se essa condição de estresse energético prosseguir por muito tempo, conta Matiolli, é que ela diminua a sua eficiência reprodutiva, produzindo menos sementes, ou morra. Uma atitude natural da planta é buscar a otimização do seu desenvolvimento até a reprodução, para que ela consiga – mesmo com condições estressantes de energia – lidar com isso. “Ela vai tentar até o último instante se reproduzir e gerar descendentes”, assinala. Agora, se a planta não trabalhar muito bem com esse estresse, poderá ter um crescimento e um acúmulo pouco eficientes. Não conseguirá se desenvolver adequadamente e acumular biomassa da forma como deveria, lamenta. Este estudo foi desenvolvido no Laboratório de Genética de Plantas, na linha de pesquisa de Genética Vegetal.

Publicação
Matiolli, C. C.; Tomaz, J.P., Duarte, G.T.; Prado, F.M.; Del Bem, L.E.V.; Silveira, A.B.; Gauer, L.; Corrêa, L.G.; Drumond, R.D.; Viana, A.J.C; Di Mascio, P.; Meyer, C.; Vincentz , M.G.A. The Arabidopsis bZIP gene AtbZIP63 is a sensitive integrator of transient ABA and glucose signals. Plant Physiology, 13, 2011.

Fonte:
Jornal da Unicamp.



 
Design by Adilmar Coelho Dantas | Edited by Renata da Silva Souza | Open Source