quarta-feira, 13 de fevereiro de 2013

Condutores elásticos

A realidade é mesmo muito estranha. Dias atrás, publicamos um artigo sobre o polônio, um elemento químico que, apesar de muito letal, pode ser encontrado naturalmente no meio ambiente. Agora, preparamos uma lista com cinco invenções ou substâncias que chegam a ser mais esquisitas do que uma axila robótica. Vamos a elas.

Condutores elásticos

5 invenções que contrariam as Leis da FísicaCondutores elásticos oferecem avanços para "wearable computers" (Fonte da imagem: ntech.t.u-tokyo.ac.jp)
Já existem muitas notícias sobre os “wearable computers”, ou seja, gadgets ou computadores que podem ser usados como acessórios de moda ou peças de roupa. O Tecmundo já publicou, inclusive, uma galeria sobre esse assunto.
Mas pesquisadores japoneses resolveram levar esse conceito a um patamar muito maior. A “malha” exibida acima é, na verdade, um material elástico feito com nanotubos de carbono e capaz de conduzir energia elétrica por meio de transistores. Com ela seria possível construir máquinas completamente flexíveis, a ponto de serem esticadas até dobrarem de tamanho e voltarem ao normal sem que fossem danificadas.

quinta-feira, 10 de maio de 2012

Pesquisadores criam ligas metálicas que absorvem hidrogênio de forma segura

Objeto feito de magnésio, com estrutura em escala nanométrica, oferece maior resistência à corrosão e ao desgaste do que os metais convencionais

09 de maio de 2012 | 12h 54

Agência Fapesp
Uma liga de magnésio com estrutura em escala nanométrica (da bilionésima parte do metro) capaz de absorver e aprisionar hidrogênio de forma segura, liberando-o somente quando aquecida. E uma liga metálica que possui maior resistência à corrosão e ao desgaste do que os metais convencionais.
O metal se torna frágil, mas ao mesmo tempo passa a ter uma resistência extremamente elevada - Divulgação
Divulgação
O metal se torna frágil, mas ao mesmo tempo passa a ter uma resistência extremamente elevada
Exemplos de novos materiais como esses, com aplicações em áreas tão diversas como petróleo, energia e biomedicina, estão sendo desenvolvidos e caracterizados por pesquisadores da Universidade Federal de São Carlos (UFSCar).
Possibilidades de desenvolvimento dessa nova classe de ligas metálicas, que englobam as ligas amorfas, metaestáveis e nanoestruturadas, foram apresentadas na First São Carlos School of Advanced Studies in Materials Science and Engineering (SanCAS-MSE) - Primeira Escola São Carlos de Estudos Avançados em Engenharia e Ciências dos Materiais, realizada entre os dias 25 e 31 de março.
Realizado no âmbito da Escola São Paulo de Ciência Avançada (ESPCA), modalidade de apoio da FAPESP, o evento foi organizado pelo Departamento de Engenharia e Ciências dos Materiais (DEMa) da Universidade Federal de São Carlos (UFSCar), sob a coordenação dos professores Edgar Zanotto, Elias Hage Junior e Walter José Botta Filho.
Por meio de um Projeto Temático, realizado com apoio da FAPESP, os pesquisadores do DEMa começaram a desenvolver e a caracterizar nos últimos anos ligas metálicas com melhores propriedades mecânicas do que os metais convencionais, conferidas pelo processo de resfriamento a que são submetidas.
Ao serem resfriadas rapidamente em sua fase líquida, na faixa de 1 milhão de graus por segundo, os átomos que compõem a estrutura dessas ligas não têm tempo de se rearranjar de maneira ordenada e formar uma estrutura cristalina de pequenos aglomerados de átomos, como a dos metais convencionais. Em função disso, em estado sólido essas novas ligas retêm a mesma estrutura desordenada dos átomos em estado líquido (amorfo).
Por terem sido resfriadas rapidamente, as ligas metálicas amorfas também permanecem em uma condição de metaestabilidade - em que não estão na condição energética mais estável para elas.
Dessa forma, além de apresentar uma série de propriedades diferenciadas dos materiais convencionais, como maior resistência, quando voltam à sua condição de equilíbrio também podem resultar em novas microestruturas, formando, por exemplo, grãos cristalinos na escala nanométrica.
“Essa condição amorfa confere propriedades muito interessantes ao metal, que são muito próximas às de um vidro. Ele se torna frágil, mas ao mesmo tempo também passa a ter uma resistência extremamente elevada”, disse Botta Filho, coordenador do projeto, à Agência FAPESP.
De acordo com ele, uma das aplicações dessas novas ligas metálicas nanoestruturadas é na armazenagem sólida de hidrogênio. Os pesquisadores estão desenvolvendo no âmbito do projeto protótipos de tanques de armazenagem de hidrogênio, compostos por ligas de magnésio nanoestruturadas, que são capazes de aprisionar o gás de forma segura para ser posteriormente utilizado para geração de energia.
Ao ser injetado no tanque de armazenagem, o hidrogênio reage com o magnésio das ligas que compõem o compartimento e forma um hidreto metálico que se decompõe quando aquecido a uma determinada temperatura, liberando o gás para ser queimado, por exemplo, em um motor a combustão ou em uma célula a combustível para geração de energia.
“Essa é uma alternativa muito interessante de armazenar hidrogênio que pode ser utilizada para substituir os cilindros de alta pressão utilizados para aprisionar o gás, que são extremamente pesados”, disse Botta Filho.
Ligas amorfas
Outra aplicação das ligas metálicas desenvolvidas e caracterizadas pelos pesquisadores está no recobrimento de tubos para extração de óleo e gás utilizados pelas indústrias petrolíferas, que costumam apresentar problemas de corrosão e se degradam com o tempo.
“Na tentativa de solucionar o problema, vários tipos de recobrimentos têm sido utilizados. Somente nos últimos anos, porém, as ligas de metais amorfas, que apresentam excelentes propriedades de resistência à corrosão e ao desgaste, têm sido avaliadas para essa finalidade”, disse Botta Filho.
“Desenvolvemos ligas metálicas amorfas que apresentam maior resistência à corrosão e ao desgaste e agora estamos aplicando-as em superfícies de metais tipicamente utilizados em tubulações”, disse.
O grupo também estuda a utilização de ligas metálicas para o desenvolvimento de implantes biomédicos biodegradáveis. Feitas de elementos como cálcio, magnésio e zinco, as ligas metálicas podem ser utilizadas na fabricação de parafusos para ossos, por exemplo, que após um determinado tempo são absorvidos pelo organismo.
“Ligas metálicas para essa finalidade estão sendo testadas em animais por cientistas na Suíça, e o desempenho tem sido muito bom”, disse o pesquisador.
Outras ligas metálicas também desenvolvidas pelos pesquisadores poderão ser utilizadas em pinos de implantes dentários. Feitas de titânio nanoestruturado, as novas ligas permitem diminuir muito a espessura dos pinos convencionais, mantendo a mesma resistência mecânica. Por conta disso, invadem menos o organismo do paciente.
“Esse tipo de pino de titânio nanoestruturado já está em fase de aprovação no FDA (a agência regulamentadora de alimentos e fármacos dos Estados Unidos)”, disse Botta Filho.
Durante a Primeira Escola São Carlos de Estudos Avançados em Engenharia e Ciências dos Materiais, os pesquisadores da UFSCar deram aulas práticas aos estudantes de pós-graduação brasileiros e estrangeiros participantes sobre como desenvolvem e caracterizam metais amorfos, metaestáveis e nanoestruturados, utilizando os equipamentos de que dispõem no DEMa.
As atividades complementaram as aulas teóricas proferidas por cientistas estrangeiros especialistas em processamento e propriedades de materiais metálicos avançados, como Gary Purdy, professor de engenharia e ciência dos materiais da McMaster University, do Canadá, Lindsay Greer, professor de ciência dos materiais da University of Cambridge, no Reino Unido, e Terence Langdon, professor da University of Southern California, nos Estados Unidos.

segunda-feira, 28 de novembro de 2011

Estudo identifica astros com mais chances de abrigar vida extraterrestre

A lua de Saturno Titã e o exoplaneta Gliese 581g estão entre os corpos celestes mais propensos à existência de vida extraterrestre, diz um artigo científico publicado por pesquisadores americanos.

O estudo da Universidade de Washington criou um ranking que ordena os planetas e satélites de acordo com a semelhança com a Terra e as condições para abrigar outras formas de vida.
Segundo os resultados publicados na revista acadêmica "Astrobiology", a maior semelhança com a Terra foi demonstrada por Gliese 581g, um exoplaneta --ou seja, localizado fora do Sistema Solar--, cuja existência muitos astrônomos duvidam.

Em seguida, no mesmo critério, vem o Gliese 581d, que é parte do mesmo sistema. O sistema Gliese 581 é formado por quatro --e possivelmente cinco-- planetas orbitando a mesma estrela anã a mais de 20 anos-luz da Terra, na constelação de Libra.

CONDIÇÕES FAVORÁVEIS

Um dos autores do estudo, Dirk Schulze-Makuch explica que os rankings foram elaborados com base em dois indicadores.

O ESI (sigla em inglês de Índice de Similaridade com a Terra) ordenou os astros conforme a sua similaridade com o nosso planeta, levando em conta fatores como o tamanho, a densidade e a distância de sua estrela-mãe.

Já o PHI (sigla de Índice de Habitabilidade Planetária) analisou fatores como a existência de uma superfície rochosa ou congelada, de uma atmosfera ou de um campo magnético.

Também foi avaliada a energia à disposição de organismos, seja através da luz de uma estrela-mãe ou de um processo chamado de aceleração de maré, no qual um planeta ou lua é aquecido internamente ao interagir gravitacionalmente com um satélite.

Por fim, o PHI leva em consideração a química dos planetas, como a presença ou ausência de elementos orgânicos, e se solventes líquidos estão disponíveis para reações químicas.

HABITÁVEIS

No critério de habitabilidade, a lua Titã, que orbita ao redor de Saturno, ficou em primeiro lugar, seguida da lua Europa, que orbita Júpiter.

Os cientistas acreditam que Europa contenha um oceano aquático subterrâneo aquecido por aceleração de maré.

O estudo contribuirá para iniciativas que, nos últimos tempos, têm reforçado a busca por vida extraterrestre.

Desde que foi lançado em órbita em 2009, o telescópio espacial Kepler, da Nasa (agência espacial americana), já encontrou mais de mil planetas com potencial para abrigar formas de vida.

No futuro, os cientistas creem que os telescópios sejam capazes de identificar os chamados "bioindicadores" --indicadores da vida, como presença de clorofila, pigmento presente nas plantas-- na luz emitida por planetas distantes.

domingo, 9 de outubro de 2011

Mais rápido que a luz

Hélio schwartsman - link original

No que pode ser a mais importante notícia científica das últimas décadas, pesquisadores do Laboratório Nacional Gran Sasso, na Itália, anunciaram ter flagrado partículas subatômicas com massa viajando em velocidades superiores à da luz.
No experimento Opera, cientistas lançaram neutrinos (partículas elementares cuja massa é muito pequena, mas maior do que zero) do Cern (Organização Europeia de Pesquisa Nuclear), que fica na fronteira entre a Suíça e a França, rumo ao laboratório italiano, percorrendo uma distância de 730 km.
De acordo com a equipe do físico Antonio Ereditato, as partículas concluíram sua jornada 60 nanossegundos (bilionésimos de segundo) antes do que deveriam caso a velocidade da luz tivesse sido respeitada. "Ficamos chocados", declarou Ereditato à revista "Nature".
Não foram só eles. Cientistas de todo o mundo receberam a notícia com descrédito. Pelo menos por ora, preferem atribuir os resultados a algum erro no experimento. Têm bons motivos para isso. Pelo que pude constatar em artigos e blogs da comunidade de físicos, a maioria, aqui incluídos os próprios autores do trabalho, acha mais prudente esperar que esses resultados sejam reproduzidos por outros grupos antes de considerá-los válidos. Dois laboratórios, o Fermilab nos EUA e um outro no Japão, têm capacidade de reproduzir alguma versão do experimento. Isso, entretanto, exigirá tempo. Fala-se em algo como um ano.
Se os resultados da equipe italiana são corretos, boa parte da física produzida no século 20 precisa ser revista. Uma vítima potencial é a teoria da relatividade especial do físico alemão Albert Einstein (1879-1955) --a do famoso E=mc2--, que postula que partículas com massa não podem ser aceleradas para viajar mais rápido do que a luz (os fótons, as partículas de que a luz é feita, ao contrário dos neutrinos, não têm massa). As implicações não têm nada de trivial. Se a velocidade da luz pode ser violada por um neutrino, a forma como o Universo processa informações fica bagunçada. Torna-se em princípio possível que efeitos precedam suas causas, o que literalmente vira o Universo de pernas para o ar. Para os que gostam de enfatizar o lado prático, abrir uma agência de viagens no tempo começa a parecer uma boa oportunidade de negócios.
Em termos mais convenientemente acadêmicos, o próprio impacto da descoberta, se confirmada, vale frisar, ainda não está claro. Victor Stenger, por exemplo, sustenta que os axiomas básicos da relatividade especial e suas equações não saem arranhados. Bastaria, segundo o autor de "The Fallacy of Fine-Tuning", retirar da teoria o princípio da causalidade (a noção, secundária na teoria, de que causas vêm antes de efeitos) que tudo fica bem.
Já Brian Greene, da Universidade Columbia, vê implicações mais profundas. Para ele, a confirmação do neutrino superluminal nos forçaria a rever nossas ideias básicas sobre como o Universo funciona. Stephen Perke, chefe da física teórica do Fermilab, antecipa uma possível solução para o problema: os neutrinos tomaram um atalho por outras dimensões espaciais, o que lhes permitiu viajar mais rápido que a luz.
É aqui que as coisas começam a ficar interessantes. Deixo para os físicos a discussão sobre o que pode estar ocorrendo, se é que há de fato algo ocorrendo, e me concentro num tópico de filosofia da ciência, que é, como veremos mais adiante, o debate entre realistas e instrumentalistas.
Quando Perke recorre a dimensões extras para explicar a possível anomalia, ele está oferecendo uma solução matemática. Isso é não apenas esperado como também necessário. A imbricação entre física e matemática é total, entre outras razões porque nós só conhecemos aquilo que podemos medir, para roubar o bordão de Marcelo Gleiser em ªCriação Imperfeitaº, sobre o qual já escrevi uma resenha.
Ocorre que não são poucos os que acusam a física contemporânea, em especial a física de partículas e os teóricos das supercordas, de estar criando um universo de abstrações matemáticas que não têm como ser testadas no atual estado da nossa tecnologia (o que não seria um pecado muito grave) e nem em princípio (o que garante a danação eterna para um físico). De acordo com esses críticos, esses ramos da física estariam se aproximando perigosamente da metafísica e das religiões.
Que algumas teorias se tenham tornado altamente abstratas e radicalmente inverossímeis é indiscutível. No excelente "The Hidden Reality: Parallel Universes and the Deep Laws of the Cosmos", Brian Greene descreve (e de uma maneira quase compreensível) nada menos do que nove versões de multiverso, isto é, da ideia, para muitos extravagante, de que existem realidades paralelas. De acordo com alguns desses modelos, há mundos em que diferentes versões de você estão neste exato momento lendo esta mesma coluna; em outros, o seu eu paralelo está lendo a coluna, mas ela não trata de física e sim de filologia gótica. O número de realidades paralelas pode ser infinito, ou pelo menos absurdamente grande (maior do que o total de átomos no ªnosso Universoº), abarcando todas as histórias possíveis, isto é, todas as possibilidades concebíveis que não violem as leis da física.
Em outros modelos, universos paralelos brotariam como bolhas de sabão, resultado de flutuações quânticas submetidas a uma expansão ultrarrápida conhecida como inflação cósmica. Combinações desses diferentes nove tipos não estão descartadas. Algumas das propostas são tão complicadas que até as religiões parecem mais lógicas. Mas, ao contrário das fés, esses modelos estão calcados em sólida matemática e nenhum deles sugere que faça sentido rezar para realidades paralelas. Se há uma característica notável nos universos alternativos é que eles interagem muito fracamente com o nosso, quando e se de fato o fazem.
A questão que fica é: dá para acreditar nessas coisas? É aqui que entra a polêmica entre realistas e instrumentalistas. Para os primeiros, que incluem autores consagrados como Greene e o israelense David Deutsch, a resposta é sim. Universos paralelos existem e devemos acreditar neles porque é aonde as equações nos levam. Mais do que isso, já contamos com algumas evidências empíricas, como o fenômeno da interferência quântica. Com o tempo, afirmam, mais provas deverão acumular-se e provavelmente um dia teremos explicações completas que tornem essas realidades menos contraintuitivas.
Em favor de seu caso, lembram que não havia ideia mais estranha do que a de que a Terra se move em altíssima velocidade em torno de seu próprio eixo e também do Sol. Afinal, o que vemos é o Sol cruzando os céus e não sentimos estar em movimento. Foi a matemática de Copérnico e Galileu que nos levou ao paradigma heliocêntrico, que hoje não recebe contestação.
Para os realistas, ainda que aos trancos e barrancos e sujeitos a erros, o que a matemática revela é real e os modelos científicos descrevem o mundo, o tecido de que é feito o Cosmo. A eles opõem-se os instrumentalistas, para os quais a realidade é, no fundo, incognoscível. Tudo o que a ciência pode nos oferecer são previsões corretas e é a elas que devemos nos ater. Uma teoria é tão boa quanto as previsões corretas que ela consegue fazer. Vale lembrar que a própria matemática, na qual a física se funda, é bem menos consistente do que gostamos de imaginar, como o demonstrou Kurt Gödel com seus teoremas da incompletude. A decorrência é que a própria lógica repousa sobre uma série de pressupostos filosóficos que não temos como justificar.
É um debate apaixonante no qual, pelo menos por ora, me abstenho de tomar posição. E ele ganha especial relevância numa situação em que uma ideia fundamental da física moderna pode ter sido contradita por um experimento. Se o neutrino apressadinho for de fato confirmado, os próximos meses e anos deverão ser epistemologicamente emocionantes.

terça-feira, 4 de outubro de 2011

A Física Quântica: o que é, e para que serve

Já faz cem anos que Planck teve de lançar mão de uma expressão inusitada para explicar os seus resultados da medida da intensidade da radiação emitida por um radiador ideal - o corpo negro - levando-o assim a estabelecer o valor de uma nova constante universal que ficou conhecida como a constante de Planck. A partir daí, e também em função de outras experiências que apresentavam resultados igualmente surpreendentes no contexto da mecânica de Newton e do eletromagnetismo de Maxwell, os pesquisadores do começo do século passado se viram obrigados a formular hipóteses revolucionárias que culminaram com a elaboração de uma nova física capaz de descrever os estranhos fenômenos que ocorriam na escala atômica; a mecânica quântica.
Esta teoria, com a sua nova conceituação sobre a matéria e os seus intrigantes postulados, gerou debates não só no âmbito das ciências exatas mas também no da filosofia, provocando assim uma grande revolução intelectual no século XX. Obviamente que, além das discussões sérias e conceitualmente sólidas, as características não cotidianas dos fenômenos quânticos levaram muitos pesquisadores, e também leigos, a formular interpretações equivocadas da nova teoria, o que infelizmente, ainda nos nossos dias, atrai a atenção das pessoas menos informadas.
Mas, no final das contas, quais são estes efeitos tão estranhos dos quais estamos falando e qual é a sua relevância para o nosso cotidiano, se existe alguma? Bem, para provar que não estamos falando de coisas inúteis, comecemos pela segunda parte desta pergunta.
O leitor certamente se surpreenderia se disséssemos que sem a mecânica quântica não conheceríamos inúmeros objetos com os quais lidamos corriqueiramante hoje em dia. Só para se ter uma idéia podemos mencionar o nosso aparelho de CD, o controle remoto de nossas TVs, os aparelhos de ressonância magnética em hospitais ou até mesmo o micro-computador que ora usamos na elaboração deste artigo. Todos os dispositivos eletrônicos usados nos equipamentos da chamada high-tech só puderam ser projetados porque conhecemos a mecânica quântica. A título de informação, 30% do PIB americano é devido a estas tecnologias.
Esperando ter convencido o leitor de que estamos longe do terreno da especulação, vamos, então, abordar a primeira parte da pergunta acima lançada. O que é a mecânica quântica?
A mecânica quântica é a teoria que descreve o comportamento da matéria na escala do "muito pequeno", ou seja, é a física dos componentes da matéria; átomos, moléculas e núcleos, que por sua vez são compostos pelas partículas elementares. Muito interessante mas…o que isto nos traz de novo?
A fim de podermos apreciar as novidades que a física quântica pode nos proporcionar, vamos estabelecer alguns conceitos clássicos que nos serão muito úteis adiante.
O primeiro conceito é o de partícula. Para nós este termo significa um objeto que possui massa e é extremamente pequeno, como uma minúscula bolinha de gude. Podemos imaginar que os corpos grandes sejam compostos de um número imenso destas partículas. Este é um conceito com o qual estamos bem acostumados porque lidamos diariamente com objetos dotados de massa e que ocupam uma certa região do espaço.
O segundo conceito é o de onda. Este, apesar de ser também observado no nosso dia a dia, escapa à atenção de muitos de nós. Um exemplo bem simples do movimento ondulatório é o das oscilações da superfície da água de uma piscina. Se mexermos sistematicamente a nossa mão sobre esta superfície, observaremos uma ondulação se afastando, igualmente em todas as direções, do ponto onde a superfície foi perturbada.
O caso particular aqui mencionado é o de onda material, ou seja, aquela que precisa de um meio material para se propagar (a água da piscina no nosso caso). Entretanto, esse não é o caso geral. Há ondas que não precisam de meios materiais para a sua propagação, como é o caso da radiação eletromagnética. Aqui, a energia emitida por cargas elétricas aceleradas se propaga no espaço vazio (o vácuo) como as ondas na superfície da piscina.
Apesar da sua origem mais sutil, a radiação eletromagnética está também presente na nossa experiência diária. Dependendo da sua frequência ela é conhecida como: onda de rádio, FM, radiação infravermelha, luz visível, raios-X e muito mais.
Pois bem, até o final do século XIX tudo o que era partícula tinha o seu movimento descrito pela mecânica newtoniana enquanto que a radiação eletromagnética era descrita pelas equações de Maxwell do eletromagnetismo.
O que ocorreu no primeiro quarto do século XX foi que um determinado conjunto de experiências apresentou resultados conflitantes com essa distinção entre os comportamentos de onda e de partícula. Estes resultados podem ser resumidos em uma única experiência que passamos a descrever, em seguida, na sua versão clássica.
Imagine que uma onda, material ou não, incida sobre um anteparo opaco onde haja duas fendas (ver figura abaixo). Cada uma das fendas passa então a ser fonte de um novo movimento ondulatório. Uma característica fundamental deste movimento é o fenômeno de interferência, que reflete o fato das oscilações provenientes de cada uma das fendas poderem ser somadas ou subtraídas uma da outra. Colocando-se agora um segundo anteparo, distante do primeiro, onde iremos detetar a intensidade da onda que o atinge, observaremos como resultado uma figura que alterna franjas com máximos e mínimos da intensidade da onda. Esta é a chamada figura de interferência.
a) arranjo experimental
b) visão frontal do segundo anteparo
Vamos agora repetir a mesma experiência com a diferença que, ao invés de ondas, incidimos partículas sobre o primeiro anteparo. O que ocorre nesta nova situação é a presença de duas concentrações distintas de partículas atingindo o segundo anteparo. Aquelas que passam por uma ou outra fenda, como mostra a figura abaixo.
Este seria, portanto, o resultado esperado pela física clássica. Entretanto, quando esta experiência é feita com partículas como elétrons ou nêutrons, ocorre o inesperado: forma-se no segundo anteparo uma figura de interferência na concentração de partículas que a atingem, como mostramos em seguida.
Ainda mais estranho é a repetição desta mesma experiência com apenas uma partícula. Ela passa pelo primeiro anteparo e atinge o segundo em apenas um ponto. Vamos, então, repetir esta mesma experiência um número enorme de vezes. O resultado é que em cada experimento o ponto de deteção no segundo anteparo é diferente. Entretanto, sobrepondo todos os resultados obtidos nos segundos anteparos de cada experiência obtém-se, novamente, a mesma figura de interferência da figura anterior!
Assim, mesmo falando de apenas uma partícula, nos vemos obrigados a associá-la a uma onda para que possamos dar conta da característica ondulatória presente no nosso exemplo. Por outro lado, devemos relacionar esta onda à probabilidade de se encontrar a partícula em um determinado ponto do espaço para podermos entender os resultados de uma única experiência de apenas uma partícula. Este é o chamado princípio da dualidade onda-partícula.
Um outro fato intrigante ocorre quando tentamos determinar por que fenda a partícula passou. Para resolver esta questão podemos proceder fechando uma das fendas para ter certeza que ela passou pela outra fenda. Outra surpresa: a figura de interferência é destruida dando lugar a apenas uma concentração bem localizada de partículas, a daquelas que passaram pela fenda aberta! Portanto, ao montarmos um experimento que evidencia o carater corpuscular da matéria, destruimos completamente o seu carater ondulatório, ou seja, o oposto ao caso com as duas fendas abertas. Este é o princípio da complementaridade.
De uma forma geral podemos interpretar os resultados do experimento aqui descrito como os de um sistema sujeito a uma montagem na qual o seu comportamento depende de alternativas A e B (no nosso caso, a passagem da partícula por uma das fendas). Enquanto que na mecânica clássica o sistema escolhe A ou B, aleatoriamente, na mecânica quântica estas duas alternativas interferem. Entretanto, ao questionarmos, ou melhor, medirmos, por qual alternativa o sistema opta, obteremos o resultado clássico.
Um sistema quântico, ao contrário do clássico, só pode ser descrito através das possíveis alternativas (não necessariamente apenas duas) que a nossa montagem apresente para ele. A onda associada ao sistema carrega a possibilidade de interferência entre as diferentes alternativas e é a informação máxima que podemos ter sobre o sistema em questão.
A aplicação desta teoria a problemas nas escalas atômicas e sub-atômicas apresenta resultados como a quantização da energia ou o tunelamento quântico que, por si só, já mereceriam a elaboração de um outro artigo para que o leitor pudesse apreciá-los.
O mais interessante é que a mecânica quântica descreve, com sucesso, o comportamento da matéria desde altíssimas energias (física das partículas elementares) até a escala de energia das reações químicas ou, ainda de sistemas biológicos. O comportamento termodinâmico dos corpos macroscópicos, em determinadas condições, requer também o uso da mecânica quântica.
A questão que nos resta é então; por quê não observamos estes fenômenos no nosso cotidiano, ou seja, com objetos macroscópicos? Bem, há duas razões para isso. A primeira é que a constante de Planck é extremamente pequena comparada com as grandezas macroscópicas que têm a sua mesma dimensão. Baseados neste fato, podemos inferir que os efeitos devidos ao seu valor não nulo, ficarão cada vez mais imperceptíveis à medida que aumentamos o tamanho dos sistemas. Em segundo lugar, há o chamado efeito de descoerência. Este efeito só recentemente começou a ser estudado e trata do fato de não podermos separar um corpo macroscópico do meio onde ele se encontra. Assim, o meio terá uma influência decisiva na dinâmica do sistema fazendo com que as condições necessárias para a manutenção dos efeitos quânticos desapareçam em uma escala de tempo extremamente curta.
Entretanto, as novas tecnologias de manipulação dos sistemas físicos nas escalas micro ou até mesmo nanoscópicas nos permitem fabricar dispositivos que apresentam efeitos quânticos envolvendo, coletivamente, um enorme número de partículas. Nestes sistemas a descoerência, apesar de ainda existir, tem a sua influência um pouco reduzida, o que nos permite observar os efeitos quânticos durante algum tempo.
Uma aplicação importante para alguns destes dispositivos seria a construção de processadores quânticos, o que tornaria os nossos computadores ainda mais rápidos. Nesta situação a minimização dos efeitos da descoerência é altamente desejável pois, em caso contrário, estes processadores de nada iriam diferir dos processadores clássicos.
Como podemos ver, tudo indica que a mecânica quântica seja a teoria correta para descrever os fenômenos físicos em qualquer escala de energia. O universo macroscópico só seria um caso particular para o qual há uma forma mais eficiente de descrição; a mecânica newtoniana. Esta pode ser obtida como um caso particular da mecânica quântica mas a recíproca não é verdadeira.
Muitos autores, por não se sentirem confortáveis com a chamada interpretação ortodoxa ou de Copenhagen da mecânica quântica, tentam criar teorias alternativas para substituí-la. Entretanto, cabe notar que, apesar da sua estranheza, a mecânica quântica não apresentou qualquer falha desde que foi elaborada na década de 20, o que não nos proporciona evidência experimental que aponte para onde buscar as questões capazes de derrubá-la. 
link original

domingo, 2 de outubro de 2011

Um passo mais próximo das estrelas

A fonte de energia para o futuro da humanidade pode estar escondida dentro de um minúsculo cilindro dourado que cabe na ponta de um dedo... e que é usado como alvo para os quase duzentos feixes do laser mais energético do mundo.

Há várias décadas que os cientistas perseguem o sonho de conseguir replicar em laboratório e de forma controlada a fusão nuclear - o mecanismo natural através do qual as estrelas produzem a sua imensa energia. Para isto, é preciso pegar em dois isótopos do elemento hidrogénio e obrigá-los a fundirem-se, formando hélio e liberando energia. Mas esta união é muito difícil de atingir, devido à repulsão mútua dos isótopos, e as condições físicas em que esta se consegue ultrapassar são extremamente sensíveis.

Um dos  principais métodos considerados para se tentar alcançar a fusão é o chamado confinamento magnético, em que um anel de plasma - um gás ionizado - é mantido a altas temperaturas num volume restrito. Um exemplo de um sistema deste tipo é o projecto internacional ITER , agora em desenvolvimento no sul de França. O outro método é a fusão por confinamento inercial, em que um pequeno alvo atestado de "combustível" nuclear é irradiado por um grande número de feixes laser de alta intensidade, comprimindo-o de modo a que as condições para se obter fusão sejam atingidas no seu núcleo. Também na Europa, está em desenvolvimento o projecto HiPER , que explora esta via alternativa. (Portugal é representado em ambos os projectos pelo Instituto de Plasmas e Fusão Nuclear , unidade de investigação do Instituto Superior Técnico , Lisboa)
Agora, num artigo publicado na revista Science desta semana, cientistas do Laboratório Lawrence Livermore , na Califórnia, dão conta de um avanço significativo na tentativa de atingir fusão nuclear usando lasers. Para isso, usaram aquele que é o maior laser do mundo - o mega-projecto National Ignition Facility (NIF) - que foi inaugurado em Maio de 2009 e começa agora a dar os primeiros resultados de sucesso. O NIF, cuja construção se iniciou em 1997, tem um total de 192 feixes laser de alta energia, gerados ao longo de uma cadeia de amplificação que ocupa um espaço equivalente ao de três campos de futebol. O coração do NIF consiste numa enorme câmara de aço esférica, com três andares de altura, onde cada um dos feixes entra por uma pequena janela e é focado no centro. Aqui encontra-se o pequeno cilindro dourado, chamado hohlraum, cujo interior é iluminado de forma simétrica pelo total dos feixes (ver imagem). A energia luminosa que atinge este alvo é de 1.8 milhões de Joules, concentrada em impulsos cuja duração é inferior a um centésimo de milionésimo de segundo. Desta vez, ainda não foi utilizada toda a energia - apenas cerca de 40%. Mesmo assim, trata-se de um novo recorde mundial de energia produzida por um laser, sendo 20 vezes superior ao máximo atingido anteriormente. E a colossal potência equivalente seria suficiente para fazer evaporar num segundo toda a água de 50 piscinas olímpicas.
Na fusão por confinamento inercial, os feixes laser criam um "banho" de raios-x dentro do hohlraum, em cujo interior está colocada uma micro-cápsula contendo o combustível. O raios-x fazem com que a cápsula seja comprimida e a sua temperatura se eleve de forma quase instantânea até milhões de graus. As densidades atingidas levam a que se dê a fusão dos átomos no seu interior. Se a energia libertada for superior a toda a  energia que foi investida para a produzir, temos uma fonte eficiente.
Espera-se que este processo seja a chave para se atingir a fusão, só que o caminho até lá se chegar está cheio de dificuldades técnicas. Por exemplo, a irradiação do alvo tem que ser feita de forma extremamente simétrica e homogénea, já que quaisquer desequilíbrios perturbam e inviabilizam o processo. Outro problema que preocupa os investigadores há três décadas tem a ver com o plasma criado pelos lasers dentro do hohlraum. Acontece que os lasers são de tal forma intensos que, ao interagirem com o interior do pequeno cilindro, vaporizam a sua matéria, criando uma "sopa" de partículas carregadas entre as suas paredes. Pensava-se que esta "sopa" de plasma actuaria como um nevoeiro, prejudicando a capacidade da cápsula ser uniformemente iluminada, e afectando inevitavelmente a eficiência de absorção da luz.
O que as recentes experiências realizadas no NIF demonstraram é que o plasma não reduz a capacidade de absorção de energia como se temia, mas que até pode ser manipulado favoravelmente de forma a optimizar a iluminação da cápsula e a uniformidade da compressão. Foi uma prova dramática de que aquele que se receava que fosse um dos principais problemas pode afinal ser ultrapassado. É um dos resultados mais promissores em toda a história da fusão nuclear.
Entretanto, uma vez concluída esta fase de demonstração, os investigadores do NIF contam iniciar em Maio as experiências com alvos efectivamente carregados de combustível, e utilizando a 100% a energia que pode ser produzida pelo sistema. Com estes parâmetros, eles estão convictos de que a demonstração de fusão nuclear pode estar para muito breve. No ano em que se comemoram os 50 anos da invenção do laser, seria um presente a condizer.

 link original