sábado, 27 de agosto de 2011

Hexágonos, carbono e o Prémio Nobel da Física de 2010

Edwin Abbot, no romance “Flatland: A Romance of Many Dimensions”, criou um mundo abstracto bidimensional habitado por polígonos; a novela é uma crítica à sociedade e cultura Vitorianas. Nesse mundo abstracto a duas dimensões, os hexágonos, embora pertencentes à nobreza, ocupam o nível mais baixo dessa classe social. Ora todos sabemos que não existem mundos bidimensionais povoados por hexágonos.


Que aplicações são essas de que atrás se falou? Sendo elas inúmeras, talvez as mais importantes sejam: 
  • Novos paneis tácteis ("touch-screens") para monitores de computadores e aparelhos de comunicação móvel. Um novo e recente método de produção de grafeno (diferente do que acima se explicou)  permite produzir folhas deste material de cerca de 50 cm de largura, sendo possível ter entre as nossas mãos uma folha de espessura atómica. Como o grafeno é transparente, é claro que pode ser usado para produzir monitores. Como é flexível e não quebra com facilidade trará mais durabilidade aos monitores desses aparelhos. Como a sua produção é muito mais barata que os óxidos transparentes usados hoje em dia, trará uma diminuição do preço das tecnologias - aspecto que será muito apreciado.
  • Células solares. As células solares necessitam de eléctrodos transparentes à luz, numa larga gama de frequências. A transparência, a flexibilidade, a resistência às deformações e o facto de ser metálico, tornam o grafeno um excelente material para este tipo de dispositivos.
  • Detectores de radiação, quer para antenas de uso militar quer para sistemas de vigilância em aeroportos.
  • Sensores de pequenas quantidades de certos tipos de moléculas em ambientes fechados. A condutividade eléctrica do grafeno é muito sensível ao tipo de moléculas que se ligam à sua superfície, pelo que se poderão conceber detectores para espécies químicas específicas. Este tipo de "nariz" para gases tem o seu poder olfactivo muito aumentado quando a superfície do grafeno é funcionalizada com ADN.
  • Sensores de tensão. A condutividade eléctrica do grafeno depende do estado de deformação do material. Este sustenta deformações até 20% sem quebrar e sem comportamento plástico. É concebível a incorporação em estruturas de sensores baseados em grafeno, para monitorizar estados de deformação das mesmas.
  • Sequenciação das bases que constituem o ADN. Produzindo pequenos orifícios numa membrana de grafeno e fazendo passar por esse orifício moléculas de ADN, mostrou-se que a corrente eléctrica através do orifício é sensível ao tipo de base.
  • Metrologia, na definição do padrão de resistência eléctrica, recorrendo ao efeito de Hall quantificado.


Ler mais: http://aeiou.expresso.pt/hexagonos-carbono-e-o-premio-nobel-da-fisica-de-2010=f607662#ixzz1WGWxmV1n

XIV ENCONTRO NACIONAL DE EDUCAÇÃO EM CIÊNCIAS: EDUCAÇÃO EM CIÊNCIAS PARA O TRABALHO, O LAZER E A CIDADANIA

Vai realizar-se, de 29 de Setembro a 01 de Outubro de 2011, na Universidade do Minho, o XIV Encontro N...
Data: 29/09/2011


Arctic shipping routes open



Diminishing Arctic sea ice

 
 
Diminishing Arctic sea ice
 
25 August 2011
Satellite measurements show we are heading for another year of below-average ice cover in the Arctic. As sea ice melts during the summer months, two major shipping routes have opened in the Arctic Ocean.
In 2008 satellites saw that the Northwest Passage and the Northern Sea Route were open simultaneously for the first time since satellite measurements began in the 1970s – and now it has happened again.  
 
Ice-free Northwest Passage
Ice-free Northwest Passage
While the Northern Sea Route above Russia (also known as the Northeast Passage) has been open to shipping traffic since mid-August, recent satellite data show that the most direct course in the Northwest Passage now appears to be navigable as well.
Located in the Canadian Arctic Archipelago, the Northwest Passage can be a short cut for shipping between Europe and Asia – but with the opening of the sea route comes the potential for both sovereignty claims and marine species migration across the Arctic Ocean.
In 2007, Arctic sea ice hit a record low since satellite measurements began nearly 30 years before. That same year, the historically impassable Northwest Passage opened for the first time.
Unusual weather contributed to 2007’s record ice loss: skies opened over the central Arctic Ocean and wind patterns pushed warm air into the region, promoting a strong melt.
Weather patterns have been different this year, but the early opening of the passages indicates that we could be about to hit a new record low in ice cover. 
 
 

Open Northern Sea Route
Open Northern Sea Route
“The minimum ice extent is still three to four weeks away, and a lot depends on the weather conditions over the Arctic during those weeks,” says Leif Toudal Pedersen, a senior scientist at the Danish Meteorological Institute.
“Whether we reach an absolute minimum or not, this year again confirms that we are in a new regime with substantially less summer ice than before.
“The last five summers are the five minimum ice extent summers on record.”
Every year, the Arctic Ocean experiences the formation and then melting of vast amounts of floating ice, but the rate of overall loss has accelerated.
During the last 30 years, satellites observing the Arctic have witnessed reductions in the minimum ice extent at the end of summer from around 8 million sq km in the early 1980s to the historic minimum of less than 4.24 million sq km in 2007.
Before the advent of satellites, obtaining measurements of sea ice was difficult: the Arctic is both inaccessible and prone to long periods of bad weather and extended darkness. 
 
 

Changing Arctic sea ice
Changing Arctic sea ice
Radars on Earth observation satellites such as ESA’s Envisat are particularly suited to monitoring polar regions because they can acquire images through clouds and darkness.
In the coming weeks, ESA will continue to monitor the situation in the Arctic with its Envisat, CryoSat and SMOS satellites. 


Fonte: 
http://www.esa.int/esaCP/SEMT7TRTJRG_index_0.html

Exames Nacionais com nota negativa

Os exames Nacionais que servem de prova de acesso ao Ensino Superior registaram notas negativas. A taxa de reprovação a Português quase duplicou na primeira fase e a grande surpresa vai para o exame de Física e Química.

Foram hoje divulgados os resultados dos exames nacionais de acesso ao Ensino Superior. Sete das vinte e quatro disciplinas sujeitas a exame registaram nota negativa sendo que o grande foco de atenção vai para o Português e a Matemática. No caso do Português, a taxa de reprovação duplicou passando de seis para dez por cento. Em 68.409 provas, 37.685 tiveram negativa. A média das notas dos quase 50.000 alunos internos (aqueles que frequentaram as aulas durante todo o ano letivo) baixou de 11 valores para 9,6, enquanto a média total (que engloba todos os estudantes que realizaram a prova, mesmo sem terem frequentado as aulas durante o ano escolar) passou de 10,1 para 8,9 valores. As negativas a Matemática A, também dispararam este ano com a taxa de reprovação a atingir os 20 por cento na primeira fase, contra 13 por cento em 2010, no entanto, a disciplina conseguiu, ainda assim, uma média positiva de 10,6 valores no exame nacional deste ano, contra 12,2 em 2010, considerando o universo de alunos internos (27.701). Quando consideradas todas as provas realizadas (39.169), a média total desce de 10,8 para 9,2 valores. A grande surpresa deste ano foi o exame de Física e Química que registaram nota positiva. A taxa de reprovação passou de 25 por cento em 2010 para os 16 por cento e a média dos alunos internos (27.695) subiu de 8,5 valores para 10,5. Já a média total passou de 8,1 para 9,9 valores. 

 TIAGO FIGUEIREDO 

 15-07-2011

PROPOSTA DE RESOLUÇÃO DE EXAME FQA - 2 ª FASE (Sociedade Portuguesa de Física)


sexta-feira, 26 de agosto de 2011

Kepler descobre seis novos planetas


Sistema planetário a dois mil anos-luz da Terra

Ilustração do sistema planetário Kepler-11
A NASA, agência espacial norte-americana, anunciou que o telescópio Kepler descobriu  seis pequenos planetas que giram em torno de uma estrela semelhante ao Sol.
Estes orbitam num sistema baptizado de Kepler-11, que fica a dois mil anos-luz da Terra e  despertou a atenção dos cientistas por ser composto por um elevado número de planetas de pequenas dimensões que se encontram muito próximos entre si.

Lançado em Março de 2009, o objectivo do Kepler é recolher dados e provas de planetas fora do sistema solar que andem à volta de estrelas, em condições de temperatura média onde possa existir água líquida e, por consequência, vida.
Para determinar o tamanho e a massa dos planetas, a equipa de cientistas da Universidade da Califórnia estudou as medições realizadas pelo Kepler, que captou a luminosidade alterada da estrela em torno da qual orbitam os planetas quando passam em frente a ela.
Cinco dos novos planetas descobertos têm uma massa que oscila entre 2,3 e 13,5 vezes a da Terra e os seus períodos orbitais são inferiores a 50 dias, pelo que se encontram numa região que, em termos de referência, poderia caber na órbita de Mercúrio.
O sexto planeta é maior e está mais longe, sendo que os investigadores puderam determinar um período orbital de 118 dias. No entanto não conseguiram calcular a sua massa.
Desde que foi localizado o primeiro planeta extra-solar, em 1992,já  foram confirmados 519. Em apenas um ano o telescópio Kepler registou 1235 possíveis planetas fora do sistema solar, dos quais 54 localizados numa zona propícia para a formação de vida.

2011-02-03

Formação dos anéis de Saturno tem nova explicação


Gelo que compõe anéis seria revestimento de um antigo satélite natural do planeta

Formação dos anéis de Saturno (imagem: Southwest Research Institute)
Os anéis de Saturno podem ter surgido com a desintegração de um satélite natural daquele planeta. Num estudo publicado agora na «Nature», a investigadora Robin Canup, astrofísica do Southwest Research Institute (EUA), explica que o gelo que anda à volta de Saturno terá sido o revestimento de um antigo satélite natural que se foi “descascando” à medida que se aproximava do planeta.

O sistema de anéis de Saturno é único e a sua origem não tem até agora uma explicação adequada, acredita a investigadora, pois nada até agora tinha conseguido explicar a existência de milhões de pedaços compostos por 90 a 95 por cento de água gelada.
Até agora, havia duas teorias dominantes sobre o fenómeno que não conseguiam explicar em pormenor a formação dos discos que, se fossem compactados, formariam um satélite com 500 quilómetros de diâmetro.
Uma das hipóteses diz que os discos de gelo são restos de uma antiga lua que pode ter explodido há milhões de anos. A segunda defende que os anéis são escombros que sobraram da formação do planeta.

A nova teoria valoriza a primeira hipótese. Robin Canup desenvolveu um modelo informático capaz de explicar como se formam os anéis. A sua teoria tem como base a força gravitacional que Saturno exerce.
A sua influência é semelhante à da Lua sobre marés do nosso planeta. A formação dos anéis terá começado quando um satélite do tamanho de Titã (uma das actuais luas de Saturno), cujo diâmetro é metade da Terra, entrou no campo gravitacional daquele planeta e começou a girar à sua volta, numa zona que estava então ocupada por uma cintura de gás.
A pressão começou a tirar o gelo que cobria o satélite até deixar visível o seu núcleo de silicatos. Este continuou a avançar em direcção a Saturno até que ficou “sepultado” na sua densa atmosfera gasosa.

 2010-12-14

Deus joga aos dados!


O dilema do Gato de Schrödinger

A
té ao século XX no mundo científico predominava o paradigma de um Universo determinista. Pensava-se que tudo no nosso mundo era determinado pelo princípio de causalidade, ou seja, para cada acontecimento acreditava-se existir sempre uma causa: em última análise podia ser Deus o responsável, na perspectiva religiosa, ou as causas primeiras que deram origem ao nosso Universo, como o Big Bang. Por exemplo, usando as leis de Newton e as leis de Kepler[1] se soubermos as posições e velocidades do Sol e outros planetas num dado instante, podemos prever a posição de um planeta dentro do Sistema Solar em cada instante do seu período de translação. Esta teoria determinista teve um grande apoio, dado que se acreditava na existência do planeta Neptuno antes da sua descoberta por Johann Gottfried Galle[2], em 1846, que o viu pela primeira vez através de um telescópio. Realmente, a descoberta de Neptuno foi prevista através de cálculos matemáticos de Urbain Le Verrier[3], ou seja, respeitando o princípio de causalidade necessária. Até meados do século XX algumas das mentes mais brilhantes do horizonte da ciência apoiavam a ideia de um mundo totalmente determinista, onde não havia lugar para o acaso. A título de exemplo, refira-se Albert Einstein, que sempre acreditou que se algo parece ser aleatório, é porque existe uma causa desconhecida que determina o resultado de uma experiência ou um acontecimento. Costuma-se citar uma frase célebre do pai da Teoria da Relatividade: “Deus não joga aos dados”. No entanto, no início do século passado surgiu uma nova teoria que alterou a nossa perspectiva do Universo.
Hoje em dia sabe-se que o universo dos átomos é governado pelo Princípio da Incerteza. No mundo da Física Quântica tudo é incerto, desde a dualidade onda – partícula (ou onda – corpúsculo) até à estrutura do átomo. Houve necessidade de abolir alguns princípios lógicos básicos do nosso pensamento para compreender o enigmático mundo das nanopartículas!
No final do século XIX a Física Clássica respondeu a quase todos os enigmas da Natureza: com a termodinâmica, a mecânica newtoniana e o electromagnetismo de Maxwell. O Universo deixou de parecer misterioso. Faltava resolver apenas dois “pequenos problemas”: o enigma do corpo negro, que levou à introdução da constante de Planck, e o problema da experiência de Michelson e Morley[4], que pôs em causa a existência do éter (uma substância que servia de meio para as ondas luminosas (Klein, 1996)). Deste modo, pensava-se que com as teorias científicas existentes nessa altura conseguia explicar-se qualquer fenómeno. No entanto, quanto maior é a ignorância maior é ilusão! Com o tratamento das duas pequenas “nuvens negras” levantaram-se novos dilemas e houve necessidade de criar novas teorias para explicar o enigmático mundo que nos rodeia. Assim, surgira as Teorias da Relatividade Restrita e Geral de Einstein e a Mecânica Quântica. Ambas assentes em novos paradigmas que punham em causa o panorama da Física clássica.
Analisemos o problema de um corpo negro – um emissor perfeito. Acreditava-se que um corpo quente emitia ondas electromagnéticas em quantidades idênticas em todas as frequências. Ou seja, o corpo emitia igual quantidade de energia em ondas de frequência alta e em ondas de baixa frequência. Rayleigeh e Sir James Jeans[5], baseando--se nesta teoria científica do final do século XIX, concluíram que um corpo quente devia irradiar quantidades ilimitadas de energia, uma vez que não existe limite para a frequência. Ora, essa conclusão era absurda! Como resposta a esse problema, Max Planck enunciou uma hipótese que dizia que as ondas electromagnéticas, como os raios-X, não podiam ser emitidas em quantidades arbitrárias (Hawking, 2009). Seguindo a ideia de Planck, a energia só podia ser emitida em quantidades pequenas e bem definidas. Estas doses de energia passaram a chamar-se quanta[6]. Deste modo, o cientista efectuou uma quantização de energia que mais tarde foi aplicada ao átomo, pois os átomos podem receber e irradiar a energia apenas numa quantidade finita e quantizada, ou seja, em forma de quanta. Cada quantum teria uma energia tanto maior quanto mais alta fosse a frequência. Isto implicava que uma frequência muito alta necessitava de mais energia do que aquela que se encontrava disponível para a emissão de um único quantum de energia. Esta energia não podia ser emitida aleatoriamente, logo, haveria limite para a emissão de energia.
Com a quantização de energia os físicos perceberam que os átomos só recebem e emitem certas quantidades de energia na forma de radiação electromagnética - isto está relacionado com as energias dos níveis electrónicos que também não são arbitrárias. Com o conhecimento desta propriedade do átomo, um cientista alemão, Werner Heisenberg, tentou medir a posição e a velocidade do electrão no átomo. Para isso incidiu luz na partícula e, uma vez que algumas ondas são dispersas pelo electrão, Heisenberg conseguia saber a sua posição. No entanto, não se podia usar uma quantidade muito pequena de energia, devia-se usar pelo menos um quantum - isto implicava que ao incidir na partícula iria alterar a velocidade inicial do electrão o que não permitia a medição da velocidade inicial. Simultaneamente, não podemos saber com certeza a posição e a velocidade do electrão no átomo, quanto mais preciso for o valor da posição, maior será o erro do valor da velocidade e vice-versa. Surge assim uma base fundamental para a compreender o mundo das nanopartículas: o Princípio de Incerteza de Heisenberg!
O problema da medição é inevitável. Talvez seja a única lei fatal que rege o nosso mundo. Quando tentamos medir o estado de um sistema, a nossa medição altera o seu estado original, ou seja, qualquer medição, enquanto uma intervenção na experiência, introduz uma perturbação nas condições iniciais. Assim, sempre que observamos um sistema, ou seja, medimos o seu estado, introduzimos um erro nas nossas medições (Croca, 2004), pois, enquanto observadores imperfeitos, não conseguimos observar um sistema sem o alterar. É a mesma coisa que cultivar uma planta sensível à luz numa caixa escura e de vez em quando abrir a caixa para verificar o estado da planta. Infelizmente, cada vez que abrimos a caixa deixamos que a planta entre em contacto com os raios luminosos que alteram o seu crescimento, não sabemos o quão profunda é alteração das condições iniciais mas temos a noção de que interferimos no crescimento da planta. Cada um de nós poderá perceber que a medição ou observação altera as condições do sistema e, portanto, os resultados. Se alguma vez participou num torneio desportivo ou efectuou um exame teórico na escola teve a sensação de que o facto de a pessoa estar a ser observada pode provocar stress e alterar os seus resultados. Obviamente, no caso dos humanos tem a ver com questões psicológicas que são remediáveis, mas o mesmo não acontece com as nanopartículas.
O Princípio de Incerteza é fundamental para perceber a física dos átomos e, como uma consequência inevitável, o funcionamento de toda a matéria que nos rodeia e até a bioquímica do nosso próprio corpo.
Esta nova ideia de incerteza levou três cientistas, Werner Heisenberg, Erwin Schrödinger e Paul Dirac, à reformulação da física clássica numa nova teoria – Mecânica Quântica, que acabou com o paradigma determinista. Numa experiência existem vários resultados possíveis, a mecânica quântica prevê os resultados possíveis a as suas probabilidades. Como os alunos da disciplina de Física e Química do 10ºAno já sabem, na perspectiva desta teoria, os electrões não têm órbitas definidas mas sim uma zona de espaço onde a probabilidade de encontrar um electrão é superior a 95%. – a orbital. Teoricamente, nenhum acontecimento é impossível. No entanto, este paradigma tem outras implicações muito mais profundas que contrariam os nossos princípios lógicos. A hipótese de Planck e a conclusão de Heisenberg demonstraram que as ondas podem comportar-se como partículas e as partículas como ondas (Hawking, 2009). Esta dualidade onda-corpúsculo, visível no efeito fotoeléctrico, foi pela primeira vez enunciada por Louis-Victor de Broglie. É um dos paradoxos que fez os cientistas repensarem a física newtoniana e a lógica aristotélica usada até então.
A experiência do Gato de Schrödinger vai contra o princípio lógico básico da lógica aristotélica que usamos no quotidiano - o princípio de não-contradição. O princípio de não-contradição (pode também ser designado pelo princípio de contradição) consiste na ideia de que duas realidades contraditórias não podem coexistir. Para evitar oximoros e paradoxos lógicos não podemos afirmar, por exemplo, que algo existe e não existe simultaneamente, ou que um animal está vivo e morto. Deste modo, duas proposições contraditórias são simultaneamente verdadeiras. Do ponto de vista da lógica aristotélica, só pode estar ou vivo ou morto, tratando-se de um silogismo disjuntivo em que nenhum dos elementos pode coexistir com o outro, sendo que as duas realidades se excluem mutuamente. Para entender o mundo das nanopartículas e das ondas, a Mecânica Quântica estudada-as apoiando-se na onda-corpúsculo, abandonando as convicções da lógica aristotélica. Assim, nos meados do século passado surgiu a lógica paraconsistente que não respeita o princípio de não-contradição e admite que existem vários resultados possíveis dando uma probabilidade para cada um dos resultados. A dificuldade de compreensão da Mecânica Quântica é a necessidade de abstracção e de abandono de princípios lógicos aparentemente dogmáticos.
Concluindo, podemos dizer que a Mecânica Quântica alterou não só a perspectiva científica do Universo, mas também a nossa maneira de pensar e o nosso quotidiano. A alteração de paradigma científico permitiu a solução de vários problemas e abriu o caminho para um novo tipo de tecnologia, permitindo a construção de lasers, transístores, microscópios electrónicos e obter imagens de ressonância magnética. O caminho para uma inovação científico-tecnológica passava pela incerteza.
Desde o momento em que o Universo deixou de ser governado pelas leis deterministas dando o lugar ao acaso, surgiu a incerteza, que pode ser vista como uma forma de liberdade. A inevitabilidade da incerteza pode ser benéfica, pois proporciona-nos a liberdade de escolha – o livre arbítrio. Se não existe nenhuma causa fatal que determine as nossas escolhas, então podemos ser livres nas nossas decisões.
“A incerteza é uma propriedade inevitável do mundo.”
Stephen Hawking, in Breve História do Tempo (2009)
Nem sempre a incerteza significa “a dúvida”, por vezes é a liberdade - uma forma de ir mais longe, não nos limitando a dogmas e restrições. De facto, na ciência não existem verdades absolutas e teorias imutáveis. Para a mente humana a inevitabilidade da incerteza parece ser paradoxal. No entanto, a física quântica não difere muito do pensamento do grande filósofo grego, Sócrates: “Só sei que nada sei” (apud Platão, in Apologia de Sócrates). O facto de reconhecermos a nossa ignorância ou a incerteza já nos torna, na verdade, mais sábios do que éramos se vivêssemos na ilusão. O constante avanço da Mecânica Quântica é essencialmente a compreensão da complexidade e da imprevisibilidade do Universo.
A.S.


[1] Leis de Kepler (1605) – uma série de princípios que explicam o movimento de corpos celestes, como os planetas do Sistema Solar.
[2] Johann Gottfried Galle – astrónomo que pela primeira vez viu o planeta Neptuno.
[3] Urbain Le Verrier – foi um matemático e astrónomo francês. Baseando-se na lei de gravitação universal e leis de Kepler calculou com erro de 1% a órbita de Neptuno.
[4] Experiência que provou que a velocidade da luz tem mesma velocidade em todas as direcções, o que significava que não é necessário um meio para propagação de ondas luminosas – éter.
[5] A lei de Rayleigh-Jeans – lei proposta no início do século XIX, descreve a radiação electromagnética de todos os comprimentos de onda irradiada por um corpo negro a uma dada temperatura.
[6]Quanta - forma plural de quantum, do latim “quantia”.