quarta-feira, 14 de setembro de 2011

Uma nova ameaça ao jornalismo: Nova tecnologia compõe textos sem intervenção humana

Um novo software desenvolvido pela empresa norte-americana Narrative Science é capaz de transformar dados brutos em textos gramaticalmente correctos, sem autoria nem edição humana. 
Desenvolvido ao longo de dez anos, o programa foi inicialmente concebido para a informação desportiva, mas está já a expandir o seu mercado. O portal «Big Ten Network» usa este software para distribuir sumários dos jogos assim que terminam. O primeiro texto, ou “história”, como diz a empresa, automaticamente gerado descrevia um jogo de basebol da equipa Northwestern Wildcats. 
 Lançada formalmente no início de 2010 e com sede em Chicago, a Narrative Science desenvolveu uma tecnologia avançada que permite transformar “informação em conteúdos editoriais de alta qualidade”, dizem na sua página oficial. O software é capaz de escrever artigos novos em tempo real a partir de informação em bruto, seja numérica ou textual, estruturada ou não. Relatórios financeiros, informação imobiliária e sondagens podem também ser usados para gerar artigos legíveis em apenas alguns segundos. 
 A empresa norte-americana está agora a trabalhar com 20 empresas, não só na produção de relatos desportivos mas também de artigos para jornais de medicina.

2011-09-13

terça-feira, 13 de setembro de 2011

O CERN não anda à ‘caça dos gambozinos’ (Físico teórico John Ellis em entrevista ao «Ciência Hoje»)


John Ellis é um dos físicos teóricos mais reputados do globo. Veio da Universidade de Cambridge e, após ter estado uns anos nos Estados Unidos, já está na Organização Europeia para a Física de Partículas (CERN) desde 1973. Poderemos dizer que algumas das grandes teorias da Física lhe foram atribuídas e parte das experiências a decorrer no Laboratório de Física de Partículas têm ‘dedo’ seu.

 As suas actividades são bastante abrangentes mas é especialmente conhecido por ter ajudado Dimitri Nanopoulos a unificar a «Teoria das cordas», com o modelo padrão, por ter inventado o «Diagrama Pinguim» (um tipo de diagrama de Feynman) e ter criado a «Teoria do Todo» (ToE – Theory of Everything).

 Para o físico britânico, o Grande Colisor de Hadrões (LHC) do CERN é como se fosse “o maior microscópio já construído” e, com ele, os cientistas vão poder examinar partículas de matéria e talvez conseguir “reproduzir o início do universo” e explicá-lo. Com os seus colegas do CERN trabalha actualmente na experiência ATLAS – uma das maiores do LHC.
Ciência Hoje (C.H.): Em que tipo de projectos está actualmente envolvido no CERN?
John Ellis (J.E.): Bem... Sou físico teórico e, sendo assim, desenvolvo teorias para as experiências, ou seja, alguns dos projectos a decorrer actualmente no CERN tentam atestar essas ideias. Algumas das teorias preditas já foram aqui corroboradas. Neste momento, colaboro na experiência ATLAS mas não faço experiências eu próprio, apenas dou sugestões.

C.H: É considerado um dos maiores físicos teóricos do mundo. O que fez para conseguir tal lugar no planeta?
 J.E.: Não sei bem, na verdade (risos)! Durante a minha carreira houve vários acontecimentos na área da Física que abriram novos horizontes – isto voltando aos anos 1970 –, mas o LHC abriu portas a um mundo completamente diferente. Costumo dizer que sempre tive muita sorte por estar no sítio certo, na hora certa. Propus algumas ideias, tais como procurarem o Bosão de Higgs, sugeri a forma de encontrar os gluões e que os quarks estariam na constituição da matéria nuclear, publiquei trabalhos sobre as diferenças entre matéria e anti-matéria, fui uma das primeiras pessoas a explorar a relação entre física de partículas e cosmologia e a natureza da matéria negra. Devo dizer que, durante os últimos 30 anos, a Física de Partículas encontrou modelos mais constantes e estou contente por ter estado entre os que ajudaram a que isto acontecesse.


Cientista responsável por ter desenvolvido a «Teoria do Todo».
C.H.: Existem imensas suposições, tal como a possibilidade de encontrar o Bóson de Higgs, a partícula que poderá explicar a origem do universo, mas não se sabe se existe. Há ainda o CAST, uma secção que se dedica à procura dos axiões, partículas que também não se sabe se existem, apenas se supõe que estejam retidas no interior do sol. O CERN é uma estrutura imensa, cujas experiências englobam milhares de pessoas, verbas, tempo e tecnologia. Não será um investimento demasiado grande para caçar gambozinos?
 J.E.: Não trabalhamos apenas em teorias… (risos) As pessoas desenvolvem diferentes projectos e só aqui quase dez mil cientistas de todo o mundo participam nessas experiências, para além de contarmos com o apoio de grandes universidades, como o MIT (Instituto de Tecnologia de Massachusetts), entre outras. Se pensarmos que existem sete mil milhões de pessoas no planeta e algumas centenas se dedicam à Física fundamental, isto é uma pessoa num milhão, não é muito para descobrir a natureza, de que é feita a matéria, como o universo se tornou naquilo que vemos, etc. A Física estuda o universo, mas pelo caminho trouxemos inovação, desenvolvemos novas tecnologias. Por exemplo, a World Wide Web foi criada aqui… Há 29 anos não podíamos partilhar dados e, depois disso, revolucionámos a economia mundial. Ajudamos a melhorar tecnologias em Medicina com efeitos directos na saúde… Podemos esperar que o LHC nos faculte uma resposta mas não sabemos qual será.

 C.H.: O que o entusiasma mais na Física?
 J.E.: Não sabemos se algumas das teorias estão certas ou não, mas uma das coisas mais excitantes do LHC é podermos descobrir se as grandes ideias que giram em torno do modelo padrão estão certas ou não.


C.H.: Algumas das suas teorias estão aplicadas em projectos a decorrer, neste momento, em pleno CERN. Fale-me um pouco delas.
 J.E.: A experiência ATLAS e a CMS são duas das maiores que se dedicam a procurar o Bosão de Higgs, a simetria e talvez a matéria negra. O ‘paper’ que estou a escrever neste momento, com alguns colegas, interpreta alguns dados do software que analisa o LHC e a sua simetria.

C.H.: O LHCb dedica-se à procura da anti-matéria. Por que lhe conferem tanta importância?
 J.E.: A existência da anti-matéria foi ‘teoricamente predita’ no início dos anos 20 e muito depois foi encontrada nos raios cósmicos. Desde então, tem sido um instrumento para chegar a diferentes respostas, inclusivamente, na medicina. Por exemplo, em técnicas de diagnóstico médico, através de tomografias, a emissão de positrões é baseada em partículas de anti-matéria mas é também usada em ciência material e tornou-se mesmo uma parte do nosso dia-a-dia. A anti-matéria será exactamente como a matéria, mas oposta a esta. Terá a mesma massa com carga oposta e comportam-se de forma diferente e o objectivo do LHCb é compreendê-la melhor.

C.H.: O que aconteceriam se matéria e anti-matéria voltassem a existir nas mesmas quantidades?
J.E.: Caso isto acontecesse veríamos partículas de matéria e anti-matéria a colidirem de forma a produzirem energia. Se, por exemplo, a Lua fosse feita de anti-matéria, explodiria, sim. Portanto, a Lua não é feita de anti-matéria.

CH.: E caso o LHC negue algumas das teorias já assumidas como verdadeiras…?
 J.E.: Precisamos de algumas pistas para nos dirigirmos sem seguirmos o modelo padrão e o LHC poderá refutar ou confirmar algumas. Muitos colegas nossos têm ideias potencialmente interessantes. Por exemplo, alguns pensam que o Bosão de Higgs pode ser recriado em espaço extra-dimensional... Seria interessante... Não sei... Talvez....



2011-09-12
Por Marlene Moura (Texto e Fotos) em Genebra com o apoio da Ciência Viva

quinta-feira, 8 de setembro de 2011

CERN fala português durante uma semana (Programa para professores e alunos em Genebra)

O maior laboratório de partículas do mundo, localizado na região noroeste de Genebra, na fronteira Franco-Suíça, é uma das instituições mais internacionais a nível mundial, onde passam diariamente pelo menos sete mil pessoas de diferentes países, entre visitantes, palestrantes e investigadores residentes e colaboradores. As línguas faladas são as mais variadas; no entanto, durante esta semana, o CERN fala maioritariamente em português nos espaços comuns – já que acolhe a 5ª edição da Escola de Professores no CERN em Língua Portuguesa, onde se encontram docentes da Comunidade dos Países de Língua Portuguesa (CPLP), da área das Ciências Físico-Químicas – uma iniciativa sob a chancela do Laboratório de Instrumentação e Física Experimental de Partículas (LIP), que no final procede à avaliação e certificação dos formandos. O privilegiado programa é constituído por palestras feitas por investigadores a trabalhar nesta Organização Europeia para a Investigação Nuclear – que a uma dada altura passou a chamar-se Organização Europeia para a Física de Partículas –, e por visitas guiadas aos vários aspectos da estrutura (experiências e aceleradores). A língua de trabalho é sempre o português, sendo os professores acompanhados por investigadores do nosso país. Fátima Vieira é do Porto e professora na Maia; salientou ao «Ciência Hoje» que esta é “uma oportunidade única para saber um pouco mais sobre Física de Partículas, no lugar onde tudo acontece”. CPLP no CERN Inicialmente, o programa da Escola de Professores no CERN em Língua Portuguesa era apenas dirigido a docentes do nosso país. O repto foi lançado por Gaspar Barreira, presidente do LIP, em 2007 e bem aceite. Em 2008, já integrou brasileiros e moçambicanos. Sendo o presidente do LIP, ainda responsável pela UNESCO para a Física de Partículas, uma das suas preocupações foi abrir o CERN aos países subdesenvolvidos e, hoje já acolhe angolanos, são-tomenses, e um timorense (nesta edição). Em 2009, o CERN integrou um grupo mais vasto, após certificar-se que não lesaria nenhum dos estados-membros (22 actualmente). Aliás, Pedro Abreu, investigador do grande ‘agregador’ português de Física Experimental (LIP), que acompanha estreitamente as experiências do CERN e funciona ainda como conselheiro – referiu ao Ciência Hoje que os três principais objectivos deste programa são “actualizar os professores no âmbito destas áreas científicas, no local onde as experiências se fazem; desmistificar o CERN enquanto instituição europeia e mostrar que é acessível, até mesmo aos alunos que queiram seguir carreira de investigação e estabelecer o contacto entre cientistas e professores”, de forma a que estes levem informação refrescada aos alunos. 
 Os participantes no programa são rigorosamente seleccionados sob avaliação curricular – sendo prioritários aqueles que estão ligados à Física de partículas ou Nuclear. Por exemplo, um docente com interesse por Biologia não se define como público-alvo. Por ano, podem concorrer 200 pessoas, mas apenas 40 irão ao CERN. O conteúdo programático é da responsabilidade do LIP e o projecto é inteiramente financiado pela Ciência Viva. Quem se candidatar pela segunda vez é por norma excluído. No entanto, poderá participar noutros programas e até trazer alunos, se o entender. Neste caso, os custos por participante poderão variar entre os 250 e 500 euros. Equipa vencedora de Aveiro no CERN Impulsos no CERN A este grupo, mas apenas nas visitas e algumas palestras, juntam-se os alunos vencedores, da Escola Secundária c/ 3.º CEB Dr. Mário Sacramento (Aveiro), do concurso «Se eu fosse Cientista…», organizado pelo «Ciência Hoje» e pela Ciênvia Viva. A equipa de Aveiro, chamada de ‘Impulsos’, constituída por Marta Canha, Mário Ferreira e Miguel Ferreira (com a colaboração de João Neves e Yuriy Muryn) e acompanhada pelo professor Sérgio Ramos, ganhou uma viagem ao CERN, em Genebra, com um trabalho sobre a vida de Egas Moniz. Os estudantes, agora com o pé na universidade, divididos entre Medicina e Ciências Farmacêuticas, são visivelmente um grupo que se distingue pelo seu interesse nas ciências e vida académica. Aliás, um deles, Miguel Ferreira, preferiu preterir do passeio para não perder os primeiros dias na nova instituição de ensino. Entretanto, os restantes vivem o momento com entusiasmo e chegaram a fazer um diário de viagem, que vão actualizando. Esta semana, o laboratório de partículas acolheu ainda uma escolha da Covilhã.

2011-09-07
Por Marlene Moura em Genebra com o apoio da Ciência Viva

Fonte:  http://www.cienciahoje.pt/index.php?oid=50805&op=all

sábado, 3 de setembro de 2011

Cientistas conseguem detectar precocemente tempestades solares

Estudo publicado na «Science» apresenta dados das missões Stereo e Soho 

 As observações realizadas pelas missões solares Soho e Stereo, da agência espacial norte-americana NASA, revelaram novos dados que ajudarão a conhecer melhor a evolução das tempestades solares. Esse fenómeno pode danificar satélites e provocar falhas nas comunicações. Cientistas da Universidade de Stanford (Califórnia) desenharam um novo método para detectar a chamada ‘ejecção de massa coronal’, que provoca as auroras boreais mas também a interrupção das comunicações. As erupções solares emergem do interior da estrela, explodem na sua superfície e lançam uma bolha de plasma que provoca uma onda e se expande através do sistema solar. A existência dessas erupções está documentada mas os cientistas continuam a estudar como detectá-las antes que se formem para poderem evitar as suas consequências. Para além de serem perigosas para as comunicações, podendo provocar apagões na Terra, são também um perigo para os astronautas que estão no espaço. Os dados do Observatório Solar e Heliosférico SOHO, uma missão conjunta da e da Agência Espacial Europeia ESA, foram analisados pela equipa de Stathis Ilonidis. Neles, detectaram-se sinais da formação de manchas solares emergentes antes de chegarem à superfície do sol. O estudo publicado na revista «Science» indica que os campos magnéticos emergem de 0,3 a 0,6 quilómetros por segundo e provocam manchas solares um ou dois dias depois de serem inicialmente detectadas. Foram também apresentadas novas imagens captadas pelas naves gémeas STEREO, lançadas em 2006 para aperfeiçoarem a capacidade de prever tempestades solares. A sua nitidez vai melhorar a capacidade de observação e estabelecer novos modelos de previsão.


 2011-08-22

sexta-feira, 2 de setembro de 2011

Físicos têm dificuldade em encontrar a 'Partícula de Deus'

LHC teve primeiros resultados promissores sobre Bóson de Higgs

 O acelerador pretende reproduzir fugazmente o "Big Bang". Um grupo de cientistas internacionais, que tenta identificar o Bóson de Higgs – também conhecido como a partícula de Deus –, o maior enigma da física moderna, indicou que a evidência da existência desta partícula que supostamente concede massa aos objectos, está cada vez mais difícil de encontrar. O físico Howard Gordon, vice-director do programa de operações norte-americano Experimento ATLAS, referiu não existe qualquer evidência na região de baixa massa, “onde é provável que esteja”. O Experimento ATLAS é um dos cinco detectores de partículas (junto a ALICE, CMS, TOTEM e LHCb) no Grande Colisador de Hadrões (LHC), o novo acelerador de partículas do Conselho Europeu para a Investigação Nuclear (CERN), na Suíça. Em Julho passado, os físicos anunciaram em conferência de imprensa europeia que uma das experiências do LHC teve resultados promissores sobre a presença do Bóson de Higgs, com conclusões esperadas para o final de 2012. Caso exista, o Bóson de Higgs, descrito como a "partícula de Deus" por ser um mistério e, ao mesmo tempo, uma potente força da natureza, representa a última peça do Modelo Padrão da Física. No entanto, os físicos não estão dispostos a descartar a possibilidade de que exista, e o acelerador de partículas ainda deve examinar uma grande quantidade de dados na frequência baixa do espectro. O acelerador pretende reproduzir fugazmente o "Big Bang". O LHC, situado perto de Genebra, Suíça, foi criado para fazer a aceleração dos protões quase à velocidade da luz e depois destruí-los em laboratórios onde os detectores registaram os restos subatómicos. O processo alcança temperaturas 100 mil vezes mais altas que as do Sol, emulando fugazmente as condições que prevaleceram nas fracções de segundo que sucederam o "Big Bang", que criou o Universo há 13,7 mil milhões de anos.


2011-08-23

Televisores 3D e com internet são a grande atração de feira em Berlim


TV com internet, as novidades da tecnologia 3D e os mais novos smartphones e computadores tablet estão entre as principais atrações da IFA, a maior feira mundial de eletrônicos, aberta em Berlim.

Televisores com conexão de internet, diversos aparelhos com tecnologia 3D e os mais novos lançamentos nos setores de smartphones e computadores portáteis tablet são as principais atrações da IFA, a maior feira mundial de eletrônicos, que nesta sexta-feira (02/09) abriu seus portões ao público em Berlim. O evento, que vai até a próxima quarta-feira, reúne 1.441 expositores de mais de 80 países e espera atrair mais de 230 mil visitantes. Apesar da crise, este ano a feira cresceu em tamanho. Com os atuais 140 mil metros quadrados, a área de exposição nunca foi tão grande. "A digitalização pode nos trazer paz, liberdade e prosperidade", afirmou o ministro alemão da Economia, Philipp Rösler, na cerimônia oficial de inauguração da IFA, realizada na noite de quinta-feira. "Somos todos testemunhas de uma revolução, de uma verdadeira revolução digital", disse, referindo-se às revoltas nos países árabes, que não teriam sido possíveis sem a internet. "Com as novas tecnologias também são criados muitos novos e interessantes campos de negócios e novos empregos", complementou o político, afirmando, ainda, que "a tarefa das empresas é aproveitar essas oportunidades". Todos contra a Apple Os iPads continuam sendo referência Os computadores de mão conhecidos como tablet continuam sendo a nova febre do mercado de informática, com vendas crescentes – enquanto o mercado de PCs e notebooks apresenta sensível desaquecimento.
 Embora a fabricante Apple domine o segmento, com seu iPad, o futuro do setor ainda está em aberto. Marcas como Sony, Samsung e Acer lançam novidades, tentando emplacar diferenciais para atrair a atenção dos consumidores. Vice-líder na área de tablets, a sul-coreana Samsung mostra em Berlim um novo dispositivo maior que um smartphone e menor que um tablet. O Galaxy Note tem uma tela de 5,3 polegadas (13,5 centímetros) e é uma espécie de bloco de anotações com funções de celular inteligente. Uma caneta digital permite que o usuário faça esboços e desenhos na tela do aparelho. A empresa, entretanto, não pôde trazer a Berlim a versão mais atual do maior concorrente do iPad. Uma briga na Justiça impede a apresentação do Galaxy 10.1, acusado pela Apple de ser cópia de seu iPad. A IFA 2011 quer atrair mais de 230 mil visitantes Outra atração da feira são os televisores com tecnologia 3D e com acesso à internet. A Philips, maior fabricante europeia de eletrônicos de consumo, fechou em Berlim uma aliança com seus concorrentes asiáticos Sharp e LG e o produtor de televisores alemão Loewe. As quatro empresas acertaram a criação de um ambiente comum de programação para TVs com acesso à Internet (Smart TV), segundo informou Robert Smits, gerente da Philips TV. As empresas querem facilitar a criação de serviços baseados na internet para televisão. Uma "Smart TV" não só reproduz programas televisivos, como também conteúdo da internet, como vídeos do YouTube ou de sites de canais de televisão. Também músicas, fotos e vídeos oriundos de um smartphone ou de um computador externo podem ser reproduzidos, e programas de televisão podem ser gravados direto num disco rígido externo. 

 Revisão: Alexandre Schossler

Nova técnica para “fazer chuva” (Investigadores da Universidade de Genebra desenvolvem método utilizando raios laser)

Investigadores utilizaram laser para condensar água
 Uma nova técnica que num futuro pode provocar chuva está a ser desenvolvida por uma equipa de investigadores da Universidade de Genebra e de institutos de investigação alemães. O método utiliza um laser que provoca a condensação de água e o crescimento de gotas na atmosfera até vários micrómetros de diâmetro; isto desde que haja uma humidade relativa superior a 70 por cento. O estudo está publicado na «Nature Communications». Os cientistas experimentaram o laser sobre o rio Ródano (Suíça) e verificaram que se formaram gotas. Estas não são, no entanto, suficientemente pesadas para que se faça chuva. Os investigadores acreditam que quando conseguirem fazê-las umas centenas de vezes maiores poderão provocar aguaceiros. 
 O método funciona através do disparo de raios laser para o ar, criando partículas de ácido nítrico que atraem as moléculas de água e evitam que se evaporem. As partículas de tamanho micrométrico formam-se de maneira estável e persistem durante pelo menos 20 minutos, o que, segundo os cientistas, demonstra que a condensação não é algo transitório que acontece só durante o disparo do laser. É sim um processo que permite o crescimento de gotas estáveis. O senão desta técnica é que, para funcionar, é necessário existir já uma humidade elevada, não sendo assim útil para climas secos, onde a chuva é mais necessária. Os investigadores afirmam que vão continuar a aperfeiçoar a técnica. De referir que a mesma equipa tinha feito já uma primeira experiência, de uma forma ainda mais rudimentar, o ano passado, em Berlim. 

 Artigo: Field measurements suggest the mechanism of laser-assisted water condensation 

 2011-08-31

sábado, 27 de agosto de 2011

Hexágonos, carbono e o Prémio Nobel da Física de 2010

Edwin Abbot, no romance “Flatland: A Romance of Many Dimensions”, criou um mundo abstracto bidimensional habitado por polígonos; a novela é uma crítica à sociedade e cultura Vitorianas. Nesse mundo abstracto a duas dimensões, os hexágonos, embora pertencentes à nobreza, ocupam o nível mais baixo dessa classe social. Ora todos sabemos que não existem mundos bidimensionais povoados por hexágonos.


Que aplicações são essas de que atrás se falou? Sendo elas inúmeras, talvez as mais importantes sejam: 
  • Novos paneis tácteis ("touch-screens") para monitores de computadores e aparelhos de comunicação móvel. Um novo e recente método de produção de grafeno (diferente do que acima se explicou)  permite produzir folhas deste material de cerca de 50 cm de largura, sendo possível ter entre as nossas mãos uma folha de espessura atómica. Como o grafeno é transparente, é claro que pode ser usado para produzir monitores. Como é flexível e não quebra com facilidade trará mais durabilidade aos monitores desses aparelhos. Como a sua produção é muito mais barata que os óxidos transparentes usados hoje em dia, trará uma diminuição do preço das tecnologias - aspecto que será muito apreciado.
  • Células solares. As células solares necessitam de eléctrodos transparentes à luz, numa larga gama de frequências. A transparência, a flexibilidade, a resistência às deformações e o facto de ser metálico, tornam o grafeno um excelente material para este tipo de dispositivos.
  • Detectores de radiação, quer para antenas de uso militar quer para sistemas de vigilância em aeroportos.
  • Sensores de pequenas quantidades de certos tipos de moléculas em ambientes fechados. A condutividade eléctrica do grafeno é muito sensível ao tipo de moléculas que se ligam à sua superfície, pelo que se poderão conceber detectores para espécies químicas específicas. Este tipo de "nariz" para gases tem o seu poder olfactivo muito aumentado quando a superfície do grafeno é funcionalizada com ADN.
  • Sensores de tensão. A condutividade eléctrica do grafeno depende do estado de deformação do material. Este sustenta deformações até 20% sem quebrar e sem comportamento plástico. É concebível a incorporação em estruturas de sensores baseados em grafeno, para monitorizar estados de deformação das mesmas.
  • Sequenciação das bases que constituem o ADN. Produzindo pequenos orifícios numa membrana de grafeno e fazendo passar por esse orifício moléculas de ADN, mostrou-se que a corrente eléctrica através do orifício é sensível ao tipo de base.
  • Metrologia, na definição do padrão de resistência eléctrica, recorrendo ao efeito de Hall quantificado.


Ler mais: http://aeiou.expresso.pt/hexagonos-carbono-e-o-premio-nobel-da-fisica-de-2010=f607662#ixzz1WGWxmV1n

XIV ENCONTRO NACIONAL DE EDUCAÇÃO EM CIÊNCIAS: EDUCAÇÃO EM CIÊNCIAS PARA O TRABALHO, O LAZER E A CIDADANIA

Vai realizar-se, de 29 de Setembro a 01 de Outubro de 2011, na Universidade do Minho, o XIV Encontro N...
Data: 29/09/2011


Arctic shipping routes open



Diminishing Arctic sea ice

 
 
Diminishing Arctic sea ice
 
25 August 2011
Satellite measurements show we are heading for another year of below-average ice cover in the Arctic. As sea ice melts during the summer months, two major shipping routes have opened in the Arctic Ocean.
In 2008 satellites saw that the Northwest Passage and the Northern Sea Route were open simultaneously for the first time since satellite measurements began in the 1970s – and now it has happened again.  
 
Ice-free Northwest Passage
Ice-free Northwest Passage
While the Northern Sea Route above Russia (also known as the Northeast Passage) has been open to shipping traffic since mid-August, recent satellite data show that the most direct course in the Northwest Passage now appears to be navigable as well.
Located in the Canadian Arctic Archipelago, the Northwest Passage can be a short cut for shipping between Europe and Asia – but with the opening of the sea route comes the potential for both sovereignty claims and marine species migration across the Arctic Ocean.
In 2007, Arctic sea ice hit a record low since satellite measurements began nearly 30 years before. That same year, the historically impassable Northwest Passage opened for the first time.
Unusual weather contributed to 2007’s record ice loss: skies opened over the central Arctic Ocean and wind patterns pushed warm air into the region, promoting a strong melt.
Weather patterns have been different this year, but the early opening of the passages indicates that we could be about to hit a new record low in ice cover. 
 
 

Open Northern Sea Route
Open Northern Sea Route
“The minimum ice extent is still three to four weeks away, and a lot depends on the weather conditions over the Arctic during those weeks,” says Leif Toudal Pedersen, a senior scientist at the Danish Meteorological Institute.
“Whether we reach an absolute minimum or not, this year again confirms that we are in a new regime with substantially less summer ice than before.
“The last five summers are the five minimum ice extent summers on record.”
Every year, the Arctic Ocean experiences the formation and then melting of vast amounts of floating ice, but the rate of overall loss has accelerated.
During the last 30 years, satellites observing the Arctic have witnessed reductions in the minimum ice extent at the end of summer from around 8 million sq km in the early 1980s to the historic minimum of less than 4.24 million sq km in 2007.
Before the advent of satellites, obtaining measurements of sea ice was difficult: the Arctic is both inaccessible and prone to long periods of bad weather and extended darkness. 
 
 

Changing Arctic sea ice
Changing Arctic sea ice
Radars on Earth observation satellites such as ESA’s Envisat are particularly suited to monitoring polar regions because they can acquire images through clouds and darkness.
In the coming weeks, ESA will continue to monitor the situation in the Arctic with its Envisat, CryoSat and SMOS satellites. 


Fonte: 
http://www.esa.int/esaCP/SEMT7TRTJRG_index_0.html

Exames Nacionais com nota negativa

Os exames Nacionais que servem de prova de acesso ao Ensino Superior registaram notas negativas. A taxa de reprovação a Português quase duplicou na primeira fase e a grande surpresa vai para o exame de Física e Química.

Foram hoje divulgados os resultados dos exames nacionais de acesso ao Ensino Superior. Sete das vinte e quatro disciplinas sujeitas a exame registaram nota negativa sendo que o grande foco de atenção vai para o Português e a Matemática. No caso do Português, a taxa de reprovação duplicou passando de seis para dez por cento. Em 68.409 provas, 37.685 tiveram negativa. A média das notas dos quase 50.000 alunos internos (aqueles que frequentaram as aulas durante todo o ano letivo) baixou de 11 valores para 9,6, enquanto a média total (que engloba todos os estudantes que realizaram a prova, mesmo sem terem frequentado as aulas durante o ano escolar) passou de 10,1 para 8,9 valores. As negativas a Matemática A, também dispararam este ano com a taxa de reprovação a atingir os 20 por cento na primeira fase, contra 13 por cento em 2010, no entanto, a disciplina conseguiu, ainda assim, uma média positiva de 10,6 valores no exame nacional deste ano, contra 12,2 em 2010, considerando o universo de alunos internos (27.701). Quando consideradas todas as provas realizadas (39.169), a média total desce de 10,8 para 9,2 valores. A grande surpresa deste ano foi o exame de Física e Química que registaram nota positiva. A taxa de reprovação passou de 25 por cento em 2010 para os 16 por cento e a média dos alunos internos (27.695) subiu de 8,5 valores para 10,5. Já a média total passou de 8,1 para 9,9 valores. 

 TIAGO FIGUEIREDO 

 15-07-2011

PROPOSTA DE RESOLUÇÃO DE EXAME FQA - 2 ª FASE (Sociedade Portuguesa de Física)


sexta-feira, 26 de agosto de 2011

Kepler descobre seis novos planetas


Sistema planetário a dois mil anos-luz da Terra

Ilustração do sistema planetário Kepler-11
A NASA, agência espacial norte-americana, anunciou que o telescópio Kepler descobriu  seis pequenos planetas que giram em torno de uma estrela semelhante ao Sol.
Estes orbitam num sistema baptizado de Kepler-11, que fica a dois mil anos-luz da Terra e  despertou a atenção dos cientistas por ser composto por um elevado número de planetas de pequenas dimensões que se encontram muito próximos entre si.

Lançado em Março de 2009, o objectivo do Kepler é recolher dados e provas de planetas fora do sistema solar que andem à volta de estrelas, em condições de temperatura média onde possa existir água líquida e, por consequência, vida.
Para determinar o tamanho e a massa dos planetas, a equipa de cientistas da Universidade da Califórnia estudou as medições realizadas pelo Kepler, que captou a luminosidade alterada da estrela em torno da qual orbitam os planetas quando passam em frente a ela.
Cinco dos novos planetas descobertos têm uma massa que oscila entre 2,3 e 13,5 vezes a da Terra e os seus períodos orbitais são inferiores a 50 dias, pelo que se encontram numa região que, em termos de referência, poderia caber na órbita de Mercúrio.
O sexto planeta é maior e está mais longe, sendo que os investigadores puderam determinar um período orbital de 118 dias. No entanto não conseguiram calcular a sua massa.
Desde que foi localizado o primeiro planeta extra-solar, em 1992,já  foram confirmados 519. Em apenas um ano o telescópio Kepler registou 1235 possíveis planetas fora do sistema solar, dos quais 54 localizados numa zona propícia para a formação de vida.

2011-02-03

Formação dos anéis de Saturno tem nova explicação


Gelo que compõe anéis seria revestimento de um antigo satélite natural do planeta

Formação dos anéis de Saturno (imagem: Southwest Research Institute)
Os anéis de Saturno podem ter surgido com a desintegração de um satélite natural daquele planeta. Num estudo publicado agora na «Nature», a investigadora Robin Canup, astrofísica do Southwest Research Institute (EUA), explica que o gelo que anda à volta de Saturno terá sido o revestimento de um antigo satélite natural que se foi “descascando” à medida que se aproximava do planeta.

O sistema de anéis de Saturno é único e a sua origem não tem até agora uma explicação adequada, acredita a investigadora, pois nada até agora tinha conseguido explicar a existência de milhões de pedaços compostos por 90 a 95 por cento de água gelada.
Até agora, havia duas teorias dominantes sobre o fenómeno que não conseguiam explicar em pormenor a formação dos discos que, se fossem compactados, formariam um satélite com 500 quilómetros de diâmetro.
Uma das hipóteses diz que os discos de gelo são restos de uma antiga lua que pode ter explodido há milhões de anos. A segunda defende que os anéis são escombros que sobraram da formação do planeta.

A nova teoria valoriza a primeira hipótese. Robin Canup desenvolveu um modelo informático capaz de explicar como se formam os anéis. A sua teoria tem como base a força gravitacional que Saturno exerce.
A sua influência é semelhante à da Lua sobre marés do nosso planeta. A formação dos anéis terá começado quando um satélite do tamanho de Titã (uma das actuais luas de Saturno), cujo diâmetro é metade da Terra, entrou no campo gravitacional daquele planeta e começou a girar à sua volta, numa zona que estava então ocupada por uma cintura de gás.
A pressão começou a tirar o gelo que cobria o satélite até deixar visível o seu núcleo de silicatos. Este continuou a avançar em direcção a Saturno até que ficou “sepultado” na sua densa atmosfera gasosa.

 2010-12-14

Deus joga aos dados!


O dilema do Gato de Schrödinger

A
té ao século XX no mundo científico predominava o paradigma de um Universo determinista. Pensava-se que tudo no nosso mundo era determinado pelo princípio de causalidade, ou seja, para cada acontecimento acreditava-se existir sempre uma causa: em última análise podia ser Deus o responsável, na perspectiva religiosa, ou as causas primeiras que deram origem ao nosso Universo, como o Big Bang. Por exemplo, usando as leis de Newton e as leis de Kepler[1] se soubermos as posições e velocidades do Sol e outros planetas num dado instante, podemos prever a posição de um planeta dentro do Sistema Solar em cada instante do seu período de translação. Esta teoria determinista teve um grande apoio, dado que se acreditava na existência do planeta Neptuno antes da sua descoberta por Johann Gottfried Galle[2], em 1846, que o viu pela primeira vez através de um telescópio. Realmente, a descoberta de Neptuno foi prevista através de cálculos matemáticos de Urbain Le Verrier[3], ou seja, respeitando o princípio de causalidade necessária. Até meados do século XX algumas das mentes mais brilhantes do horizonte da ciência apoiavam a ideia de um mundo totalmente determinista, onde não havia lugar para o acaso. A título de exemplo, refira-se Albert Einstein, que sempre acreditou que se algo parece ser aleatório, é porque existe uma causa desconhecida que determina o resultado de uma experiência ou um acontecimento. Costuma-se citar uma frase célebre do pai da Teoria da Relatividade: “Deus não joga aos dados”. No entanto, no início do século passado surgiu uma nova teoria que alterou a nossa perspectiva do Universo.
Hoje em dia sabe-se que o universo dos átomos é governado pelo Princípio da Incerteza. No mundo da Física Quântica tudo é incerto, desde a dualidade onda – partícula (ou onda – corpúsculo) até à estrutura do átomo. Houve necessidade de abolir alguns princípios lógicos básicos do nosso pensamento para compreender o enigmático mundo das nanopartículas!
No final do século XIX a Física Clássica respondeu a quase todos os enigmas da Natureza: com a termodinâmica, a mecânica newtoniana e o electromagnetismo de Maxwell. O Universo deixou de parecer misterioso. Faltava resolver apenas dois “pequenos problemas”: o enigma do corpo negro, que levou à introdução da constante de Planck, e o problema da experiência de Michelson e Morley[4], que pôs em causa a existência do éter (uma substância que servia de meio para as ondas luminosas (Klein, 1996)). Deste modo, pensava-se que com as teorias científicas existentes nessa altura conseguia explicar-se qualquer fenómeno. No entanto, quanto maior é a ignorância maior é ilusão! Com o tratamento das duas pequenas “nuvens negras” levantaram-se novos dilemas e houve necessidade de criar novas teorias para explicar o enigmático mundo que nos rodeia. Assim, surgira as Teorias da Relatividade Restrita e Geral de Einstein e a Mecânica Quântica. Ambas assentes em novos paradigmas que punham em causa o panorama da Física clássica.
Analisemos o problema de um corpo negro – um emissor perfeito. Acreditava-se que um corpo quente emitia ondas electromagnéticas em quantidades idênticas em todas as frequências. Ou seja, o corpo emitia igual quantidade de energia em ondas de frequência alta e em ondas de baixa frequência. Rayleigeh e Sir James Jeans[5], baseando--se nesta teoria científica do final do século XIX, concluíram que um corpo quente devia irradiar quantidades ilimitadas de energia, uma vez que não existe limite para a frequência. Ora, essa conclusão era absurda! Como resposta a esse problema, Max Planck enunciou uma hipótese que dizia que as ondas electromagnéticas, como os raios-X, não podiam ser emitidas em quantidades arbitrárias (Hawking, 2009). Seguindo a ideia de Planck, a energia só podia ser emitida em quantidades pequenas e bem definidas. Estas doses de energia passaram a chamar-se quanta[6]. Deste modo, o cientista efectuou uma quantização de energia que mais tarde foi aplicada ao átomo, pois os átomos podem receber e irradiar a energia apenas numa quantidade finita e quantizada, ou seja, em forma de quanta. Cada quantum teria uma energia tanto maior quanto mais alta fosse a frequência. Isto implicava que uma frequência muito alta necessitava de mais energia do que aquela que se encontrava disponível para a emissão de um único quantum de energia. Esta energia não podia ser emitida aleatoriamente, logo, haveria limite para a emissão de energia.
Com a quantização de energia os físicos perceberam que os átomos só recebem e emitem certas quantidades de energia na forma de radiação electromagnética - isto está relacionado com as energias dos níveis electrónicos que também não são arbitrárias. Com o conhecimento desta propriedade do átomo, um cientista alemão, Werner Heisenberg, tentou medir a posição e a velocidade do electrão no átomo. Para isso incidiu luz na partícula e, uma vez que algumas ondas são dispersas pelo electrão, Heisenberg conseguia saber a sua posição. No entanto, não se podia usar uma quantidade muito pequena de energia, devia-se usar pelo menos um quantum - isto implicava que ao incidir na partícula iria alterar a velocidade inicial do electrão o que não permitia a medição da velocidade inicial. Simultaneamente, não podemos saber com certeza a posição e a velocidade do electrão no átomo, quanto mais preciso for o valor da posição, maior será o erro do valor da velocidade e vice-versa. Surge assim uma base fundamental para a compreender o mundo das nanopartículas: o Princípio de Incerteza de Heisenberg!
O problema da medição é inevitável. Talvez seja a única lei fatal que rege o nosso mundo. Quando tentamos medir o estado de um sistema, a nossa medição altera o seu estado original, ou seja, qualquer medição, enquanto uma intervenção na experiência, introduz uma perturbação nas condições iniciais. Assim, sempre que observamos um sistema, ou seja, medimos o seu estado, introduzimos um erro nas nossas medições (Croca, 2004), pois, enquanto observadores imperfeitos, não conseguimos observar um sistema sem o alterar. É a mesma coisa que cultivar uma planta sensível à luz numa caixa escura e de vez em quando abrir a caixa para verificar o estado da planta. Infelizmente, cada vez que abrimos a caixa deixamos que a planta entre em contacto com os raios luminosos que alteram o seu crescimento, não sabemos o quão profunda é alteração das condições iniciais mas temos a noção de que interferimos no crescimento da planta. Cada um de nós poderá perceber que a medição ou observação altera as condições do sistema e, portanto, os resultados. Se alguma vez participou num torneio desportivo ou efectuou um exame teórico na escola teve a sensação de que o facto de a pessoa estar a ser observada pode provocar stress e alterar os seus resultados. Obviamente, no caso dos humanos tem a ver com questões psicológicas que são remediáveis, mas o mesmo não acontece com as nanopartículas.
O Princípio de Incerteza é fundamental para perceber a física dos átomos e, como uma consequência inevitável, o funcionamento de toda a matéria que nos rodeia e até a bioquímica do nosso próprio corpo.
Esta nova ideia de incerteza levou três cientistas, Werner Heisenberg, Erwin Schrödinger e Paul Dirac, à reformulação da física clássica numa nova teoria – Mecânica Quântica, que acabou com o paradigma determinista. Numa experiência existem vários resultados possíveis, a mecânica quântica prevê os resultados possíveis a as suas probabilidades. Como os alunos da disciplina de Física e Química do 10ºAno já sabem, na perspectiva desta teoria, os electrões não têm órbitas definidas mas sim uma zona de espaço onde a probabilidade de encontrar um electrão é superior a 95%. – a orbital. Teoricamente, nenhum acontecimento é impossível. No entanto, este paradigma tem outras implicações muito mais profundas que contrariam os nossos princípios lógicos. A hipótese de Planck e a conclusão de Heisenberg demonstraram que as ondas podem comportar-se como partículas e as partículas como ondas (Hawking, 2009). Esta dualidade onda-corpúsculo, visível no efeito fotoeléctrico, foi pela primeira vez enunciada por Louis-Victor de Broglie. É um dos paradoxos que fez os cientistas repensarem a física newtoniana e a lógica aristotélica usada até então.
A experiência do Gato de Schrödinger vai contra o princípio lógico básico da lógica aristotélica que usamos no quotidiano - o princípio de não-contradição. O princípio de não-contradição (pode também ser designado pelo princípio de contradição) consiste na ideia de que duas realidades contraditórias não podem coexistir. Para evitar oximoros e paradoxos lógicos não podemos afirmar, por exemplo, que algo existe e não existe simultaneamente, ou que um animal está vivo e morto. Deste modo, duas proposições contraditórias são simultaneamente verdadeiras. Do ponto de vista da lógica aristotélica, só pode estar ou vivo ou morto, tratando-se de um silogismo disjuntivo em que nenhum dos elementos pode coexistir com o outro, sendo que as duas realidades se excluem mutuamente. Para entender o mundo das nanopartículas e das ondas, a Mecânica Quântica estudada-as apoiando-se na onda-corpúsculo, abandonando as convicções da lógica aristotélica. Assim, nos meados do século passado surgiu a lógica paraconsistente que não respeita o princípio de não-contradição e admite que existem vários resultados possíveis dando uma probabilidade para cada um dos resultados. A dificuldade de compreensão da Mecânica Quântica é a necessidade de abstracção e de abandono de princípios lógicos aparentemente dogmáticos.
Concluindo, podemos dizer que a Mecânica Quântica alterou não só a perspectiva científica do Universo, mas também a nossa maneira de pensar e o nosso quotidiano. A alteração de paradigma científico permitiu a solução de vários problemas e abriu o caminho para um novo tipo de tecnologia, permitindo a construção de lasers, transístores, microscópios electrónicos e obter imagens de ressonância magnética. O caminho para uma inovação científico-tecnológica passava pela incerteza.
Desde o momento em que o Universo deixou de ser governado pelas leis deterministas dando o lugar ao acaso, surgiu a incerteza, que pode ser vista como uma forma de liberdade. A inevitabilidade da incerteza pode ser benéfica, pois proporciona-nos a liberdade de escolha – o livre arbítrio. Se não existe nenhuma causa fatal que determine as nossas escolhas, então podemos ser livres nas nossas decisões.
“A incerteza é uma propriedade inevitável do mundo.”
Stephen Hawking, in Breve História do Tempo (2009)
Nem sempre a incerteza significa “a dúvida”, por vezes é a liberdade - uma forma de ir mais longe, não nos limitando a dogmas e restrições. De facto, na ciência não existem verdades absolutas e teorias imutáveis. Para a mente humana a inevitabilidade da incerteza parece ser paradoxal. No entanto, a física quântica não difere muito do pensamento do grande filósofo grego, Sócrates: “Só sei que nada sei” (apud Platão, in Apologia de Sócrates). O facto de reconhecermos a nossa ignorância ou a incerteza já nos torna, na verdade, mais sábios do que éramos se vivêssemos na ilusão. O constante avanço da Mecânica Quântica é essencialmente a compreensão da complexidade e da imprevisibilidade do Universo.
A.S.


[1] Leis de Kepler (1605) – uma série de princípios que explicam o movimento de corpos celestes, como os planetas do Sistema Solar.
[2] Johann Gottfried Galle – astrónomo que pela primeira vez viu o planeta Neptuno.
[3] Urbain Le Verrier – foi um matemático e astrónomo francês. Baseando-se na lei de gravitação universal e leis de Kepler calculou com erro de 1% a órbita de Neptuno.
[4] Experiência que provou que a velocidade da luz tem mesma velocidade em todas as direcções, o que significava que não é necessário um meio para propagação de ondas luminosas – éter.
[5] A lei de Rayleigh-Jeans – lei proposta no início do século XIX, descreve a radiação electromagnética de todos os comprimentos de onda irradiada por um corpo negro a uma dada temperatura.
[6]Quanta - forma plural de quantum, do latim “quantia”.