[Física News]Coleção De artigos de Quantica para leigos

Discussão em 'Vale Tudo' iniciada por Pack Man, 8 Setembro 2008.


  1. Pack Man Supra-sumo

    Número de Mensagens:
    16,617
    Pontos de Troféu:
    196
    Bom,
    Sei que física não é nem de longe a preferida da garotada (dentre as matérias da escola).
    Mas, também sei que na sociedade muitos são os entusiastas da astronomia, da astrofísica em geral e também da quantica.

    Sei também que meus tópicos já encheram o saco da galera :-D...
    ...Mas vou aproveitar até quarta afinal vai que tudo acaba, ao menos quando chegar lá em cima vocês vão saber explicar pro C'ra o que aconteceu!:-D:-D:smile

    E é lógico que eu não espero, sequer acredito, que alguém sente na cadeira e leia isso tudo de uma vez, a não ser que esteja sem jogo algum para jogar e em periodo de férias e sem grana, não é mesmo tetudos?!
    Então fica o convite para os interessados entrarem vez ou outra lerem algum dos artigos e se quiserem discutir sobre o assunto, adicionar informações ou mesmo questiona-las.

    Então, aqui vamos nós!!!!

    CAPITULO 1 - Salto Quantico da Física
    [FONT=Verdana, Arial, Helvetica, sans-serif]Carlos Vogt[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]A afirmação de Heisenberg, responsável, em 1927, pela introdução na Física do princípio de indeterminação, de que "o único objeto da Física Teórica é o de calcular resultados que possam ser comparados com a experimentação, sendo completamente inútil fazer uma descrição satisfatória de todo o desenvolvimento do fenômeno (Principles of Quantum Mechanics, 1930, p.7), dá bem a medida das profundas transformações que essa ciência conheceu nas primeiras décadas do século XX e que resultaram no que, de um modo geral, passou a ser conhecido como Física Moderna, ou mais especificamente, no caso, como Física Quântica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Como o objeto da Física é o estudo da natureza, seus métodos, fundamentos teóricos e objetivos epistemológicos estão em relação direta com as concepções que se têm de seu objeto, isto é, da natureza. O que equivale a dizer que, ao menos do ponto de vista histórico, como acontece com qualquer área do conhecimento, há um certo relativismo teórico que permite reconhecer, em diferentes épocas, diferentes modos de conceber a ciência.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Nesse sentido, pode-se falar que a Física que nasce com Aristóteles no século III a. C., ocupa-se da "substância que tem em si mesma a causa de seu movimento", conforme escreve o filósofo grego em sua Metafísica, VI, 1, 1025 b 18, isto é, a Física é uma teoria do movimento.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Essa concepção mantêm-se viva até as origens da ciência moderna, no Renascimento, quando se dá uma grande transformação no conceito de natureza e de suas relações com o homem, através do conhecimento.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] De ordem objetiva, esse conceito nos apresenta a natureza escrita em caracteres matemáticos, destituída de finalidade, absolutamente necessária em termos lógicos e epistemológicos, quer dizer, objetivamente verdadeira e tangível através dos experimentos científicos.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Abandona-se, assim, definitivamente, a idéia de que a Física devesse se ocupar da causalidade do movimento pela tarefa teórica, amadurecida com a obra de Newton, no século XVII, de descrever a ordem natural, "com experiências seguras [...], com o auxílio da geometria" procurando, como escreveu Kant no século XVIII, "estabelecer as regras segundo as quais ocorrem certos fenômenos na natureza".[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A razão e o racionalismo conduzem a ciência na busca da previsibilidade dos fenômenos naturais pelo estabelecimento das regras capazes dessa previsão e que permitam, ao mesmo tempo, como condição de seu entendimento, a descrição visual do desenvolvimento dos fenômenos, representando-lhes a estrutura através de partículas em movimento.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Como escreveu Comte, filósofo do Positivismo, no século XIX, "o caráter fundamental da Física Positiva é considerar todos os fenômenos como submetidos a leis naturais invariáveis, cuja descoberta exata e cuja redução ao mínimo número possível constituem os objetivos de todos os nossos esforços, considerando-se absolutamente inacessível e sem sentido a busca daquilo a que se dá o nome de causas, sejam elas primárias ou causais".[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Desse modo, a descrição substitui a explicação como tarefa da Física e a formulação de suas leis segue rigorosamente o paradigma racionalista do reducionismo lógico: há objetivamente uma ordem natural das coisas e a Física, ciência da natureza, deve representá-la consistentemente, formulando-lhe as regras fundamentais de sua descrição.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] À busca da causalidade do movimento de que são dotadas as substâncias, na Física aristotélica, segue-se pois, no mecanicismo da Física iluminista, a procura de uma nova forma de causalidade, a chamada causalidade necessária que subjaz à noção de ordem natural das coisas e cujas leis, como se disse, é tarefa da Física estabelecer, pelo estabelecimento das relações entre os fenômenos que dão concretude à ordem natural e pela demonstração empírica, através de experimentos, dessas relações.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Tinha-se nesse momento a sensação de que a Física havia concluído sua tarefa e que, excetuando-se alguns aspectos que era preciso ainda costurar, a ciência chegara às portas da grande Resposta.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Mas aí, e nesse momento se tem o marco da terceira fase da evolução da Física, Max Planck, em 14 de dezembro de 1900, anuncia, na Sociedade Berlinense de Física, que a energia não é emitida e tampouco absorvida continuamente, mas sim na forma de pequeninas porções discretas chamadas quanta, ou fótons, cuja grandeza é proporcional à freqüência da radiação.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Nascia a Física Quântica e consolidavam-se as mudanças de concepção que já vinham sendo anunciadas desde os fins do século XIX.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Em 1894, no livro Princípios de Mecânica, Henrich Hertz, físico alemão que em 1897 havia descoberto as ondas eletromagnéticas, já escrevia que "o mais imediato e, em certo sentido, o mais importante problema que o nosso conhecimento da natureza deve capacitar-nos a resolver é a previsão dos acontecimentos futuros, graças à qual poderemos organizar nossas atividades no presente". [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Em 1927, Niels Bohr, com seu princípio de complementaridade, segundo o qual "não é possível realizar simultaneamente a descrição rigorosa do espaço-tempo e a conexão causal rigorosa dos processos individuais", anunciando que "uma ou outra deve ser sacrificada", sela a trajetória da Física como descrição total da ordem da natureza e a pretensão de que pudesse realizar-se, efetivamente, como teoria da necessidade dessa ordem natural.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Einsten e Infeld em The Evolution of Physics, anotando que fora necessária "uma corajosa imaginação científica para reconhecer que o fundamental para a ordenação e a compreensão dos acontecimentos podia não ser o comportamento dos corpos; mas o comportamento de alguma coisa que se interpõe entre eles, isto é, o campo -", indicam de forma clara os problemas que a Física Relativista trazia para a pretensão da Física Clássica de realizar a descrição do curso dos fenômenos através da representação visual das partículas em movimento.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Já não se trata mais nem de descrever, pela ambição da totalidade das representações, nem de explicar, pelo finalismo causal do movimento, a arquitetura da natureza, mas sim de prever os eventos observáveis consubstanciando-se a Tarefa da Física Moderna, que nasce com a Mecânica Quântica, na famosa observação de Heisenberg, quando escreve, em 1955, que a Física contemporânea não busca mais oferecer "uma imagem da natureza, mas uma imagem das nossas relações com a natureza". [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A introdução do observador como elemento integrante, integrado e integrador da observação e do fenômeno observado relativiza o racionalismo objetivista e desenvolve, de um lado, uma dualidade na ciência que a manterá em contínua tensão com a busca obsessiva de sua unificação e da construção da teoria unificada capaz de fornecer ao homem a Resposta definitiva sobre a origem de tudo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Físicos importantes, como Sheldom Glashow, prêmio Nobel, juntamente com Steven Weinberg e Abdus Salam, referem-se, em tom de desilusão a esse objeto de desejo da ciência como um Santo Graal da Física teórica, do mesmo modo que biólogos se referiram às perspectivas abertas pelos estudos do DNA recombinante e, depois, da Genômica, usando a mesma metáfora andante dos cavaleiros de Cristo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O fato é que o desenvolvimento da Física Moderna impulsionado pela criação da Mecânica Quântica e pela Teoria da Relatividade, de Einsten, não se libertou dessa tensão e, ao contrário, levou-a aos limites da demonstrabilidade empírica e da testabilidade experimental.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Não se pode negar a efetividade tecnológica decorrente do desenvolvimento da Mecânica Quântica nos mais diversos campos, entre eles os da microeletrônica e transistores, dos novos materiais, dos raios laser, da informática, dos supercondutores, e tantas outras apropriações que transformaram e se cotidianizaram no mundo contemporân[/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]eo, a ponto de se constituírem em fatores fundamentais do modelo econômico da globalização.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] E isso pelos padrões de caracterização dessa terceira fase da evolução da Física, constitui uma medida indispensável para a aferição de suas verdades, o que dá ao conhecimento científico um pragmatismo que, se antes não lhe era estranho, não lhe era, contudo, constitutivo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Mas no afã de encontrar a Resposta, pela construção de uma teoria unificada da Física, muitos cavaleiros dessa demanda laico-sagrada ultrapassaram as fronteiras da ciência e (re)ingressaram na fecunda criatividade do mito, da literatura e do misticismo religioso, como é o caso de Hoyle, de Capra, de Bohm, de Hawking e de muitos outros.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Não espanta, então, o fato de ter havido e continuar a haver tantas apropriações não físicas da Física Quântica, em especial as esotéricas e as que carregam no subjetivismo relativista de uma enorme quantidade de bobagens pseudo-científicas.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Mas é preciso lembrar que Einsten passou os últimos anos de sua vida buscando encontrar uma teoria que unificasse a Mecânica Quântica com a sua Teoria da Relatividade Geral. Muitos deram prosseguimento a essas andanças, viajando por universos paralelos, universos-bebês, universos inflacionados, buracos de minhocas, supercordas e outras metáforas engenhosas e imaginativas mas absolutamente imensuráveis.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Da indeterminação à incerteza e desta à formulação epistemológica da filosofia de Popper foram passos conseqüentes que levaram à formulação de uma visão probabilística e não mais racionalista da verdade.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Desse modo, a ciência aproxima-se da verdade, mas não chega a ela jamais: a revelação é impossível. A refutabilidade da teoria como método dinâmico para a superação contínua do conhecimento pelo conhecimento traz implícito um conceito logicamente negativo da verdade: prova-se o que não é, mas não o que é verdadeiro e, assim, evita-se o pavor do encontro definitivo com a Resposta que, se enunciada, nos condenaria a todos a um estado beatífico de inutilidade existencial. Mas a refutabilidade de Popper, seria ela mesma refutável? E se sim, a engenhosidade cética do método crítico, conseguindo evitar o paraíso do conhecimento absoluto para preservar a fé e a esperança do homem na ciência, não impediria, entretanto, que a sua progressividade se precipitasse no inferno teórico da regressão infinita, o mesmo inferno aberto pela possibilidade de não haver nenhum fundamento básico para o mundo físico, mas apenas partículas cada vez menores que se sucedem, encaixadas umas nas outras, como bonecas russas ou caixinhas chinesas, infinitamente.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Ao concluir o comentário que faz sobre John Wheeler, "um dos intérpretes mais influentes e inventivos da Mecânica Quântica, bem como da Física Moderna", aluno de Bohr, autor da expressão buraco negro e it do bit, com que chamou definitivamente atenção para as relações entre a Física e a Teoria da Informação, nome-chave para a idéia de que o universo, sendo um fenômeno participativo, requer o ato de observação e, logo, a consciência, além de ter se envolvido na construção da primeira bomba atômica e da primeira bomba de hidrogênio, John Horgan, autor do livro O Fim da Ciência escreve: [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] "[...] ele nos dá corajosamente um paradoxo adorável e desalentador: no coração de toda realidade existe uma pergunta, e não uma resposta. Quando examinamos os recessos mais profundos da matéria ou a fronteira mais remota do universo, vemos, finalmente, o nosso próprio rosto perplexo nos devolvendo o olhar." [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Aqui, se não há encontro com a Resposta, há confronto harmônico com a poesia, como esta, da prosa realisticamente perturbadora de Jorge Luiz Borges:[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] "Um homem propõe-se a tarefa de desenhar o mundo. Ao longo dos anos povoa um espaço com imagens de províncias, de reinos, de montanhas, de baías, de naves, de ilhas, de peixes, de habitação, de instrumentos, de astros, de cavalos e de pessoas. Pouco antes de morrer, descobre que esse paciente labirinto de linhas traça a imagem de seu rosto."[/FONT]
    CAPITULO 2 - A Física Quântica, o que é e para que serve. (ótima para se entender a questão das super cordas, teoria M, multiversos...)
    [FONT=Verdana, Arial, Helvetica, sans-serif]Almir Caldeira[/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif]Já faz cem anos que Planck teve de lançar mão de uma expressão inusitada para explicar os seus resultados da medida da intensidade da radiação emitida por um radiador ideal - o corpo negro - levando-o assim a estabelecer o valor de uma nova constante universal que ficou conhecida como a constante de Planck. A partir daí, e também em função de outras experiências que apresentavam resultados igualmente surpreendentes no contexto da mecânica de Newton e do eletromagnetismo de Maxwell, os pesquisadores do começo do século passado se viram obrigados a formular hipóteses revolucionárias que culminaram com a elaboração de uma nova física capaz de descrever os estranhos fenômenos que ocorriam na escala atômica; a mecânica quântica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Esta teoria, com a sua nova conceituação sobre a matéria e os seus intrigantes postulados, gerou debates não só no âmbito das ciências exatas mas também no da filosofia, provocando assim uma grande revolução intelectual no século XX. Obviamente que, além das discussões sérias e conceitualmente sólidas, as características não cotidianas dos fenômenos quânticos levaram muitos pesquisadores, e também leigos, a formular interpretações equivocadas da nova teoria, o que infelizmente, ainda nos nossos dias, atrai a atenção das pessoas menos informadas. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Mas, no final das contas, quais são estes efeitos tão estranhos dos quais estamos falando e qual é a sua relevância para o nosso cotidiano, se existe alguma? Bem, para provar que não estamos falando de coisas inúteis, comecemos pela segunda parte desta pergunta.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O leitor certamente se surpreenderia se disséssemos que sem a mecânica quântica não conheceríamos inúmeros objetos com os quais lidamos corriqueiramante hoje em dia. Só para se ter uma idéia podemos mencionar o nosso aparelho de CD, o controle remoto de nossas TVs, os aparelhos de ressonância magnética em hospitais ou até mesmo o micro-computador que ora usamos na elaboração deste artigo. Todos os dispositivos eletrônicos usados nos equipamentos da chamada high-tech só puderam ser projetados porque conhecemos a mecânica quântica. A título de informação, 30% do PIB americano é devido a estas tecnologias. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Esperando ter convencido o leitor de que estamos longe do terreno da especulação, vamos, então, abordar a primeira parte da pergunta acima lançada. O que é a mecânica quântica?[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A mecânica quântica é a teoria que descreve o comportamento da matéria na escala do "muito pequeno", ou seja, é a física dos componentes da matéria; átomos, moléculas e núcleos, que por sua vez são compostos pelas partículas elementares. Muito interessante mas…o que isto nos traz de novo?[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A fim de podermos apreciar as novidades que a física quântica pode nos proporcionar, vamos estabelecer alguns conceitos clássicos que nos serão muito úteis adiante.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O primeiro conceito é o de partícula. Para nós este termo significa um objeto que possui massa e é extremamente pequeno, como uma minúscula bolinha de gude. Podemos imaginar que os corpos grandes sejam compostos de um número imenso destas partículas. Este é um conceito com o qual estamos bem acostumados porque lidamos diariamente com objetos dotados de massa e que ocupam uma certa região do espaço.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O segundo conceito é o de onda. Este, apesar de ser também observado no nosso dia a dia, escapa à atenção de muitos de nós. Um exemplo bem simples do movimento ondulatório é o das oscilações da superfície da água de uma piscina. Se mexermos sistematicamente a nossa mão sobre esta superfície, observaremos uma ondulação se afastando, igualmente em todas as direções, do ponto onde a superfície foi perturbada. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O caso particular aqui mencionado é o de onda material, ou seja, aquela que precisa de um meio material para se propagar (a água da piscina no nosso caso). Entretanto, esse não é o caso geral. Há ondas que não precisam de meios materiais para a sua propagação, como é o caso da radiação eletromagnética. Aqui, a energia emitida por cargas elétricas aceleradas se propaga no espaço vazio (o vácuo) como as ondas na superfície da piscina.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Apesar da sua origem mais sutil, a radiação eletromagnética está também presente na nossa experiência diária. Dependendo da sua frequência ela é conhecida como: onda de rádio, FM, radiação infravermelha, luz visível, raios-X e muito mais.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Pois bem, até o final do século XIX tudo o que era partícula tinha o seu movimento descrito pela mecânica newtoniana enquanto que a radiação eletromagnética era descrita pelas equações de Maxwell do eletromagnetismo. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O que ocorreu no primeiro quarto do século XX foi que um determinado conjunto de experiências apresentou resultados conflitantes com essa distinção entre os comportamentos de onda e de partícula. Estes resultados podem ser resumidos em uma única experiência que passamos a descrever, em seguida, na sua versão clássica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Imagine que uma onda, material ou não, incida sobre um anteparo opaco onde haja duas fendas (ver figura abaixo). Cada uma das fendas passa então a ser fonte de um novo movimento ondulatório. Uma característica fundamental deste movimento é o fenômeno de interferência, que reflete o fato das oscilações provenientes de cada uma das fendas poderem ser somadas ou subtraídas uma da outra. Colocando-se agora um segundo anteparo, distante do primeiro, onde iremos detetar a intensidade da onda que o atinge, observaremos como resultado uma figura que alterna franjas com máximos e mínimos da intensidade da onda. Esta é a chamada figura de interferência.[/FONT]
    [IMG] [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]a) arranjo experimental[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]b) visão frontal do segundo anteparo[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Vamos agora repetir a mesma experiência com a diferença que, ao invés de ondas, incidimos partículas sobre o primeiro anteparo. O que ocorre nesta nova situação é a presença de duas concentrações distintas de partículas atingindo o segundo anteparo. Aquelas que passam por uma ou outra fenda, como mostra a figura abaixo.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Este seria, portanto, o resultado esperado pela física clássica. Entretanto, quando esta experiência é feita com partículas como elétrons ou nêutrons, ocorre o inesperado: forma-se no segundo anteparo uma figura de interferência na concentração de partículas que a atingem, como mostramos em seguida. [/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Ainda mais estranho é a repetição desta mesma experiência com apenas uma partícula. Ela passa pelo primeiro anteparo e atinge o segundo em apenas um ponto. Vamos, então, repetir esta mesma experiência um número enorme de vezes. O resultado é que em cada experimento o ponto de deteção no segundo anteparo é diferente. Entretanto, sobrepondo todos os resultados obtidos nos segundos anteparos de cada experiência obtém-se, novamente, a mesma figura de interferência da figura anterior![/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Assim, mesmo falando de apenas uma partícula, nos vemos obrigados a associá-la a uma onda para que possamos dar conta da característica ondulatória presente no nosso exemplo. Por outro lado, devemos relacionar esta onda à probabilidade de se encontrar a partícula em um determinado ponto do espaço para podermos entender os resultados de uma única experiência de apenas uma partícula. Este é o chamado princípio da dualidade onda-partícula. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Um outro fato intrigante ocorre quando tentamos determinar por que fenda a partícula passou. Para resolver esta questão podemos proceder fechando uma das fendas para ter certeza que ela passou pela outra fenda. Outra surpresa: a figura de interferência é destruida dando lugar a apenas uma concentração bem localizada de partículas, a daquelas que passaram pela fenda aberta! Portanto, ao montarmos um experimento que evidencia o carater corpuscular da matéria, destruimos completamente o seu carater ondulatório, ou seja, o oposto ao caso com as duas fendas abertas. Este é o princípio da complementaridade.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] De uma forma geral podemos interpretar os resultados do experimento aqui descrito como os de um sistema sujeito a uma montagem na qual o seu comportamento depende de alternativas A e B (no nosso caso, a passagem da partícula por uma das fendas). Enquanto que na mecânica clássica o sistema escolhe A ou B, aleatoriamente, na mecânica quântica estas duas alternativas interferem. Entretanto, ao questionarmos, ou melhor, medirmos, por qual alternativa o sistema opta, obteremos o resultado clássico.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Um sistema quântico, ao contrário do clássico, só pode ser descrito através das possíveis alternativas (não necessariamente apenas duas) que a nossa montagem apresente para ele. A onda associada ao sistema carrega a possibilidade de interferência entre as diferentes alternativas e é a informação máxima que podemos ter sobre o sistema em questão.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A aplicação desta teoria a problemas nas escalas atômicas e sub-atômicas apresenta resultados como a quantização da energia ou o tunelamento quântico que, por si só, já mereceriam a elaboração de um outro artigo para que o leitor pudesse apreciá-los.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O mais interessante é que a mecânica quântica descreve, com sucesso, o comportamento da matéria desde altíssimas energias (física das partículas elementares) até a escala de energia das reações químicas ou, ainda de sistemas biológicos. O comportamento termodinâmico dos corpos macroscópicos, em determinadas condições, requer também o uso da mecânica quântica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A questão que nos resta é então; por quê não observamos estes fenômenos no nosso cotidiano, ou seja, com objetos macroscópicos? Bem, há duas razões para isso. A primeira é que a constante de Planck é extremamente pequena comparada com as grandezas macroscópicas que têm a sua mesma dimensão. Baseados neste fato, podemos inferir que os efeitos devidos ao seu valor não nulo, ficarão cada vez mais imperceptíveis à medida que aumentamos o tamanho dos sistemas. Em segundo lugar, há o chamado efeito de descoerência. Este efeito só recentemente começou a ser estudado e trata do fato de não podermos separar um corpo macroscópico do meio onde ele se encontra. Assim, o meio terá uma influência decisiva na dinâmica do sistema fazendo com que as condições necessárias para a manutenção dos efeitos quânticos desapareçam em uma escala de tempo extremamente curta. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Entretanto, as novas tecnologias de manipulação dos sistemas físicos nas escalas micro ou até mesmo nanoscópicas nos permitem fabricar dispositivos que apresentam efeitos quânticos envolvendo, coletivamente, um enorme número de partículas. Nestes sistemas a descoerência, apesar de ainda existir, tem a sua influência um pouco reduzida, o que nos permite observar os efeitos quânticos durante algum tempo. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Uma aplicação importante para alguns destes dispositivos seria a construção de processadores quânticos, o que tornaria os nossos computadores ainda mais rápidos. Nesta situação a minimização dos efeitos da descoerência é altamente desejável pois, em caso contrário, estes processadores de nada iriam diferir dos processadores clássicos.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Como podemos ver, tudo indica que a mecânica quântica seja a teoria correta para descrever os fenômenos físicos em qualquer escala de energia. O universo macroscópico só seria um caso particular para o qual há uma forma mais eficiente de descrição; a mecânica newtoniana. Esta pode ser obtida como um caso particular da mecânica quântica mas a recíproca não é verdadeira.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Muitos autores, por não se sentirem confortáveis com a chamada interpretação ortodoxa ou de Copenhagen da mecânica quântica, tentam criar teorias alternativas para substituí-la. Entretanto, cabe notar que, apesar da sua estranheza, a mecânica quântica não apresentou qualquer falha desde que foi elaborada na década de 20, o que não nos proporciona evidência experimental que aponte para onde buscar as questões capazes de derrubá-la.
    [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Amir O. Caldeira é professor do Instituto de Física Gleb Wataghin da Unicamp.[/FONT]


    CAPITULO 3 - Ondas Estacionárias Circulares [FONT=Verdana, Arial, Helvetica, sans-serif](Ondas de De Broglie) [/FONT].

    [FONT=Verdana, Arial, Helvetica, sans-serif]Em 1924, Louis de Broglie propôs uma teoria segundo a qual os elétrons possuem uma onda associada, que influenciaria nas características de seu movimento. A tese de De Broglie foi aperfeiçoada por Erwin Schrödinger, que usou-a para chegar, em 1926, ao que é hoje a mais usada formulação matemática da Mecânica Quântica (a equação de Schrödinger). A teoria ondulatória conseguiu explicar como os elétrons dos átomos não podem possuir qualquer energia, e, conseqüentemente, não podem ocupar qualquer órbita ao redor do núcleo, mas apenas algumas pré-determinadas - um caso particular do fenômeno da quantização da energia. A existência de apenas algumas freqüências permitidas em vibrações de estruturas circulares (no caso dos elétrons, as freqüências de suas "ondas de De Broglie" correspondem às suas energias) é um efeito natural que ocorre com qualquer tipo de onda. Isso pode ser compreendido qualitativamente através do experimento abaixo, que mostra como ondas distribuídas em tiras metálicas circulares só ocorrem em certas freqüências determinadas. O experimento pode ser feito com material acessível a qualquer pessoa.[/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]
    [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O experimento [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Luiz Ferraz Netto[FONT=Verdana, Arial, Helvetica, sans-serif]
    [/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]www.feiradeciencias.com.br[/FONT]
    [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Objetivo[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Visualizar ondas estacionárias que se estabelecem sobre um aro metálico flexível; visualizar a formação de sistemas estacionários harmônicos; ilustrar qualitativamente o modelo teórico do elétron-onda e as ondas de De Broglie.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Material[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Base de madeira de (15 x 20 x 1) cm; alto-falante de 5" e 8 ohms; 2 tiras metálicas flexíveis de (450 x 10 x 0,6) mm e (33 x 10 x 0,6) mm; uma tampa plástica; cilindro de madeira de diâmetro 1cm e altura 3 cm; 2 bornes; gerador de áudio-freqüências; parafusos, cola e eventualmente, pequeno amplificador de 5 W.

    Nota: Nenhum desses componentes têm especificações críticas.
    [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Montagem[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Mediante 2 longos parafusos, prende-se o alto-falante sobre a base de madeira, com o cone voltado para cima. No centro desse cone cola-se a tampa plástica e, sobre ela, o pequeno tarugo de madeira.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][IMG][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Com duas pequenas tiras plásticas prendem-se as tiras metálicas que fazem círculos de diâmetros 14 cm e 10 cm, aproximadamente (ver detalhes). O centro dessas tiras plásticas é parafusado sobre o pequeno tarugo de madeira.
    Os terminais do alto-falante são conectados mediante fios comum (cabinho #22) aos bornes fixados na base de madeira. A esses bornes deve-se ligar os terminais de saída do gerador de áudio-freqüências.

    Nota: A intensidade do sinal para excitar o alto-falante não deve ser exagerada mas, se o sinal de saída do gerador de áudio estiver abaixo do 1 V é conveniente intercalar entre o gerador e o aparelho produtor de ondas estacionárias circulares um pequeno amplificador de áudio.
    [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]As figuras a seguir têm o propósito de ilustrar o objeto em questão:[/FONT]
    [IMG]
    [IMG]

    [FONT=Verdana, Arial, Helvetica, sans-serif]Procedimento[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Liga-se o gerador de áudio e ajusta-se a freqüência de modo que se possa observar duas ondas estacionárias transversais completas no aro de maior diâmetro. Ajusta-se a intensidade do sinal do gerador para que a onda não apresente amplitude exagerada. Se o aro interno ficou devidamente ajustado (se isso não acontecer, basta soltar seu parafuso de fixação e ajustar novamente o diâmetro do círculo) começará a ressoar no segundo harmônico. A freqüência do sinal pode ser ajustado para várias 'soluções' da equação da onda que se estabelece estacionariamente. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][IMG][/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif]Temos ai uma bela visualização de ondas estacionários circulares e o fenômeno da ressonância.[/FONT]




    [FONT=Verdana, Arial, Helvetica, sans-serif]CAPITULO 4 - A Interpretação da Mecânica Quantica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Silvio Seno Chibeni[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Introdução: o papel das teorias na ciência[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Há uma acepção popular da palavra 'teoria' na qual teoria se opõe ao que se considera "comprovado", "concreto", "real" ou de utilidade prática. Por outro lado, assume-se com boas razões que o conhecimento científico é o mais rigoroso que possuímos, tendo também inegável relevância prática, na medida em que está na base da moderna tecnologia. O que o homem comum muitas vezes não sabe é que todo o conhecimento científico é codificado por meio de teorias.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] De um modo geral, podemos entender a ciência como possuindo dois grandes objetivos: 1) descrever e predizer de forma sistemática os fenômenos de um dado domínio; e 2) explicar esses fenômenos, possibilitando a sua "compreensão". A consecução de ambos esses objetivos requer a formulação de teorias para o conjunto de fenômenos investigados. Nas ciências formalizadas, como a Física e a Química, a capacidade preditiva decorre em grande parte de um formalismo matemático complexo, que permite calcular a ocorrência de certos fenômenos a partir da ocorrência de outros. O poder de explicação, por outro lado, parece depender da possibilidade de entender os conceitos e leis da teoria como contrapartes teóricas de uma realidade subjacente, formada de objetos com determinadas propriedades, que interagem entre si segundo certos princípios.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Deve-se, pois, para fins de análise filosófica da ciência, distinguir claramente os fenômenos (aquilo que é imediatamente acessível aos nossos sentidos), a teoria (conceitos, leis e formalismo) e a ontologia, ou seja, os objetos reais que, em interação com nosso aparelho sensorial, produzem em nós os fenômenos. Quando se fala na interpretação de uma teoria científica tem-se duas coisas em vista: 1) o estabelecimento de uma correspondência entre os conceitos teóricos e os fenômenos; e 2) a postulação de uma ontologia capaz de, à luz da teoria, ser entendida como a realidade subjacente aos fenômenos. Os entes dessa ontologia em geral cumprem o papel de causas dos fenômenos, contribuindo assim para a nossa compreensão de por que eles ocorrem e se inter-relacionam segundo as leis da teoria. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]A teoria quântica[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Na década de 1920 surgiu na física uma teoria que viria a se tornar o veículo de quase todo o nosso conhecimento da estrutura da matéria: a mecânica quântica (MQ). É ela que nos fornece os recursos teóricos para descrever o comportamento fundamental das moléculas, átomos e partículas sub-atômicas, assim como da luz e outras formas de radiação. Pode-se afirmar com segurança que a MQ é a teoria científica mais abrangente, precisa e útil de todos os tempos.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Não obstante seu extraordinário sucesso preditivo, desde a sua criação a MQ apresentou problemas de interpretação em grau sem precedentes na história da ciência. A discussão completa desses problemas requer conhecimentos especializados, não podendo pois ser empreendida aqui. Procuraremos, no entanto, indicar em termos simplificados as características conceituais da teoria quântica que levaram ao seu surgimento, e apresentar em linhas gerais as principais alternativas de solução já propostas.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] As dificuldades interpretativas dessa teoria dizem respeito tanto à forma pela qual a teoria se relaciona com os fenômenos quanto ao delineamento de uma ontologia que lhe seja apropriada. A compreensão desse ponto requer uma breve menção a duas noções fundamentais das teorias físicas: a de estado e a de grandeza física. De um modo geral, estados são caracterizações básicas dos objetos físicos tratados pela teoria. As grandezas físicas são as propriedades mensuráveis desses objetos. Para efeitos de comparação, podemos lembrar que na mecânica clássica o estado de uma partícula de massa m é representado por conjunto de seis números que especificam sua posição e velocidade. Em função desses números a teoria indica como calcular os valores de grandezas físicas como a energia cinética, o momento angular, etc.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Na mecânica quântica os estados dos objetos são definidos de modo inteiramente diverso, por meio das chamadas funções de onda. É justamente dessa nova (e complexa) forma de representação dos estados que surgem quase todos os problemas de interpretação da teoria. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O problema da atribuição de valores[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Uma grandeza só terá significado físico se pudermos atribuir valores a ela. É isso que permitirá colocar a noção em correspondência com os fenômenos, com a leitura de aparelhos de medida. Neste ponto surge a primeira e mais fundamental dificuldade interpretativa na MQ: Dados um estado quântico e uma grandeza física quaisquer, em geral o formalismo quântico simplesmente não atribui um valor à grandeza! (Dissemos "em geral" porque há exceções.) O problema é agravado pelo fato de que mesmo quando o estado não fornece o valor de uma grandeza física, medidas dessa grandeza sobre o objeto são inteiramente possíveis e dão valores bem definidos. Parece, então, que a teoria está falhando em uma de suas funções essenciais, a predição dos fenômenos, dos resultados de medida. Como interpretar essa situação? Há duas posições possíveis:[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] a) A descrição quântica do objeto é incompleta: não prevê valores de grandezas perfeitamente mensuráveis;[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] b) Os valores dessas grandezas não existem, ou não estão definidos antes que se efetue a medida; a medida então criaria ou tornaria definidos os valores, não sendo propriamente uma medida, no sentido usual do termo: a mera revelação de uma propriedade preexistente do objeto investigado. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Entre os fundadores da MQ, Schrödinger, de Broglie e, sobretudo, Einstein, defenderam a posição (a); Bohr, Heisenberg e praticamente todos os outros sustentaram (b), que se tornou a posição dominante. Vejamos brevemente como essa divergência básica se amplificou e ramificou ao longo das discussões subseqüentes.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] As interpretações da mecânica quântica [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]a) Incompletude. Para mostrar que a descrição quântica das propriedades dos objetos é incompleta, Einstein, Podolsky e Rosen propuseram um interessante argumento em 1935, o chamado "argumento de EPR". Outro importante argumento para o mesmo fim foi proposto no mesmo ano por Schrödinger, argumento hoje conhecido pelo nome pitoresco de "gato de Schrödinger".[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Não obstante a força desses argumentos e os abalos que causaram no campo adversário, a tese da incompletude não prevaleceu, por vários fatores. Primeiro, em 1932 von Neumann apresentou uma prova de que, aceitas certas premissas, qualquer tentativa de completar a descrição quântica seria matematicamente impossível. Depois, os argumentos foram rebatidos informalmente pelos defensores da tese oposta. Por fim, apesar dos problemas conceituais a MQ mostrou um poder preditivo sem precedentes. Embora para cada estado quântico o formalismo sempre deixe de especificar os valores de certas grandezas, atribui, no entanto, probabilidades de que os valores sejam encontrados empiricamente, por meio de medidas. É nessa atribuição de probabilidades que a teoria revelou sua impressionante capacidade preditiva. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Apesar disso tudo, os argumentos de EPR e de Schrödinger tornaram-se o pivô da maior parte das discussões sobre os fundamentos da teoria até nossos dias, levando a desdobramentos extremamente ricos. Dentre eles, mencionamos a criação por David Bohm, em 1952, de uma teoria mais completa que a MQ. (Esse fato pressupôs, naturalmente, um bem sucedido questionamento da relevância da prova de von Neumann.) Teorias desse tipo são hoje ditas teorias de variáveis ocultas (TVOs). [/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]Apesar de irem além da MQ na atribuição de valores às grandezas físicas, coincidem com ela nas predições probabilistas. Diversos pesquisadores mostraram subseqüentemente, por meio de importantes teoremas algébricos, que para reproduzirem as predições quânticas as TVOs devem incorporar um traço conceitual inteiramente não-clássico, o chamado contextualismo, que significa que os valores das grandezas físicas podem refletir não apenas as propriedades do objeto, mas também de todo o seu "contexto". Foi esse traço que mais tarde levou Bohm a desenvolver a idéia de que há um holismo, ou "totalidade" no mundo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Intrigado com o fato de a TVO de Bohm ser não-local, ou seja, permitir que os valores atribuídos às grandezas possam ser alterados instantaneamente por ações remotas, John Bell conseguiu provar, em 1964, que toda TVO que reproduza as predições estatísticas da MQ terá necessariamente de ser não-local. Num admirável esforço de investigação, os físicos experimentais conseguiram mostrar que as predições quânticas relevantes para essa questão são corretas. (O experimento mais importante foi conduzido por Alain Aspect em 1982.) Qualquer tentativa de complementar a MQ terá, portanto, de ser feita com a violação do princípio da localidade - um preço teórico que poucos físicos parecem dispostos a pagar.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] b) Completude. A tese de que a MQ descreve tudo o que há para ser descrito nos objetos físicos de que trata tem sido apresentada em conjunção com diversas outras, dando lugar a várias interpretações distintas da teoria. Apontaremos as principais.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] b1. Interpretação "ortodoxa" . Por ter sido elaborada por Bohr e seus colaboradores, essa posição é também conhecida como "de Copenhague". Não podemos fazer justiça aqui às sutilezas e divergências existentes dentro dessa posição. Uma das versões mais radicais sustenta que, ao contrário de todas as demais teorias físicas, a MQ não tem como objetivo descrever nenhuma realidade transcendente aos fenômenos. Sua função seria apenas descrever e correlacionar os fenômenos com o auxílio de um formalismo cujos conceitos não devem ser entendidos como contrapartes teóricas de uma realidade objetiva. Os filósofos chamam esse tipo de posição de instrumentalismo. A teoria seria mero instrumento de predição ou cálculo. Ao deixar de tratar do plano ontológico, a teoria abdicaria por conseqüência de sua função explicativa. Assim, nessa variante da interpretação "ortodoxa" a MQ não explicaria nada sobre o mundo real extra-fenomênico. Outra versão pende para a posição filosófica do idealismo. Neste caso, a teoria é entendida como se referindo a uma realidade, mas esta deixa de ser entendida como objetiva: ela seria relativa aos agentes de observação. A famosa doutrina da "complementaridade" desenvolvida por Bohr é parte dessa perspectiva.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] b2. Interpretação das "potências". Ao contrário da posição anterior, não há aqui nenhum distanciamento da visão filosófica do realismo científico, segundo a qual a ciência objetiva a descrever uma realidade independente de qualquer observação ou cognição. Aceita-se, no entanto, o desafio de reformular radicalmente as concepções de realidade associadas às teorias clássicas. Em particular, procura-se conceber uma ontologia compatível com a informação contida nas funções de onda quântica. Uma das conseqüências seria a presença no mundo de objetos aos quais não se poderiam atribuir o conjunto inteiro das propriedades clássicas. Um elétron num estado quântico que não permita o cálculo de uma velocidade (por exemplo) na realidade não teria velocidade alguma; ou, alternativamente, deve ser concebido como tendo uma infinidade de velocidades "potenciais". O grande desafio dessa proposta está em determinar fisicamente as condições em que essas "potências" se atualizariam, e em descrever esse processo matematicamente. (A sugestão "ortodoxa" de que é a própria mensuração, qua ato de observação por um agente consciente, que determina essa transição, é rejeitada como subjetivista.) Esse programa comporta presentemente algumas linhas de investigação bastante promissoras.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] b3. Interpretação dos "muitos mundos". Outra proposta que tem merecido a atenção de especialistas, não obstante a estranheza que causa, é a de que todas as propriedades que na posição anterior são dadas como meramente potenciais de fato existem simultaneamente. Como não observamos isso, ou sequer conseguimos conceber tal coisa, sugere-se que cada um desses valores "existe" num mundo diferente. Haveria, pois, uma multiplicidade infinita de universos, que aumenta incessantemente. O caráter definido de nossas observações se deveria ao fato de que nós próprios existimos em versões múltiplas, e em cada uma delas estamos associados a um conjunto definido de valores das grandezas físicas dos objetos com os quais interagimos.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Concluindo... [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Esta breve apresentação indicou que mesmo a nossa mais poderosa e bem sucedida teoria física não está isenta de dificuldades teóricas, conceituais e filosóficas. Se é verdade que tais dificuldades não têm obstado à aplicação prática da teoria, revelam, por outro lado, as limitações do intelecto humano na compreensão mais profunda da realidade que nos cerca. Seu estudo incessante por parte de um pequeno, mas prestigioso, grupo de cientistas tem contribuído de forma expressiva para a descoberta de intrigantes características da realidade, alargando, ao mesmo tempo, nossos horizontes de investigação.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Sugestões de leitura: Dos muitos livros de divulgação sobre os fundamentos da MQ poucos são recomendáveis. Entre os melhores incluiríamos: Squires, E. The Mystery of the Quantum World (Bristol, Adam Hilger, 1986); d'Espagnat, B. A la Recherche du Réel (Paris, Bordas, 1979; versão inglesa: In Search of Reality, New York, Springer-Verlag, 1983); Gribbin, J. In Search of Schrödinger's Cat (London, Corgi Books, 1984), edição em português: "À procura do Gato de Schrödinger" (editora Presença, Lisboa, Portugal); Herbert, N. Quantum Reality (London, Rider, 1985). Para leitores mais avançados indicamos o excelente Le Réel Voilé, de B. d'Espagnat (Paris, Fayard, 1994; também disponível em inglês, The Veiled Reality.) [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Silvio Seno Chibeni é professor do departamento de Filosofia do Instituto de Filosofia e Ciências Humanas da Unicamp[/FONT]
  2. MetalMaxxx Supra-sumo

    Número de Mensagens:
    12,604
    Pontos de Troféu:
    166
    E no setimo dia deus criou o homem...



    ...fim do velho testamento...
  3. Pack Man Supra-sumo

    Número de Mensagens:
    16,617
    Pontos de Troféu:
    196

    CAPITULO 5 - [FONT=Verdana, Arial, Helvetica, sans-serif]A Física no final do século XIX: modelos em crise[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Roberto de Andrade Martins[/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif] Como era a Física do século XIX?[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]As áreas da Física que chamamos "Física Clássica" e que compreendem a mecânica, a óptica, a termodinâmica e o eletromagnetismo já haviam alcançado um grande aperfeiçoamento no século XIX. Quase tudo aquilo que se ensina sobre Física no segundo grau já havia sido descoberto naquela época - e, é claro, em um nível mais elevado do que aquilo que se ensina nos colégios. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O desenvolvimento da mecânica clássica tinha atingido uma grande precisão, permitindo o cálculo tão exato dos movimentos dos planetas, que qualquer pequena diferença entre a teoria e as observações precisava ser considerada seriamente. Foi investigando diferenças minúsculas desse tipo que a astronomia do século XIX descobriu a existência do planeta Netuno: sua existência foi prevista matematicamente por Urbain Le Verrier, e depois ele foi observado (em 1846) por Johann Gottfried Galle.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A mecânica do século XIX conseguia explicar movimentos complexos, como os dos piões e giroscópios; estudou os movimentos de líquidos e gases; e desenvolveu técnicas matemáticas muito sofisticadas com a chamada "mecânica analítica", que utiliza um formalismo diferente do que existia na época de Newton.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Sob o ponto de vista da tecnologia, esses conhecimentos foram aplicados no desenvolvimento de novos meios de transporte - grandes navios, submarinos, balões dirigíveis e até os precursores da asa-delta.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A física ondulatória (abrangendo a óptica e a acústica) também parecia ter atingido uma grande perfeição durante o século XIX. Até o século XVIII, a opinião predominante era a de que a luz era constituída por pequenas partículas muito rápidas que saíam dos corpos luminosos. No entanto, no início do século XIX foram estudados fenômenos de difração e interferência, que só podiam ser explicados supondo-se que a luz fosse constituída por ondas. Graças principalmente aos estudos de Augustin Fresnel e Thomas Young, os físicos foram se convencendo de que era necessário abandonar a teoria corpuscular da luz, e o modelo ondulatório se tornou uma unanimidade. Para o estudo dos fenômenos ondulatórios da luz, foram desenvolvidos métodos matemáticos bastante complicados.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Foi também durante o século XIX que foram estudadas as radiações infravermelha e ultravioleta, duas radiações semelhantes à luz, porém invisíveis. Assim, a óptica se ampliou, passando a abranger não apenas aquilo que vemos, mas também certos tipos de "luz invisível".[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Além dos estudos puramente científicos, o estudo da luz levou a importantes inventos, durante o século XIX. Primeiramente, a invenção da fotografia por Niepce e Daguerre, permitindo a fixação de imagens através de meios químicos. As primeiras fotografias exigiam tempos de exposição enormes (alguns minutos), mas depois, com o gradual aperfeiçoamento técnico, foi possível produzir fotos "instantâneas", e por fim fazer seqüências de fotografias de objetos em movimento. Daí surgiu o cinema, na última década do século XIX.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Antes do final do século já existiam métodos de produzir fotografias coloridas. Um físico francês, Gabriel Lippmann, utilizou o princípio de interferência luminosa em películas finas e conseguiu produzir fotografias em cores que eram, na verdade, precursoras dos atuais hologramas de luz branca.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O estudo do calor e de suas aplicações teve também um enorme desenvolvimento nessa época. Já no século anterior haviam começado a se difundir as máquinas a vapor, mas foi durante o século XIX que esses tipos de máquinas foram aperfeiçoadas e utilizadas em grande escala, produzindo a chamada "revolução industrial". Além de seu uso em indústrias, as máquinas a vapor foram aplicadas ao transporte (navios, trens, e até automóveis a vapor).[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Os cientistas estudaram a conversão do trabalho em calor e do calor em trabalho, propuseram a lei da conservação da energia, determinaram as leis que regem o rendimento de máquinas térmicas e estabeleceram o conceito de entropia e a segunda lei da termodinâmica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A eletricidade e o magnetismo, que antes de 1800 eram apenas fenômenos curiosos sem grande importância, também sofreram um importante avanço durante o século XIX. A invenção da pilha elétrica por Alessandro Volta permitiu pela primeira vez a produção de correntes elétricas duradouras e de grande intensidade, abrindo o caminho para estudos completamente novos - como a descoberta da eletrólise. Nas primeiras décadas do século XIX, Oersted e Faraday descobriram a possibilidade de produzir efeitos magnéticos utilizando a eletricidade, e vice-versa, nascendo assim o eletromagnetismo. Houve um intenso estudo experimental dessa nova área, seguido por desenvolvimentos teóricos que culminaram com a teoria eletromagnética de Maxwell.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Embora inicialmente fosse apenas um assunto para pesquisa científica, o eletromagnetismo logo levou a resultados práticos importantes. Foram construídos dínamos que produziam eletricidade a partir do movimento, e nas duas últimas décadas do século XIX foram construídas grande usinas termoelétricas para geração de eletricidade. Dessa forma, o uso doméstico e industrial da eletricidade começou a se tornar possível. As lâmpadas elétricas substituíram gradualmente os lampiões e a iluminação a gás. Os motores elétricos começaram a ser utilizados para várias finalidades, como por exemplo nos primeiros elevadores. A eletricidade também revolucionou as comunicações, primeiramente através do telégrafo (que já permitia a troca de mensagens de um continente para outro) e depois pelo telefone. Antes de 1900 já era possível fazer ligações interurbanas entre muitas cidades na Europa e nos Estados Unidos. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] As grandes sínteses [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Se compararmos a Física do final do século XIX com a de cem ou duzentos anos antes, poderemos considerar que o avanço científico havia sido espantoso. Os maiores sucessos não foram a descoberta de novos fenômenos, mas sim resultados teóricos que revolucionaram a visão sobre os principais fenômenos físicos. O eletromagnetismo conseguiu inicialmente unir duas áreas de estudo que eram totalmente separadas antes - a eletricidade e o magnetismo. Essa síntese foi apenas um primeiro passo, pois o estudo dos fenômenos eletromagnéticos levou, na segunda metade do século XIX, à previsão de ondas eletromagnéticas com a mesma velocidade da luz. Essas ondas foram depois criadas experimentalmente por Hertz, e confirmou-se que elas tinham propriedades muito semelhantes à das ondas luminosas. Concluiu-se então que a luz era um tipo especial de ondas eletromagnéticas, de alta freqüência, e assim a óptica passou a ser uma parte do eletromagnetismo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O desenvolvimento da termodinâmica também levou a uma outra síntese. Embora os fenômenos térmicos possam ser estudados sob o ponto de vista puramente macroscópico (daquilo que se observa e mede), os físicos começaram a imaginar modelos microscópicos para explicar os fenômenos gasosos e assim nasceu a teoria cinética dos gases. Nessa teoria, a temperatura passa a ser uma indicação da energia cinética média das moléculas do gás e é possível relacionar o calor específico dos gases à sua composição molecular. No final do século XIX foi também desenvolvida a mecânica estatística, que aplicou leis probabilísticas ao estudo dos movimentos das partículas da matéria, permitindo explicar a segunda lei da termodinâmica a partir de um modelo mecânico. Conseguiu-se, assim, uma síntese entre a mecânica e a termologia.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Portanto, ao final do século XIX, os físicos podiam perceber grandes avanços e importantes sucessos. Novos fenômenos haviam sido descobertos, novas leis haviam sido estabelecidas, e havia resultados teóricos novos muito gerais. A eletricidade e o magnetismo haviam se unido, depois o eletromagnetismo e a óptica haviam se fundido, e a mecânica e a termodinâmica também estavam produzindo uma síntese teórica. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O fim da Física?[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Diante dos grandes sucessos científicos que haviam ocorrido, em 1900 alguns físicos pensavam que a Física estava praticamente completa. Lord Kelvin - um dos cientistas que havia ajudado a transformar essa área - recomendou que os jovens não se dedicassem à Física, pois faltavam apenas alguns detalhes pouco interessantes a serem desenvolvidos, como o refinamento de medidas e a solução de problemas secundários. Kelvin mencionou, no entanto, que existiam "duas pequenas nuvens" no horizonte da física: os resultados negativos do experimento de Michelson e Morley (que haviam tentado medir a velocidade da Terra através do éter) e a dificuldade em explicar a distribuição de energia na radiação de um corpo aquecido.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Foram essas duas "pequenas nuvens", no entanto, que desencadearam o surgimento das duas teorias que revolucionaram a Física no século XX: a teoria da relatividade e a teoria quântica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A visão otimista de Lord Kelvin, compartilhada por muitos físicos da época, não levava em conta que existiam, na verdade, muitos problemas na física do final do século XIX. No entanto, a maior parte dos cientistas pensava apenas nos sucessos, e não nessas dificuldades. Não percebiam a existência de grande número de fenômenos inexplicados e de problemas teóricos e conceituais pendentes. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] As descobertas experimentais do final do século[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Nas últimas décadas do século XIX foram estudadas descargas elétricas em gases rarefeitos. Estudando os fenômenos que ocorriam a pressões muito baixas, William Crookes descobriu os raios catódicos. Em 1895, investigando os raios catódicos, Röntgen descobriu os raios X. Foi uma descoberta inesperada, pois nenhuma teoria previa a existência de radiações invisíveis penetrantes como aquelas. Os raios X logo foram empregados na medicina e se mostraram muito úteis, mas não se sabia exatamente o que eles eram. Alguns pensavam que se tratava de uma radiação semelhante ao ultravioleta, outros imaginavam que eram ondas eletromagnéticas longitudinais, outros pensavam que eram partículas de alta velocidade. O que eram os raios X, afinal? Durante mais de 10 anos, eles permaneceram como uma radiação misteriosa.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O estudo dos raios catódicos levou a uma outra descoberta importante. J. J. Thomson mostrou que eles eram constituídos por partículas com carga elétrica negativa (os elétrons), e que eles pareciam sempre iguais, qualquer que fosse o gás utilizado nos tubos de raios catódicos. Mas que relação essas partículas tinham com os átomos da matéria? Até essa época, ninguém havia suspeitado que pudessem existir coisas menores do que os átomos que os químicos estudavam. Os elétrons constituíam um problema no estudo da constituição da matéria.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Também no final do século XIX os estudos de Henri Becquerel e do casal Curie levaram à descoberta da radioatividade e de estranhos elementos que emitiam energia de origem desconhecida. Ninguém sabia o que produzia esses fenômenos, e apenas vários anos depois é que se começou a desvendar a natureza da radioatividade. O que eram as radiações emitidas pelos corpos radioativos? De onde saia sua energia, que parecia inesgotável?[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O estudo da luz e das novas radiações havia levado a muitos sucessos, mas também trouxe grandes problemas. O espectro da luz do Sol, quando analisado com um espectrógrafo, mostra linhas escuras (descobertas por Fraunhofer). Depois se compreendeu que cada elemento químico em estado gasoso é capaz de emitir ou absorver luz com um espectro descontínuo de raias, e que o espectro do Sol é produzido pelos gases que o cercam. A espectroscopia se tornou um importante método de identificação dos elementos, e passou a ser um instrumento fundamental na química. Mas qual era a causa física dessas raias? De acordo com a teoria ondulatória da luz, cada linha do espectro deveria estar relacionada a algum fenômeno de oscilação regular, de uma freqüência exata, capaz de emitir ou absorver aquela radiação. O que existia, nos átomos, que pudesse produzir isso? [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Durante a última década do século descobriu-se que os raios X e a radiação ultravioleta podiam descarregar eletroscópios. Em alguns casos, a luz visível também podia produzir esse "efeito fotoelétrico", mas o fenômeno dependia da freqüência da luz e do tipo de metal utilizado. Não se compreendia como isso ocorria, nem por que motivo alguns tipos de luz não conseguem produzir o efeito fotoelétrico. Compreendeu-se que, no efeito fotoelétrico, a radiação arranca elétrons dos metais. Esse efeito deveria depender da intensidade da luz (energia), e não da cor ou freqüência. Mas não era isso o que acontecia. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Problemas teóricos[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A teoria cinética dos gases havia sido um grande sucesso. No entanto, no final do século XIX, não se compreendia ainda muita coisa sobre a estrutura da matéria. O único estado da matéria para o qual havia uma boa teoria era o gasoso. Era incompreensível como os átomos podiam formar corpos sólidos, pois sabia-se (pelo eletromagnetismo) que era impossível produzir um sistema estável de partículas em repouso que se mantivesse apenas por forças eletromagnéticas. Existiriam outras forças desconhecidas agindo dentro da matéria?[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A própria produção de moléculas era um mistério. Os átomos imaginados pelos químicos eram simples "bolinhas" sem estrutura. Como eles se unem? E por que motivo alguns átomos se unem entre si, mas não se unem com outros? Que tipos de forças são essas, que escolhem os parceiros? A Física não tinha resposta para essas perguntas.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Um dos grandes problemas teóricos no final do século XIX era compreender a interação entre matéria e radiação. Como funcionam os materiais luminescentes? Por que os sólidos emitem um espectro luminoso contínuo, e os gases emitem espectros descontínuos? Se a luz é uma onda eletromagnética, existem cargas elétricas vibrando dentro dos gases, para produzir a luz emitida? Por que essas vibrações possuem apenas certas freqüências, diferentes de um elemento químico para outro?[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Outro problema teórico provinha da mecânica estatística. Nos gases, a energia cinética média das moléculas depende apenas da temperatura. Numa mistura de gases, a energia se distribui por todos os tipos de moléculas, e as moléculas de menor massa (como hidrogênio) têm maior velocidade média do que as de maior massa. A teoria previa, assim, uma "equipartição de energia" por todos os tipos de partículas e de movimentos possíveis. Ela previa bem o calor específico dos gases, supondo que as moléculas eram simples "bolinhas". Mas se os gases são capazes de emitir espectros luminosos descontínuos, essas moléculas devem ser sistemas complexos. Por que, então, a teoria funcionava?[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Além disso, dentro de um recipiente com gás aquecido também existe radiação eletromagnética (térmica), e a energia deveria se distribuir entre as moléculas e as ondas luminosas. A teoria parecia indicar que iriam sendo criadas ondas luminosas, e que elas ficariam com toda a energia. No entanto, isso não acontecia. Por que?[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Uma cavidade quente ("corpo negro") emite radiação com um espectro contínuo. A teoria previa que ela deveria emitir mais radiação de pequenos comprimento de onda (grande freqüência) do que de grande comprimento de onda. Mas não era isso o que se observava. Até Lord Kelvin havia notado que havia algum problema nisso.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Havia, na verdade, um enorme número de nuvens no horizonte da Física, uma verdadeira tempestade que ameaçava derrubar tudo. Era o otimismo, ou talvez o orgulho de saber muito, que impedia a maioria dos físicos de perceber como a situação era grave.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] As tentativas de unificação[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] No final do século XIX, o estudo de alguns desses problemas e as tentativas de continuar a unificar a física levaram a problemas teóricos complicados, desencadeando a criação da teoria da relatividade e da teoria quântica. As dificuldades surgiram basicamente quando se procurou unificar a mecânica com o eletromagnetismo (daí surgiu a teoria da relatividade) e a termodinâmica com o eletromagnetismo (daí se originou a teoria quântica).[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A teoria quântica, que é o tema que nos interessa aqui, surgiu da tentativa de compreender os problemas de interação da radiação com a matéria e solucionar alguns desses problemas. Procurando fundir a teoria eletromagnética da luz com a termodinâmica e a mecânica estatística, logo surgiram dificuldades que pareciam insuperáveis. O primeiro passo no desenvolvimento da teoria quântica foi dado por Max Planck, há cem anos - mais exatamente, em 1900. Nos primeiros anos do século XX, a teoria quântica começou a resolver diversos problemas: a radiação do corpo negro foi explicada por Planck; Einstein utilizou a teoria quântica para explicar o efeito fotoelétrico e o calor específico dos sólidos; e Bohr desenvolveu um modelo atômico quântico que explicou o espectro descontínuo emitido pelos átomos. Mas esses primeiros passos eram apenas um início. Apenas na década de 1920 a teoria quântica se transformou na Mecânica Quântica, com uma compreensão mais profunda da dualidade onda-partícula, graças a De Broglie, Schrödinger, Heisemberg, Bohr e outros. A teoria quântica nos permitiu compreender muitos fenômenos importantes, como a estrutura de átomos e moléculas (que forma a base de toda a química), a estrutura de sólidos e suas propriedades, a emissão e absorção de radiações. Apenas através da teoria quântica podemos compreender alguns dos mais importantes fenômenos da Física. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Roberto de Andrade Martins é professor do Instituto de Física Gleb Wataghin da Unicamp. Veja também o seminário do autor sobre o assunto.[/FONT]



    CAPITULO 6 - [FONT=Verdana, Arial, Helvetica, sans-serif]Max Planck e o início da Teoria Quântica
    [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Jean-Jacques de Groote[/FONT]

    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]
    Tradução para o português dos dois trabalhos onde Planck apresentou sua teoria da radiação do corpo negro (1900):
    [/FONT]




    [FONT=Verdana, Arial, Helvetica, sans-serif]Ao final do século XIX a física parecia ter atingido seu clímax. As leis de Newton para a mecânica e gravitação vinham sendo aperfeiçoadas desde o Século XVII, e descreviam com grande precisão o comportamento dos corpos celestes e terrestres. Por outro lado as propriedades elétricas e magnéticas haviam sido unificadas em uma teoria eletromagnética por James Maxwell. Esta teoria provou que a luz é uma forma de onda eletromagnética que se propaga pelo espaço, assim como o são o raio X ou o ultravioleta. Com as regras para o comportamento da matéria e das ondas definidas, restaria aos físicos apenas o trabalho de aplicá-las. Não haveria fenômenos que não pudessem ser explicados; haveria apenas o trabalho de desenvolver as técnicas existentes para sistemas complexos. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Lorde Kelvin, respeitado por suas importantes contribuições a Física, chegou a sugerir que a Física havia atingido seu limite. No entanto, como ele mesmo observou, havia um porém. Dois fenômenos ainda estavam sem explicação: o experimento de Michelson e Morley, que procuravam determinar a velocidade da luz que incidia na Terra vinda de diferentes direções, e o estudo da distribuição de energia da luz emitida por sistemas conhecidos como corpos negros. E foram justamente as tentativas de explicar estes experimentos que levaram a elaboração das duas novas teorias, que alterariam radicalmente a Física como era conhecida até então: a Teoria da Relatividade e a Teoria Quântica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O primeiro experimento indicou que a velocidade da luz que atinge a Terra é a mesma em qualquer direção, fato que levou Einstein a considerar que a velocidade da luz é a mesma para qualquer referencial o que resultou na elaboração da Teoria da Relatividade Especial. O segundo experimento refere-se a radiação eletromagnética emitida por corpos que reemitem toda a radiação que incide sobre eles. Este experimento permite então o estudo da forma como a radiação e o corpo interagem. O problema foi analisado pelo físico Max Planck, e levou a uma revolução na teoria física ao revelar que o comportamento de pequenos sistemas obedecem regras que não podem ser explicadas pelas leis das teorias clássicas. O mundo atômico e sub-atômico não obedeceriam as regras do nosso mundo do dia-a-dia, sendo necessária novas interpretações as quais nossa intuição não se aplicava mais. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Max Planck, nascido na Alemanha em 1858, foi um excelente aluno, obtendo o grau de doutor com apenas 21 anos. Sua decisão de seguir a carreira de físico teórico pode ser compreendida em sua frase, "O mundo externo é algo independente do homem, algo absoluto, e a procura pelas leis que se aplicam a este absoluto mostram-se como a mais sublime busca científica na vida". O estudo sobre radiação de corpos negros, que levou a origem da teoria quântica, tinha algo de absoluto, pois segundo a definição de Kirchhoff, professor de Planck, a característica de um corpo negro perfeito é sua capacidade de reemitir toda radiação que incide sobre ele; é um emissor e absorvedor perfeito. A radiação emitida é estudada para diferentes temperaturas do sistema. Quando um corpo é aquecido, emite radiação cuja natureza muda com a temperatura. Um metal por exemplo, quando aquecido pode emitir radiação visível, na forma de luz vermelha, ou invisível a nosso olhos, como o infravermelho.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Radiação de Corpo Negro - Corpos Negros são corpos que reemitem toda a radiação eletromagnética que incide sobre eles. Na prática, estuda-se a radiação formada em uma cavidade, que pode ter a forma de um cubo, no interior de um corpo negro. Assim evitava-se a influência externa, e a geometria da cavidade pode ser escolhida para facilitar os cálculos teóricos. A radiação estudada é então emitida por um pequeno furo, produzido no material [/FONT]

    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Radiação eletromagnética - A luz, como verificou Maxwell, é formada por ondas eletromagnéticas, que são campos elétricos e magnéticos paralelos se propagando no espaço. As ondas eletromagnéticas tem velocidade c = lf , onde c é a velocidade da luz, l o comprimento de onda, que é a distância entre os picos, e f é a freqüência (o inverso do período de uma oscilação).[/FONT]

    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Esquematização do espectro eletromagnético para vários comprimentos de onda e freqüência - A velocidade das radiações eletromagnéticas é a mesma, mas a freqüência pode mudar, desde que o comprimento de onda compense esta mudança. Assim, por exemplo, as ondas de rádio tem comprimentos de onda longos, mas pequenas freqüências. O raio x, tem um comprimento de onda tão pequeno que pode afetar os átomos de nossas moléculas. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Vários resultados experimentais estavam disponíveis em torno de 1890 mostrando, a diferentes temperaturas, como a energia radiante é emitida para diferentes freqüências. As tentativas de explicar o comportamento da radiação não foram bem sucedidas. Os trabalhos teóricos realizados utilizando os conhecimentos da mecânica clássica e da termodinâmica não podiam explicar os resultados obtidos (ver figura abaixo).[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Comparação entre os dados experimentais e as prevsões clássicas e de Planck - A partir das observações experimentais, Wien obteve uma fórmula que se aproximava da curva da densidade de radiação em função do comprimento de onda l, mas era acurada apenas para pequenos comprimento de onda. Rayleigh e Jeans partiram das fórmulas da mecânica clássica para um oscilador e obtiveram uma fórmula que funcionava para grandes valores de l. A fórmula de Planck, utilizando o novo conceito de quantizacao da energia dos osciladores descreveu exatamente os resultados experimentais e, nos casos limites, as fórmulas de Wien e Rayleigh-Jeans. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Planck verificou que uma nova forma de encarar o modo como as partículas da caixa geravam a radiação eletromagnética seria necessária para explicar o comportamento da radiação emitida por corpos negros. Classicamente espera-se que as partículas da caixa oscilem com qualquer energia (permitida para uma dada temperatura), e assim emitissem radiação a qualquer comprimento de onda ou freqüência. No entanto, para que Planck obtivesse sua fórmula, as partículas oscilando só poderiam emitir a radiação por pacotes, e a energia destes seria proporcional à freqüência na forma E = h f. A constante h ficou conhecida como constante de Planck. Assim, a energia emitida seria discretizada, ou, quantizada. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A hipótese da discretizacao das energias de partículas vibrando, por parte de Planck, não encontrava nenhum análogo na época. Era tão radical que, mesmo reproduzindo exatamente uma observação experimental, não foi aceita até que viesse a ser adotada por Einstein em 1905. Também é uma primeira indicação de que as regras que valem para nosso mundo macroscópico não valem para o nível atômico. É inclusive um exemplo de como a natureza mostra surpresas que fogem a nossa previsão conforme a investigamos em maiores detalhes.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Levaria ainda cerca de 20 anos para que uma teoria quântica consistente fosse elaborada, e que sua incrível capacidade de explicar e prever fenômenos físicos a levasse a ser aceita pela comunidade científica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Jean-Jacques de Groote é pesquisador da Fapesp no Instituto de Química da Universidade Estadual Paulista (Unesp) em Araraquara, SP


    CAPITULO 7 -
    [/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]A Teoria Quântica depois de Planck[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Jean-Jacques de Groote[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A quântica é uma teoria fundamental para os avanços tecnológicos de nosso mundo atual e do vasto conhecimento científico que estamos adquirindo. Grandes avanços práticos e teóricos em áreas como astronomia, medicina, biologia, química e física são frutos de sua aplicação. Seus conceitos causaram um revolução na forma como entendemos o universo, mostrando que o comportamento da matéria a nível atômico não obedece a regras bem estabelecidas de nosso mundo macroscópico.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Apesar de entrar em conflito inclusive com nosso conceito de realidade, a teoria quântica se mostrou correta e permitiu em aplicações práticas a revolução tecnológica que nos trouxe computadores, celulares, laseres, ressonância magnética, genética molecular, entre outros. Em termos de teoria temos uma maior compreensão do universo, desde o big-bang até o comportamento das moléculas, átomos e seus constituintes. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Os primeiros passos para seu desenvolvimento foram dados no início do século XX. Até então a física era baseada nas teorias clássicas de Newton para as partículas e a de Maxwell, que unificou as teorias elétrica magnética gerando o eletromagnetismo. Essas teorias descrevem com precisão os fenômenos que vemos em nosso mundo macroscópico, como o movimento dos corpos celestes e a natureza eletromagnética da luz. No entanto, o avanço das técnicas experimentais no fim do século XIX permitiu que os cientistas passassem a estudar a natureza com maior detalhe, abrindo caminho para uma análise do comportamento dos sistemas muito pequenos, como átomos e moléculas. O resultado da tentativa de explicar os resultados experimentais foi uma nova teoria que revolucionou nossa forma de compreender a natureza do universo. Foi necessário abandonar conceitos básicos como a noção de trajetória de uma partícula quando verificou-se que não seria possível determinar simultaneamente a posição e a velocidade, de um elétron por exemplo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Um dos experimentos que levou a uma maior compreensão de como a matéria é formada foi a determinação da estrutura dos átomos na forma de núcleos de carga positiva cercados por elétrons. Os elétrons haviam sido descobertos em 1897 por Joseph John Thomson mas, já que não havia razão para supor que as cargas positivas estariam aglutinadas em um núcleo, Thomson propôs um modelo atômico onde os elétron estaria imersos em cargas positivas (como passas em um pudim). Por algum tempo este modelo prevaleceu, até que em 1911, estudando como partículas eram espalhadas por folhas de metal Rutherford concluiu que o átomo seria formado por um núcleo de carga positiva cercado por elétrons. [/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Experimento de Rutherford - Partículas radioativas incidem sobre uma folha de ouro. A maioria destas partículas passa através da folha pois são muito mais pesadas que os elétrons (pontos pretos). Rutherford verificou que as cargas positivas são localizadas em pequenos núcleos (esferas vermelhas). Desta forma explicaria porque as partículas incidentes são as vezes desviadas de sua trajetória. Antes deste experimento acreditava-se que as cargas positivas não eram localizadas em núcleos.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Assim, o modelo Atômico de Rutherford se assemelhava a uma versão microscópica do modelo planetário, mas ao invés da força gravitacional, a força elétrica é a principal responsável pela atração elétron-núcleo. Este é o modelo atômico mais comumente encontrado na literatura moderna, embora verificou-se ser incompleto.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Modelo Planetário do Átomo - O elétron orbitaria o núcleo de forma semelhante a um planeta em torno do sol, mas numa escala muito menor devido a força principal de atração do núcleo ser elétrica, que é muito mais forte que a gravitacional.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]No entanto, havia um problema. Verifica-se que quando cargas são aceleradas, acabam perdendo energia por emissão de radiação eletromagnética. Como um elétron em órbita de um núcleo está sempre sob aceleração, deve emitir energia também, diminuindo assim o raio de sua órbita. Fazendo os cálculos desta perda de energia os cientistas verificaram que os elétrons colapsariam no núcleo em um intervalo de tempo extremamente pequeno. Se isso acontecesse, o universo teria deixado de existir logo após sua criação. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Para complicar ainda mais o modelo planetário outro fenômeno incomum aparece quando estuda-se a luz emitida ou absorvida pelo átomo. Os resultados sugeriam que o elétron não poderia estar em qualquer órbita em torno do núcleo. Foi o que propôs o físico dinamarquês Niels Bohr em 1913. Mais do que isso, foi necessário assumir que existiria uma órbita de raio mínimo, ou seja, uma órbita fundamental da qual o elétron só pode mudar para uma órbita mais alta, evitando assim que colapse no núcleo. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Como para cada órbita existe uma energia associada, Bohr verificou que as energias da luz emitida nas mudanças de órbitas seriam discretas (não contínuas). Ou seja, as energias da luz emitida seriam "quantizadas". Este modelo está inspirado na proposta feita em 1900 por Max Planck, que sugeriu que partículas oscilando em um sistema chamado corpo negro emitiriam quantidades discretas de energia, fato sem explicação pelas teorias clássicas. [/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Modelo Atômico de Bohr - No caso do átomo mais simples, o do hidrogênio, com apenas um elétron ligado ao núcleo, o modelo de Bohr previa que o raio da próxima órbita após a órbita fundamental teria um raio quatro vezes maior. A terceira órbita com raio nove vezes maior, e assim em diante. Para este átomo o elétron só pode mudar de uma órbita para outra. Assim, se um partícula atingisse o elétron a órbita não seria alterada, a menos que a partícula transferisse ao elétron energia suficiente para passar à próxima órbita ou outra órbita permitida. Se a teoria clássica fosse válida, qualquer órbita seria permitida.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Apesar de não explicar o motivo deste modelo ser desta forma, e de falhar quando átomos com mais elétrons são considerados, Bohr incentivou outros pesquisadores para estudá-lo, prevendo que a quantização seria o caminho para explicar o comportamento da matéria.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Um passo importante para a explicação dos sucessos da teoria de Bohr, e que abriria as portas para a uma teoria consistente, foi dado pelo físico francês Louis De Broglie. Em sua tese de doutoramento, em 1924, De Broglie fez uma proposição de simetria baseada em uma teoria de Einstein de 1905 de que a luz pode, em algumas condições, se comportar como partícula. Não poderiam as partículas apresentar um comportamento de ondas? Aplicando esta suposição ao modelo de Bohr ele supôs que o elétron teria uma onda associada ao longo de sua órbita em torno do próton. Mas apenas algumas órbitas seriam possíveis para que a onda não interferisse destrutivamente consigo mesma. Essas órbitas especiais eram exatamente as propostas por Bohr! Este resultado abriu caminho para uma nova interpretação do elétron e da matéria em geral. As partículas teriam um novo comportamento chamado de partícula-onda. Se o elétron colidir com um detetor, um ponto bem definido será registrado, como espera-se de uma partícula. Mas o elétron mostra claramente, em alguns experimentos, que tem um comportamento ondular associado a ele.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Inicialmente o trabalho de De Broglie teve pouca atenção pela comunidade científica até ser lido por Einstein, que ficou entusiamado com a proposta. O físico Austríaco Erwin Schrödinger examinou esta teoria e descartou o trabalho, mas, após um novo exame, acabou percebendo sua importância. Mais do que isso, dedicou-se a desenvolvê-lo e o resultado foi uma das mais importantes contribuições a nossa compreensão do que é a matéria. Indo além de De Broglie, em 1926 Schrödinger definiu uma equação que descrevia o comportamento ondular completo de uma partícula, em três dimensões. O resultado não apenas reproduziu os resultados de Bohr para as energia do átomo hidrogênio, como explica com grande precisão as propriedades dos átomos em geral, e, consequentemente, abriu as portas para uma descrição matemática de sólidos, líquidos, semicondutores, e assim em diante. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Na formulação de Schrödinger não é possível determinar a trajetória de uma partícula, o que levou a interpretações que vão totalmente além de nossa concepção macroscópica. Este resultado já havia sido apresentado no trabalho de outro fundador da Teoria Quântica, Werner Heisenberg. Usando uma formulação diferente, mas equivalente a de Schrödinger, determinou o chamado princípio da incerteza. Segundo este, quando maior a precisão na determinação experimental da posição de um elétron, menor a precisão na determinação de sua velocidade, e vice-versa. Como ambos são necessário para definir uma trajetória, este conceito teria que ser descartado. Muitos físicos passaram a assumir que o elétron não estaria necessariamente em lugar nenhum, até que fosse detectado em um experimento. As informações que podem ser obtidas passam a ser em qual região do espaço é mais provável encontrar o elétron. Esta probabilidade estaria relacionada com o modulo da função de onda associada ao elétron para uma dada energia. O resultado se mostrou correto, mas levou também a um conflito, pois passou-se de uma formulação determinista para uma estatística. Não se determina mais onde o elétron está, mas qual a probabilidade de que esteja em uma região do espaço.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Modelo atômico de Schrödinger - A partir das equações de Schrödinger não é possível determinar a trajetória do elétron em torno do núcleo, mas, a uma dada energia do sistema, obtém-se a região mais provável de encontrá-lo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O modelo de Bohr, que era limitado ao átomo de hidrogênio, foi adaptado para procurar salvar o conceito de uma órbita definida, mas sem sucesso. Einsten foi um dos que se opôs à interpretação estatística, e a base de suas críticas são geralmente representadas pela frase "Deus não joga dados". Apesar de ter sido fundamental para a teoria quântica, dedicou-se a uma longa discussão teórica contra os físicos quânticos, especialmente sob a orientação de Bohr e seu grupo da chamada "Escola de Copenhague". As contraposições de Einstein, que buscava erros na teoria quântica, foram explicadas por Bohr e seu grupo, e ajudaram a firmar a mecânica quântica como uma formulação correta. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Ao longo dos anos a teoria Quântica foi sendo aperfeiçoada e novos fenômenos previstos ou explicados. Da união desta teoria com a teoria da relatividade de Einstein, Paul Dirac pôde predizer em 1931 a existência das anti-partículas, o que veio a ser confirmado experimentalmente. Toda uma nova família de partículas e de campos para suas interações vieram a ser descobertos. Ainda existem grandes desafios teóricos na explicação de fenômenos cada vez mais detalhados da matéria e suas interações, como o comportamento dos buracos negros, o big-bang, o interior dos prótons, neutrons, e das partículas que vem sendo descobertas. Mas para fenômenos atômicos a formulação de Schrödinger continua sendo a base dos trabalhos teóricos, da mesma forma que a teoria de Newton ainda é aplicada para o estudo das trajetórias de planetas e cometas, entre outros fenômenos macroscópicos. O futuro da quântica promete grandes avanços teóricos e experimentais, como por exemplo supercondutores eficientes a temperatura ambiente, teletransporte (de partículas simples), laseres de matéria utilizando um novo estado da matéria chamado de condensado de Bose-Einstein, computadores quânticos que podem processar enormes quantidades de informação, holografia do corpo humano, entre outros.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Jean-Jacques de Groote é pesquisador da Fapesp no Instituto de Química da Universidade Estadual Paulista (Unesp) em Araraquara, SP.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]CAPITULO 8 - [/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]A descoberta da estrutura atômica[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Afonso Rodrigues Aquino

    [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Quando Max Karl Ernst Ludwig Planck anunciou na Sociedade Berlinense de Física, no dia 14 de dezembro de 1900, que a energia radiante não é emitida nem absorvida continuamente, mas na forma de diminutas porções discretas chamadas quantas ou fótons e de grandeza proporcional à freqüência da radiação, foi deflagrada a revolução quântica que dura até hoje. É neste contexto que o modelo atômico atualmente aceito foi concebido.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]A energia de um quantum é dada por E= hn (onde n é a freqüência da radiação e h a constante de Planck)[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]No final do século XIX, após os trabalhos de Wilhelm Konrad Röntgen, os cientistas tinham noção de que a radiação heterogênea emitida por uma fonte de raios-X origina um espectro contínuo ao qual se sobrepõe um outro, característico do material onde ele foi gerado. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Os raios - X podem ser formados pelo choque de raios catódicos contra objetos sólidos. O tubo inventado por William David Coolidge, era uma lâmpada termoiônica, em que os elétrons são emitidos por um filamento de tungstênio aquecido até a incandescência pela passagem de uma corrente elétrica. Os elétrons são acelerados com uma diferença de potencial que pode chegar a milhares de Volts, para serem lançados sobre um anteparo denominado anticátodo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Foi Albert Einstein, em 1905, quem primeiro fez uso da hipótese de Planck no artigo sobre efeito fotoelétrico que lhe deu o Prêmio Nobel de Física em 1921.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O efeito fotoelétrico é obtido quando uma luz de freqüência suficientemente alta atinge uma amostra metálica, arrancando elétrons superficiais, fazendo com que o metal adquira carga positiva.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O elétron partícula [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Até o fim do século XIX não havia idéia definida sobre a estrutura atômica. A produção de elétrons, nos tubos de raios catódicos, mostrou serem aquelas partículas constituintes essenciais da matéria. Joseph John Thomson entendia que os elétrons se encontravam na massa global do átomo e que estavam acomodados dentro de uma esfera uniforme de eletricidade positiva, resultando em um conjunto eletricamente neutro. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O seu aluno Ernest Rutherford, em 1910, foi o primeiro a propor um modelo atômico coerente, partindo de observações sobre a deflexão de partículas a em alvos de ouro. A pequena quantidade de partículas a refletidas em grandes ângulos, fez Rutherford concluir que a carga positiva e a maior parte da massa de um átomo fica concentrada em um volume muito pequeno que ele chamou de núcleo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O átomo seria constituído de um núcleo central positivo circundado por elétrons, tantos quantos necessários para neutralizar sua carga. Os elétrons girariam com velocidade suficiente para que a força centrífuga compensasse a atração eletrostática exercida pelo núcleo de cargas positivas. Esse modelo era inconsistente porque, segundo a teoria de James Clerk Maxwell, qualquer alteração de velocidade ou direção de movimento de uma partícula eletricamente carregada é acompanhada da emissão de energia radiante.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Em 1860 James Clerk Maxwell desenvolveu a teoria que todas as formas de radiação são propagadas no espaço vibrando um campo elétrico e outro magnético, perpendiculares entre si. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Com a irradiação contínua de energia os elétrons teriam suas órbitas diminuídas progressivamente, tendo que girar mais rápido para compensar a atração eletrostática do núcleo continuamente aumentada com a diminuição da distância entre as cargas.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Usando as equações de Maxwell, pode ser demonstrado que o átomo modelo de Rutherford duraria apenas 10^-11 segundos. O mundo terminaria em um festival de cores com a emissão de uma série contínua de comprimentos de onda. O modelo capaz de interpretar muitas das propriedades da matéria estava em desacordo com a eletrodinâmica. Foi Niels Bohr, em 1913, que resolveu o impasse. Aplicou a teoria de Planck e acrescentou três postulados ao modelo atômico de Rutherford. O primeiro estabelece que um elétron, enquanto permanece em movimento em uma órbita fechada, não absorve nem emite radiação. Bohr admitiu que para cada elétron existe mais de uma órbita estável correspondente a um nível energético diferente. O segundo postulado estabelece que somente são permissíveis as órbitas eletrônicas para as quais o momento angular do elétron é um múltiplo inteiro de h/2p, em que h é a constante de Planck.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O momento angular de uma partícula movendo-se em órbita circular é dado por mvr, em que m é a massa, v a velocidade e r o raio do círculo. O segundo postulado requer que as órbitas estacionárias satisfaçam a condição mvr = nh / 2p [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O último postulado estabelece que o elétron pode saltar de uma órbita para outra, desde que a passagem seja acompanhada da emissão ou absorção de um quantum de energia radiante, cuja freqüência é determinada pela relação [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]hn = Ei - Ef[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]onde Ei - Ef representam os valores da energia do átomo no estado inicial e final, respectivamente[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]A possibilidade de ocupar diferentes órbitas ou camadas acarretou o primeiro dos quatro números quânticos necessários para descrever um elétron em um átomo. Com este trabalho foi possível explicar as raias do espectro do átomo de hidrogênio. O número quântico principal, n, pode apresentar valores inteiros de 1 até infinito.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Uma das vantagens do modelo atômico de Bohr foi a possibilidade de explicar porque somente certas freqüências de luz eram irradiadas por átomos e, em alguns casos, predizer estes valores. A emissão de luz, ou espectro do átomo, era obtida com uma descarga elétrica através da amostra gasosa investigada. O gás excitado emitia radiação sob a forma de luz visível, ultravioleta e infravermelha. A luz atravessava uma fenda ou prisma, que a separava em suas diferentes freqüências. Estes dispositivos chamados espectrógrafos eram conhecidos desde 1859 e foram usados para investigar as raias do hidrogênio. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Para definir a localização de um objeto no espaço são precisos três números, assim surgiram mais outros dois números quânticos.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O número quântico de momento angular l, também chamado de azimutal, é decorrente do trabalho de Arnold Sommerfeld, em 1916, que considerou as órbitas circulares como um caso particular de órbitas elípticas, em que o semi-eixo maior e menor são iguais. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O movimento do elétron em órbitas elípticas obedece às leis de Kepler. A construção de um círculo requer apenas um parâmetro, o movimento circular tem apenas um grau de liberdade, o ângulo q que faz o raio vetor com o eixo dos x. O movimento elíptico apresenta dois graus de liberdade, nele variam o ângulo q e o raio vetor r, sendo resultante de um movimento radial, devido às variações de r, e outro azimutal, que corresponde às variações de q.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O elétron de uma dada camada é agrupado em subcamadas, caracterizada por diferentes valores do número quântico l e por uma forma característica. Cada valor de l corresponde a uma diferente forma de orbital, ou tipo de orbital. Os valores de l são codificados por letras de acordo com o seguinte esquema:[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Valor de l[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]subcamada correspondente[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]0[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]s[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]1[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]p[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]2[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]d[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]3[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]f[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Os primeiros estudos dos espectros de outros elementos além do hidrogênio apresentavam mais linhas do que a teoria de Bohr podia explicar. Cientistas analisando o espectro de átomos de sódio encontraram quatro diferentes tipos de linha que chamaram de sharp, principal, diffuse e fundamental. A letra inicial de cada uma delas foi usada para designar as subcamadas.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O número quântico magnético ml especifica em qual orbital (região relacionada à órbita), dentro da subcamada o elétron se encontra. Os orbitais em uma dada subcamada diferem unicamente na sua orientação espacial e não na sua forma.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Existe um quarto número quântico, chamado magnético de spin, representado por ms, que diz respeito à rotação do elétron. Um elétron em um átomo possui as propriedades magnéticas decorrentes da rotação de uma partícula carregada. Experimentos mostraram que colocado um átomo com um elétron desemparelhado em um campo eletromagnético, somente duas orientações são possíveis para a sua rotação. A rotação do elétron é quantizada e uma orientação é associada com o valor + ½ e outra com o valor - ½ .[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Cada elétron fica definido pela combinação dos seus quatro números quânticos, que é diferente para todos os outros elétrons no átomo. Esta é a regra geral criada em 1925 por Wolfgang Pauli, que ficou conhecida como Princípio da Exclusão de Pauli, cuja importante conseqüência é que nenhum orbital atômico pode abrigar mais de dois elétrons.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O elétron onda [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Foi o francês Louis-Victor de Broglie em 1925 que adaptando as equações de Maxwell e usando o mesmo raciocínio de Einstein no seu trabalho sobre efeito fotoelétrico, propôs que qualquer partícula em movimento fosse tratada como uma onda eletromagnética. A tese de De Broglie possibilitou somar as propriedades de partículas com possíveis propriedades de onda. No início de 1926, atendendo a um pedido de Peter Debye durante um seminário no seu laboratório na Suiça, Erwin Schrödinger demonstrou que a expressão de De Broglie podia ser generalizada para abranger partículas ligadas, tais como os elétrons nos átomos. A relação que a dualidade partícula-onda tem com os elétrons nos átomos, coube a Werner Heisenberg e Max Born responder em 1927. Assumindo que os elétrons tinham propriedades de onda, Heisenberg concluiu ser impossível fixar ao mesmo tempo a sua posição e a sua energia. Baseado na idéia de Heisenberg, que hoje chamamos de Princípio da Incerteza, Born propôs que os resultados fossem interpretados como: se escolhermos conhecer com pouca incerteza a energia de um elétron em um átomo, então, temos que aceitar a correspondente grande incerteza sobre a sua posição no espaço em relação ao núcleo do átomo. A contribuição da estatística pode ser melhor compreendida no conceito formulado para orbital como sendo: a região do espaço onde pode ser encontrado o elétron.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]A mecânica clássica dispunha das leis formuladas por Charles Augustin de Coulumb, em que a atração eletrostática variava em função do valor das cargas e do quadrado das distâncias, com elas era possível explicar as ligações iônicas. A introdução dos conceitos de orbitais e emparelhamento de elétrons pela mecânica quântica, possibilitou a explicação das ligações covalentes.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Muitos átomos apresentavam massas maiores do que poderia explicar um modelo contendo apenas elétrons e prótons, indicando a existência de um terceiro tipo de partícula sem carga, e com massa aproximadamente igual a do próton. Em 1932, James Chadwick anunciou a descoberta do nêutron, partícula eletricamente neutra. O modelo próton-elétron cedeu lugar ao modelo próton-nêutron-elétron que é usado até hoje. Neste modelo o átomo é considerado como possuindo um certo número de prótons, igual ao número atômico (Z), elétrons suficientes para neutralizar sua carga, e tantos nêutrons (A-Z) quantos necessários para completar o número de massa (A).[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Afonso Rodrigues Aquino[/FONT] [FONT=Verdana, Arial, Helvetica, sans-serif]é pesquisador do Instituto de Pesquisas Energéticas e Nucleares.[/FONT]
    (continua)
  4. Pack Man Supra-sumo

    Número de Mensagens:
    16,617
    Pontos de Troféu:
    196
    [FONT=Verdana, Arial, Helvetica, sans-serif]CAPITULO 9 - [/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]Caos e a Mecânica Quântica[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Alfredo Miguel Ozório de Almeida
    Raúl Oscar Vallejos
    [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A descoberta de que a maioria dos movimentos na mecânica clássica é extraordinariamente sensível ao estado inicial do sistema teve origem nos trabalhos de Poincaré sobre a mecânica celeste, há mais de um século. Com o uso do computador, foi possível verificar a generalidade deste "movimento caótico", para os mais variados sistemas, tais como modelos para o clima da Terra.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Entretanto, a dinâmica de sistemas microscópicos, como grandes moléculas, só é aproximada pela mecânica clássica . Sua descrição correta exige a mecânica quântica. Qual é o comportamento quântico de um sistema que seria caótico se tratado classicamente?[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Figura 1 - Trajetória de uma bola em uma mesa de bilhar retangular sem caçapas.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Para se entender alguns dos problemas mais profundos da Física, às vezes o melhor caminho passa por analogias divertidas. Assim um dos sistemas mecânicos mais simples a apresentar caos é o do jogo de bilhar. O movimento de só uma bola em uma mesa retangular (sem caçapas) não é caótico. Como mostra a figura 1, o movimento geral da bola neste caso terá sempre a mesma direção depois de quatro colisões com a borda da mesa. Uma pequena alteração na posição inicial da bola levará a um desvio de sua trajetória que cresce lentamente. Duas trajetórias inicialmente paralelas permanecerão sempre paralelas.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Figura 2 - Fixando uma segunda bola à mesa obtemos o bilhar de Sinai. A segunda bola desfocaliza as trajetórias da primeira gerando um movimento irregular ou caótico.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]A presença de uma segunda bola alterará fundamentalmente o movimento da primeira. Mesmo que simplifiquemos o jogo prendendo uma bola no meio da mesa (como sugeriu o matemático russo Y. Sinai), seu efeito será de desfocalizar as trajetórias da outra bola, como mostra a figura 2. Podemos considerar que o papel da segunda bola é meramente o de alterar a forma do bilhar (que passou a ter uma borda interior). Este é um exemplo particular de bilhares caóticos. [/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif]Em geral, um bilhar qualquer, mesmo com uma forma pouco irregular, será caótico (veja figura 3). A desfocalização das trajetórias é a característica principal do caos na mecânica clássica.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Figura 3 - Se adicionarmos duas partes semicirculares ao bilhar retangular obtemos o chamado bilhar de Bunimovich, um bilhar caótico muito popular na comunidade do caos quântico. Aqui o caos é devido ao efeito desfocalizador dos arcos circulares.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Quando falamos em focalizar, pensamos em raios de luz, antes de imaginar trajetórias. Em geral, estamos, na prática, interessados na trajetória única de uma dada partícula, enquanto que a luz que vemos é descrita como o efeito coletivo de muitos raios. A razão é que lidamos de fato com uma onda, da qual a ótica geométrica é apenas uma descrição aproximada. Hamilton mostrou no século passado que podemos usar a mesma estrutura matemática para descrever, tanto os raios da ótica geométrica, quanto as trajetórias da mecânica clássica. Essa analogia permitiu que de Broglie e Schrödinger criassem a mecânica quântica, ondulatória.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O problema quântico correspondente ao jogo do bilhar clássico é o de saber quais ondas cabem nas formas das figuras 1, 2 ou 3. O melhor é pensar nas vibrações de um tambor, cujo contorno tenha a mesma forma da mesa de bilhar. O som que ouviremos em cada caso será decomposto em movimentos ondulatórios da membrana do tambor, cada qual vibrando com uma freqüência diferente. Será que podemos "ouvir a forma de um tambor''? Esta é uma das questões iniciais no estudo do caos quântico, formulada pelo matemático norte-americano Kac. Em outras palavras, sabemos que a cada forma corresponde uma única seqüência (ou espectro) de freqüências de vibração, uma vez dada a tensão da membrana do tambor. Será que o conhecimento dessas freqüências determina unicamente a forma do tambor?[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Figura 4 - Um dos modos de vibração de um tambor retangular. A figura representa o relevo da membrana do tambor fotografado em um dado instante. Observe que o padrão é completamente regular.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Um dos resultados mais importantes da teoria do caos quântico se refere às propriedades do espectro de freqüência de um sistema classicamente caótico, como os bilhares das figuras 2 e 3. A conjectura de Bohigas é que neste caso é muito menos provável haver duas freqüências de vibração quase iguais, do que no caso de um sistema regular, tal como na figura 1. A explicação deste fato em termos das trajetórias clássicas foi fruto do trabalho, nos anos 80, de Berry e Hannay, na Inglaterra, e Ozorio de Almeida, atualmente no CBPF.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Figura 5 - Um modo de vibração de um tambor com a forma do bilhar de Bunimovich. O relevo da membrana não apresenta regularidade alguma, exceto as simetrias (figura cedida por D. Wisniacki, CNEA, Buenos Aires).[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Além de explicar propriedades mais definidas do espectro de freqüência dos sistemas quânticos, os trabalhos em caos quântico procuram entender a estrutura de cada estado, ou seja, a estrutura do relevo da membrana do tambor fotografado em um dado instante quando este vibra com uma única freqüência. De novo, a forma da borda determina este relevo e a distinção principal está no movimento do bilhar correspondente ser, ou não, caótico. Nas figuras 4 e 5, vemos exemplos de vibrações, respectivamente regular e caótica.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Figura 6 - Microfotografia de um ponto quântico, transistor de dimensões menores que um micron. As partes claras são os eletrodos que definem as bordas deste bilhar diminuto. A curva indica a trajetória hipotética de um elétron atravesando o transistor. (A fotografia foi tirada no Laboratório "Marcus" de Física Mesoscópica da Universidade de Harvard.) [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Fora os jogadores de bilhar e os bateristas de escola de samba, quem mais poderia ter interesse no caos quântico? Entre muitas aplicações da teoria, destaca-se a tecnologia de nano-estruturas em semicondutores. Os "pontos quânticos" minúsculos que a nano-engenharia produz para aprisionar um pequeno número de elétrons, são o ponto de partida para futuras gerações de dispositivos eletrônicos. Suas formas podem ser alteradas exatamente como os tambores e bilhares que usamos como exemplo. Os transistores atuais, de enormes dimensões em comparação com os pontos quânticos, podem ser considerados como sistemas clássicos. Em contraposição, as propriedades dos futuros dispositivos terão de ser entendidos dentro da teoria do caos quântico.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]
    Alfredo Miguel Ozorio de Almeida e Raúl Oscar Vallejos pertencem ao Grupo de Caos Quântico do Centro Brasileiro de Pesquisas Físicas (CBPF)
    [/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif]CAPITULO 10 - [/FONT][FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]Passado, Presente e Futuro da Física Quântica: Digressões sobre a Importância da Ciência Básica[/SIZE][/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]Peter A.B. Schulz e Marcelo Knobel[/SIZE][/FONT]

    [IMG] [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-2]#7-10 Jam Session - Acrílico sobre tela de Faye Cummings, 1994[/SIZE][/FONT] [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]Nós gostamos de Jazz. Muita gente gosta de Jazz. Mesmo os que não gostam admitem que a vida seria mais pobre se não existisse esse gênero musical. Admitem isso talvez porque extinção de um tipo de música (do qual não gostam) abriria um precedente que poderia levar ao desaparecimento de outros gêneros, tais como o Blues, ou o Rock, por exemplo. Ou seja, a evolução do Jazz interessa direta ou indiretamente a todos. Entre os seus ingredientes principais, de importância central na vitalidade do Jazz, estão as chamadas "Jam sessions", as "sessões de Jazz após a meia-noite". São nessas sessões que os músicos tocam o que realmente querem, depois que o grande público já foi pra casa ou para outros bares. É nesse momento que se experimentam, improvisam-se e inventam-se novas maneiras de tocar, que depois serão eventualmente apreciadas por todos. Por outro lado, aos que perguntam o que é afinal de contas o Jazz, os puristas dessa arte, muitas vezes, alardeiam um folclórico preconceito de pronunciar a frase "se você tem que perguntar o que é, você nunca vai sabê-lo". Independentemente desse mau humor, o público e a indústria cultural agradecem aos jazzistas, dos mais populares aos inveterados praticantes do Jam.[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]Essa história pode ser perfeitamente transposta à ciência, suas vertentes e relações com o público e a sociedade. É sobre isso que escreveremos a seguir, baseando-nos na Física Quântica, cuja origem remonta aos primeiros anos do século passado. Numa analogia entre o Jazz e a Ciência, colocaríamos a "Jam session" como equivalente ao que se convencionou chamar de "Ciência Básica" (ou Pura, em oposição à "Ciência Aplicada"). [/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]De uma maneira bem geral, pode-se dizer que a ciência aplicada busca soluções em curto prazo, com objetivos delimitados, com uma aplicação direta em algum dado problema específico (demanda externa à comunidade científica). Por outro lado, a ciência pura busca resolver problemas de caráter mais geral, sem um objetivo muito delimitado, e muitas vezes sem nenhuma aplicação prática aparente (demanda interna à comunidade científica). Vamos começar por um exemplo: no início da Física Quântica, Einstein desenvolveu o conceito fundamental de emissão estimulada, relacionado com propriedades intrínsecas da matéria. Dificilmente encontraríamos um estudo de ciência básica mais característico. Décadas depois, baseado nesse conceito, foi desenvolvido o primeiro protótipo de um amplificador de luz por emissão estimulada de radiação: ou simplesmente LASER (Light Amplification by Stimulated Emission of Radiation - amplificação de luz pela emissão estimulada de radiação-, ver artigo nesta edição de Elza Vasconcelos). Hoje em dia existem desenvolvimentos específicos de LASERS aplicados às mais diversas áreas, da medicina à metalurgia, passando por telecomunicações e eletrônica de consumo. Hoje em dia, um técnico trabalhando no aperfeiçoamento de um LASER de alta potência para cortes de chapas de aço constitui um caso claro de ciência aplicada.[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]Do mesmo modo, era simplesmente inimaginável no início do século XX para onde a idéia revolucionária de quantização de energia, proposta inicialmente por Max Planck, poderia levar. Hoje, passado mais de um século do nascimento da Física Quântica, podemos olhar para o passado e ver que quase a totalidade dos objetos "modernos" de nosso dia a dia deve a sua existência à Física Quântica. Ninguém que viveu no primeiro quarto do século XX poderia sequer desconfiar que estudos aparentemente tão longínquos da realidade, como espectros de corpo-negro, efeito fotoelétrico, espectros de emissão e absorção atômicos, e outros objetos de estudo daquele período, formariam a base de uma teoria, que seria responsável direta pelo futuro desenvolvimento não só do LASER, mas também de equipamentos eletrônicos, computadores e uma enorme quantidade de outras maravilhas que fazem parte de nosso cotidiano. [/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]A relação entre as Ciências Básica e Aplicada não é, no entanto, uma via de mão única. A Ciência Aplicada também pode dar origem a novos problemas de caráter fundamental. Vejamos a origem da própria Física Quântica. Muitas das observações experimentais feitas no século XIX, ligadas a problemas tecnológicos como o controle da temperatura de fornos metalúrgicos (ver artigo nesta edição de Roberto Martins) simplesmente não puderam ser entendidas dentro do âmbito da Física Clássica. Os espectros de emissão térmica de Corpos Negros (bom modelo para um forno) só puderam ser descritos com a introdução do conceito de quantização de energia. Assim, a motivação de Planck para seus trabalhos sobre a radiação de corpo negro é também um bom exemplo de como a Ciência Aplicada pode levar a descobertas na Ciência Pura ou Básica. Isso nos leva a suspeitar que a divisão entre ciência básica e aplicada tende a ser inexata e artificial.[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]Antes de discutirmos um pouco mais detalhadamente o papel da Ciência Básica, vale a pena comentar um pouco sobre o atual estágio em que se encontra a Física Quântica, pelo menos de algumas de suas ramificações, passados mais de cem anos de seu advento. Muitos acreditam que se trata de uma Ciência com os fundamentos bem estabelecidos, mas muitos estudos de Mecânica Quântica básica continuam sendo realizados e não se limitam à busca de aplicações. Não existem evidências experimentais bem documentadas das quais a Mecânica Quântica não daria conta, embora um número relativamente pequeno de cientistas se preocupe (e devem se preocupar!) em definir onde se encontrariam os limites dessa visão do mundo. Por que então testar e voltar a testar essa teoria em novas situações encontradas na natureza (descrição mecânico-quântica das propriedades de moléculas de proteínas, por exemplo) ou criadas em laboratório (as chamadas caixas quânticas ou átomos artificiais, como outro exemplo)? Uma resposta interessante está no conceito de complexidade introduzido por P. W. Anderson nos anos 70. Aos poucos os especialistas foram se dando conta - e lentamente esboçando um novo objetivo científico - de que o conhecimento das leis fundamentais da natureza não garante o entendimento do funcionamento do universo. Descrever exaustivamente as pequenas peças que compõe o mundo não implica que possamos entender como elas funcionam em conjunto. Quanto maior o número de peças em um sistema, mais complexo ele se torna e novos efeitos, absolutamente imprevisíveis a partir das leis fundamentais, podem surgir. Mais um exemplo: descrever as propriedades dos metais a partir do comportamento de elétrons individuais foi um dos grandes sucessos da Física Quântica. Mas, para entender o fenômeno da supercondutividade é necessário estudar o comportamento de um conjunto grande de elétrons interagindo entre si em situações muito específicas.[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]O futebol pode fornecer uma ilustração útil dessa idéia de complexidade. Trata-se de um esporte envolvendo um número razoavelmente pequeno de participantes atrás de um objetivo aparentemente simples (ganhar o jogo através de esforços coletivos para colocar o maior número possível de vezes a bola no gol do adversário). O número de regras básicas que devem ser seguidas pode ser dominado por qualquer criança. O número de fundamentos (chute, drible, passes...) também é restrito. O resultado desse conjunto de regras e condições tão simples é um espetáculo complexo em contínua evolução, com valores que para todos (mesmo para aqueles que só de vez em quando assistem aos jogos da Seleção Brasileira) transcendem à mera torcida pelo resultado. São fenômenos coletivos, que se renovam e são reinventados desde o surgimento desse esporte e que simplesmente são imprevisíveis a partir de suas regras, objetivos e fundamentos.[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]No futuro esses estudos terão alguma aplicação prática? No caso das proteínas o conhecimento da seqüência química não é suficiente para descrever (e possivelmente modificar) suas funções biológicas, que muitas vezes estão associadas à morfologia (sua forma), que necessita da Química Quântica para ser desvendada. O outro exemplo mencionado, átomos artificiais, caixas sub-microscópicas feitas de semicondutores, contendo um pequeno número controlável de elétrons, poderão vir a ser os componentes que realizariam o conceito de Computação Quântica nas próximas décadas.[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]A busca do melhor entendimento de sistemas complexos é um dos maiores desafios da ciência atual, entretanto, tentar adivinhar o futuro desses estudos não passa de um exercício especulativo. Então, até que ponto vale a pena investir em Ciência Básica? Muitos experimentos são caríssimos, e provavelmente vários não levarão a lugar algum do ponto de vista de aplicações. Em outras palavras, a razão custo-benefício é compensadora? Como essa questão é freqüente, e sempre presente nas conversas e na mídia, vale a pena tentar levantar alguns pontos referentes ao papel da ciência em nossa sociedade, e em particular em um país em desenvolvimento como o Brasil.[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]Existem muitas pessoas, incluindo políticos, jornalistas e até cientistas, que acreditam que em um país como o nosso não se deva incentivar a Ciência Pura. Voltando ao exemplo da Física Quântica, segundo Leon Lederman, Prêmio Nobel e Diretor Emérito do Fermilab, mais de 25% do produto interno bruto norte-americano depende de tecnologias que surgiram diretamente conectadas a fenômenos essencialmente quânticos (Leon Lederman, The God Particle, Houghton Mifflin 1993). Porém, tal desempenho de uma Ciência Básica nem sempre ocorre, mas não devemos nos ater apenas ao "sucesso econômico direto" da ciência, mas lembrar dos reflexos indiretos que ela provoca, além da complexa questão sobre a divisão entre o que é básico e o que é aplicado.[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]De acordo com John Ziman, em seu famoso livro "A Força do Conhecimento", no capítulo sobre Ciência e a Necessidade Social, a função social da pesquisa básica é encarada sob três pontos de vista distintos: o primeiro, e mais comum, refere-se ao exemplo principal de que já tratamos neste artigo. É o que afirma que a pesquisa básica constitui o suporte da pesquisa aplicada, mesmo que em longo prazo. Além da história da Física Quântica, há inúmeros casos na história da Ciência onde princípios científicos fundamentais adquiriram enorme aplicabilidade tecnológica com o passar dos anos. Além disso, muitas vezes justificam-se os enormes gastos em projetos mirabolantes, como levar o homem à lua, ou a construção de uma estação espacial, referindo-se à enorme quantidade de sub-produtos comercializáveis que esses projetos produzem. A NASA e os fãs de Fórmula-1 não se cansam de usar esse argumento.[/SIZE][/FONT]
    [IMG] [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-2]Where Do We Come From? What Are We? Where Are We Going? - Óleo sobre tela de Paul Gauguin, 1897[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]O segundo ponto de vista também já foi comentado anteriormente, ao sugerir a analogia da Ciência Básica com as jam sessions, ou seja, por si só a Ciência Pura constitui um evento estético e espiritual para a humanidade, digno de ser praticado e aclamado, como ocorre com qualquer manifestação artística. De fato, por mais que tentemos, talvez não consigamos vislumbrar uma futura aplicação para estudos de Astrofísica. Mas, ainda de acordo com Ziman, se essas pesquisas podem nos levar a um pequeno avanço no entendimento do Universo, quem somos, de onde viemos, e para onde vamos, será que isso não vale mais do que os benefícios materiais? Afinal, de um modo ou de outro, com maior ou menor intensidade, essas questões sempre intrigaram a humanidade e são inerentes ao ser humano. Nesse contexto, o financiamento da Ciência Básica pode ser encarado com o mesmo espírito do financiamento de uma orquestra sinfônica. É caro? Sim, muitas vezes parece muito caro, mas a complexidade da questão impede obter uma resposta única e precisa.[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]Finalmente, uma visão política-pragmática entende que é importante a educação técnica (no sentido amplo) de estudantes de ensino superior. E quem ensina esses estudantes deve estar trabalhando em problemas desafiadores em contato com outros pesquisadores, estar motivado com o seu trabalho, e com a mente aberta para receber e processar novas informações, para assim melhorar a qualidade de ensino. Nesse sentido, a Universidade concentra pessoas dispostas a aprender e ensinar, altamente qualificadas, o que gera um círculo de realimentação positiva em torno dessa questão. A educação desvinculada da própria geração de conhecimento básico é problemática e leva inevitavelmente a uma queda irreparável na qualidade do ensino.[/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]Uma sociedade desenvolvida não pode prescindir da Ciência Básica, aliás nenhuma sociedade moderna tornou-se desenvolvida sem o auxílio da Ciência Básica. Um país de Terceiro Mundo não tem outro paradigma ao qual recorrer em um projeto de desenvolvimento a longo prazo. A dificuldade em fazer projeções sobre seus custos e benefícios não constitui uma limitação da Ciência Pura e sim das ciências econômicas. A discussão sobre a necessidade de financiar pesquisas de caráter fundamental não pode, portanto, estar unicamente atrelada ao avanço das ciências econômicas no cálculo de valores de difícil inserção em planilhas e balanços contábeis. Trata-se de operações de risco, cujos significados são balizados pela história e interpretados pela sociedade de acordo com o seu acesso aos resultados dessas pesquisas. Se no Brasil temos Jam Sessions, corridas de Fórmula 1, orquestras sinfônicas, devemos ter também Ciência Básica bem divulgada. [/SIZE][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]Peter A.B. Schulz e Marcelo Knobel são professores do Institutos de Física Gleb Wataghin da UnicamP[/SIZE][/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif][SIZE=-1]CApitulo 11 - [/SIZE][/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]Dos Transistores aos Computadores[/FONT]


    [FONT=Verdana, Arial, Helvetica, sans-serif]Anna Paula Sotero
    [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Depois da revolução industrial, o homem vive a revolução do conhecimento e da informação. A integração dos computadores, da microeletrônica e das telecomunicações no cotidiano marca uma nova era - a da informação. Como ponto de partida dessa nova era, temos a invenção do transistor. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Na década de 40 os sistemas telefônicos, equipamentos de telecomunicações e computadores empregavam um grande número de dispositivos amplificadores e comutadores (como exemplos, o relê e a válvula) que eram, no entanto, lentos, pouco confiáveis, dissipavam grande quantidade de calor, além de terem uma vida útil bastante limitada. Em 1945, a versão mais veloz de um computador era um ENIAC que continha mais de 17.000 válvulas conversoras de corrente alternada em corrente contínua e amplificadoras de sinal elétrico. Para computadores mais potentes seriam necessárias mais válvulas e, conseqüentemente, um maior gasto de energia e a disponibilização de um espaço físico gigantesco para alocar tais máquinas.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Cinqüenta anos depois da descoberta do elétron por Joseph John Thompson, uma equipe do Bell Labs, composta por John Bardeen, Walter Brattain e chefiada por Willian Shockley criou, em 1945, a primeira versão do que veio a ser o transistor. Esse dispositivo revolucionou profundamente a eletrônica. Capaz de amplificar uma corrente elétrica ou ainda ligá-la e desligá-la, como um interruptor, o transistor torna possível a fabricação de equipamentos cada vez menores e com menor consumo de energia. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Esse primeiro transistor, conhecido como transistor de contato de ponta, utilizava contatos de ouro pressionados contra uma superfície de germânio, no qual observava-se uma corrente elétrica em função da tensão aplicada, configurando, assim, o efeito de amplificação. O dispositivo foi usado, pela primeira vez, num receptor de rádio. O transistor valeu aos seus inventores o prêmio Nobel de Física de 1956. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Graças à Física Quântica descobriu-se que certos materiais, os semicondutores, permitiam um controle da corrente elétrica pela aplicação de uma tensão elétrica. Esses materiais mostraram-se extremamente úteis para a eletrônica. Uma combinação de diferentes tipos de semicondutores compondo um transistor pode ser empregada, por exemplo, como uma válvula de triodo, substituindo-a em amplificadores de circuitos de rádio e como comutadores de alta velocidade na memória dos computadores. Ao contrário da válvula que usa energia para aquecer o seu catodo, o transistor não consome energia e pode ser fabricado em dimensões microscópicas de modo que milhões deles podem ser incorporados em um chip (material semicondutor) de poucos milímetros. Atualmente existem chips de memória com 50 milhões de transistores em um centímetro quadrado. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]A indústria da computação foi a que mais se valeu da invenção do transistor. Substituindo as antigas válvulas e exercendo a mesma função por um custo menor, o transistor dá início à segunda geração de computadores (1959 a 1964). Em 1964, iniciou-se a terceira geração com o System/360 ou IBM 360, quando o transistor foi substituído pelos circuitos integrados - conjunto de transistores, resistores e capacitores - construídos sobre um chip feito a base de silício. Os computadores de quarta geração aparecem no final da década de 60, quando foram projetados os microprocessadores. Com eles foi possível reunir em um mesmo circuito integrado as funções do processador central. O microprocessador Pentium II, da Intel, que detém 80% da venda de chips de microcomputadores no mundo, chega a possuir 7,5 milhões deles. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Mas parece que estamos longe do limite para o crescimento exponencial dessa miniaturização. Em 1997, a revista Scientific American publicou uma nota sobre um grupo de pesquisa americano que conseguiu fabricar um transistor tão pequeno que deixa passar um elétron de cada vez. Com o auxílio da Física Quântica estamos contando partículas. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Anna Paula Sotero é PhD em Engenharia Elétrica pela Unicamp.[/FONT]
  5. Pack Man Supra-sumo

    Número de Mensagens:
    16,617
    Pontos de Troféu:
    196
    [FONT=Verdana, Arial, Helvetica, sans-serif]CAPITULO 13 - [/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]Quântica e a ciência dos materiais (pra quem vive perguntando sobre minha pesquisa)[/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif]Alexandre Barros[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Até o fim do século XIX e início do século XX, cristalógrafos e mineralogistas haviam acumulado uma série de informações a respeito dos cristais pelos ângulos formados pelas faces, composição química e propriedades mecânicas, mas pouco havia sido levantado sobre o interior da estrutura atômica. Com o surgimento da mecânica quântica, no início do século XX, explicando os fenômenos que ocorrem em escala atômica, abriu-se para esses pesquisadores a perspectiva de interpretar a estrutura dos materiais que até então era somente fruto de especulações. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Os átomos do século XIX eram considerados esferas perfeitas, agrupadas lado a lado unidas pelas ligações químicas que se assemelhavam a molas. Assim, em 1848, o cristalógrafo francês Bravais determinou matematicamente que esferas poderiam ser arranjadas no espaço através de no máximo 14 arranjos, estes arranjos ficaram conhecidos como os 14 sólidos de Bravais. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Entretanto, a experiência de Rutherford, mostrou que o átomo é um "imenso" vazio, com a massa concentrada no núcleo, isso poderia ter causado um certo alvoroço, mas sempre sobram as forças interatômicas, que acabam por deixar os átomos nos seus devidos lugares. Assim, para o cristalografo os átomos poderiam continuar sendo esferas perfeitas. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Mas como provar que esses arranjos formavam as estruturas cristalinas dos materiais ? Para que possamos observar algo, o meio que usaremos para captar dados tem que ser menor que o objeto estudado, se o meio for maior que o objeto esse não terá sensibilidade par captar seus detalhes, como se usando as mãos e com os olhos fechados, quiséssemos descrever o formato de um grão de areia . Assim, para observarmos átomos não poderíamos usar a luz visível, já que os diâmetros atômicos são da ordem de angstrons (10-10 m), com isso, estruturas cristalinas como a cúbica do NaCl (sal de cozinha), tem 5,64 angstrons de face, já a luz visível, apresenta uma faixa de comprimento de onda de 4000 (violeta) até 7000 (vermelho) angstrons. Ou seja, o menor comprimento de onda da luz visivel é cerca de 800 vezes maior que uma aresta da estrutura cúbica do sal de cozinha. Assim, o uso de luz visível para uma observação direta da estrutura cristalina está completamente descartada.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Estrutura cúbica do sal de cozinha, onde as esferas verdes são os atomos de cloro (Cl-) e as esferas cinzas os átomos de sódio (Na+).[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Ocorre que em 1895 Roentger descobriu acidentalmente os raios-X, que assim como as luz visível é uma radiação eletromagnética, mas com comprimento de onda na faixa de 0,5 até 2,5 angstrons. Ora, então poderíamos observar os átomos usando os raios-X ? Infelizmente não, isso porque os raios-X possuem alta energia, assim, quando eles atingem um átomo eles acabam interagindo com ele não retornando na forma de imagens, além disso, os átomos não são esferas rígidas, são uma estrutura complexa formada por elétrons, prótons e neutrons. Mas conhecia-se o fenômeno da difração, onde, quando um feixe de luz monocromático (apenas um comprimento de onda) passava por duas fendas formava franjas brilhantes intercaladas por escuras num anteparo. Se conhecêssemos os espaçamento das franjas brilhantes e o comprimento de onda poderíamos dizer a distância entre as duas fendas. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Foi então que em 1912 o físico alemão von Laue, sugeriu que se os átomos apresentam uma estrutura cristalina, átomos organizados de forma a apresentem periodicidade ao longo do espaço, e que se os raios-X eram ondas eletromagnéticas com comprimento de onda menor que os espaços interatômicos, então os núcleos atômicos que concentram a massa dos átomos poderiam difratar os raios-X, formando franjas de difração. Quando Laue fez passar um feixe de raios-X por uma amostra monocristalina, e pôs um filme fotográfico após a amostra, o resultado foi que após revelar o filme este apresentava pontos sensibilizados pelos raios-X difratados. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]As experiências de Laue despertaram grande interesse nos físicos ingleses, W. H. Bragg e seu filho W. L. Bragg, que formularam, ainda em 1912, uma equação extremamente simples para prever os ângulos onde seriam encontrados os picos de intensidade máxima de difração. Assim, conhecendo-se as distâncias interatômicas, poderiam ser resolvidas os problemas envolvidos na determinação da estrutura cristalina. Dessa forma, os Bragg determinaram sua primeira estrutura, a do NaCl. Transformando a difração de raios-X na primeira ferramenta eficiente para determinar a estrutura atômica dos materiais, fazendo com que a técnica obtivesse rapidamente grande popularidade entre os institutos de pesquisa. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Entre as décadas de 1920 e 1930, a literatura foi inundada por estruturas cristalinas determinadas por difração de raios-X. Todo mineralogista ou cristalografo da época tinha por obrigação determinar a estrutura cristalina de algum composto, mineral ou metal. A difração de raios-X também provocou surpresa ao demonstrar a estrutura amorfa do vidro, onde este na realidade é um líquido super-resfriado com viscosidade tendendo ao infinito, e também foi a principal ferramenta usada por Watson e Crick, em 1953, para propor a es[FONT=Verdana, Arial, Helvetica, sans-serif]trutura[/FONT] em dupla hélice do DNA.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][IMG][/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Padrão de difração de raios-X do DNA.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Mas e a mecânica quântica ? Para falar a verdade, os princípios da mecânica quântica pouco se aplicam às primeiras fases da difração de raios-X. Mas a explicação de como são gerados os raios-X é fruto da mecânica quântica. Além disso, para que a técnica seja eficiente é necessário gerar um raio-X monocromado e, nesse caso, entram os princípios da geração da radiação característica, que é fruto da explicação de Bohr para a lei de Rydberg. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Em 1925, Louis de Broglie, havia explicado as órbitas dos elétrons como se esses se comportassem como uma onda, criando o conceito de que a matéria poderia apresentar a dualidade onda/partícula. Consequentemente, em 1927, Davisson e Germer, simultaneamente com Thompson e Reid, provaram a natureza ondulatória do elétron ao realizar a clássica experiência de difração e, em 1936, Mitchell e Powers provaram o mesmo para o nêutron. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]A partir dessa comprovação surgiu a idéia de usar os elétrons para gerar imagens, pois estes possuem cargas elétricas, portanto, poderiam ter sua trajetória alterada por lentes magnéticas. Dessa forma, em 1932, Knoll e Ruska criaram o primeiro microscópio eletrônico, que era do tipo transmissão. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Nesse tipo de microscópio o feixe de elétrons deve atravessar uma amostra muito fina, ou pelo menos que seja "transparente" a elétrons. As interações do feixe com os átomos da amostra gera uma imagem numa placa pintada com uma tinta fluorescente. Esse tipo de microscópio causou um grande entusiasmo para os cientistas de materiais da época, pois pôde-se criar uma figura de difração de uma fase observada no material e, consequentemente, determinar a estrutura cristalina de cada fase constituinte do material. O problema é que como o feixe atravessa a amostra, as imagens geradas são somente em duas dimensões, referindo-se exclusivamente ao interior do material, não sendo possível observar a superfície das amostras. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Para superar esse problema, o próprio Knoll, em 1935, gerou a primeira imagem por varredura de elétrons. Por esse método, o feixe não fica fixo, mas varre a seção da amostra que se quer observar através de uma sequência de linhas. Os elétrons que são espalhados pela superfície, são captados por sensores que geram a imagem como numa transmissão de televisão, ou seja, ao contrário do microscópio de transmissão, no de varredura a imagem tem que ser processada e não gerada diretamente. O primeiro trabalho propondo esse método foi publicado em 1938 pelo alemão von Ardenne, mas as pesquisas de Ardenne acabaram sendo tragicamente interrompidas, quando seu primeiro protótipo foi destruído por um bombardeio em 1944. Assim, o primeiro microscópio eletrônico de varredura acabou surgindo somente em 1947, na Universidade de Cambridge, construído por Charles Oatley[/FONT][FONT=Verdana, Arial, Helvetica, sans-serif].[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O primeiro microscópio eletrônico de varredura na Universidade de Cambridge, e a primeira imagem (amostra de alumínio atacada).[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]A grande importância que esses microscópios apresentam na caracterização dos materiais é indiscutível, não somente por poder observar estruturas que estavam inacessíveis pelo microscópio ótico, mas pela grande vantagem de que, como os elétrons são uma radiação ionizante, o choque dos elétrons de alta energia contra os átomos da amostra resulta na geração de uma série de sinais. Entre esses sinais temos os raios-X, que saem em comprimentos de onda característicos de cada espécie atômica. Dessa forma os microscópios eletrônicos podem gerar análises químicas de cada fase simultaneamente à geração das imagens. Nos microscópios de transmissão pode-se ainda realizar a difração de elétrons de cada fase, determinando a estrutura cristalina.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Outra grande vantagem sobre os microscópios óticos é que o microscópio eletrônico de varredura, apresenta a propriedade de ter uma grande distância focal, ou seja, pode-se por em foco imagens de uma superfície muito irregular. A perspectiva que essa propriedade abriu para a interpretação de fraturas foi imensa. A partir desse momento, poderíamos observar o aspecto de peças fraturadas e assim determinar tanto o motivo da quebra do material, como o comportamento dessa trica durante a propagação.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Mas, e para um engenheiro que esteja estudando a deformação de um metal? Onde entraria a Física Quântica? Na verdade, para a deformação de um material dúctil, como alguns metais, os átomos podem perfeitamente ser esferas rígidas, onde o efeito da deformação ocorre pelo escorregamento de uma esfera sobre a outra. Mas para que uma esfera possa escorregar ela precisa se desligar daquela a qual tinha sua ligação original. Assim, o cálculo de energia de ligação química que a mecânica quântica gerou, assim como a explicação detalhada de como se comportavam as ligações metálicas e covalentes, foi de grande importância para prever o comportamento mecânico de metais e cerâmicas.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Mas, em 1928, Orowan, na época um jovem estudante de metalurgia, ao iniciar as experiências para seu trabalho de formatura, submetendo uma amostra monocristalina de zinco metálico a um ensaio de tração, observou que a energia necessária para fraturar o material era muito menor do que a prevista pelas energias de ligação. Nessa época acreditava-se que um cristal apresentava uma estrutura perfeita, com átomos organizados lado a lado sem nenhuma falha. Portanto, se conhecêssemos as energias de ligação, a estrutura cristalina e quantos átomos temos no corpo de prova poderíamos dizer qual seria a força necessária para fraturar a amostra.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Com isso, surgiram uma série de hipóteses de defeitos na estrutura cristalina dos materiais. Em 1934, Orowan, simultaneamente a Taylor, propôs que a estrutura cristalina não era perfeita, que ao longo dos planos atômicos empilhados poderiam haver falhas. Essas falhas foram chamadas de discordâncias ou deslocações. Na época a idéia não foi muito aceita, pois a difração de raios-X não era sensível o suficiente para detectar essas falhas e não existiam instrumentos de observação direta dos planos cristalinos. Mas, a teoria da discordância se adaptava muito bem aos resultados obtidos na prática para a deformação dos materiais. Finalmente em 1956, Bollmmann, Hirsch, Horne e Whelan, observaram, pela primeira vez, uma discordância por um microscópio eletrônico de transmissão. Mas qual a importância desse fato ? O resultado, é que esses defeitos cristalinos regem a deformação dos metais, o empilhamento de defeitos implica no surgimento de uma região onde os átomos perdem suas ligações e que, consequentemente, resulta no surgimento e crescimento de trincas, ao mesmo tempo que o empilhamento dos defeitos provoca o endurecimento dos metais. O conhecimento de como esses defeitos se comportam, durante a deformação, permite determinar o processamento dos metais.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Como exemplo temos o processo de estamparia. A porta do seu automóvel era originalmente uma plana chapa de aço Essa chapa é colocada entre dois moldes que apresentam o formato final da porta. Quando uma prensa impõe uma deformação, pelo fechamento dos dois moldes, temos o produto.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O mais recente produto para a observação da estrutura da matéria são os microscópio de varredura por tunelamento, desenvolvido em 1981 por Binnig e Roher dos laboratórios da IBM de Zurique. Esse instrumento torna quase mentiroso o conceito de que átomos não podem ser observados.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O funcionamento desse microscópio, grosso modo, é semelhante ao dos antigos toca-discos de vinil. No microscópio de tunelamento, uma agulha funciona como sonda varrendo a superfície de uma amostra condutora. Entre a sonda e a amostra é aplicada uma voltagem. Os elétrons da amostra deveriam permanecer nos átomos, mas pela mecânica quântica os elétrons podem "tunelar" da amostra para a sonda gerando uma diminuta corrente elétrica. Quando a sonda percorre paralelamente a superfície da amostra, as variações de corrente elétrica determinam as colinas e vales da superfície. A agulha assim consegue "enxergar" a topografia dos átomos. Para que esse equipamento possa ter uma resolução atômica, a agulha tem que ser tão fina que a espessura da ponta deve ser de um único átomo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O microscópio de tunelamento consegue gerar imagens somente em amostras condutoras elétricas. Para amostras isolantes, foi desenvolvido em 1986, o microscópio de força atômica. A técnica é semelhante ao microscópio de tunelamento, mas nesse caso não há a geração da corrente de tunelamento. Mas são usadas as forças de repulsão entre os átomos, as mesmas forças que impedem que sua mão atravesse uma parede. Assim, num microscópio de força atômica, a agulha, ao aproximar a eletrosfera do seu último átomo das eletrosferas dos átomos da amostra, sofre a ação de forças de repulsão. A agulha está apoiada sobre uma alavanca onde há um espelho que reflete um feixe de laser, as variações do feixe refletido determinam os movimentos da agulha e consequentemente o relevo da amostra.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Levantar o perfil topológico de amostras, com a possibilidade de atingir resolução atômica, abre a possibilidade de perceber desde a rugosidade e determinar o acabamento superficial, até determinar os primeiros estágios de oxidação de metais. Lógico que se temos um instrumento que possibilita a visualização de átomos, também temos a possibilidade de criar métodos para manipulá-los. Uma brincadeira que passou a existir com o microscópio de tunelamento, foi a de criação de letras com átomos, como criar o nome IBM com 35 átomos de xenônio.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Mas as implicações tecnológicas estão sem dúvida na indústria eletrônica, onde os microprocessadores são compostos por transistores impressos em placas de silício metálico. Com a possibilidade de analisar a topografia da impressão desse transistor, pode-se criar métodos para imprimir componentes eletrônicos confiáveis cada vez menores. Não é sem motivo que o microscópio de tunelamento surgiu na IBM.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Enfim, no século XX observamos o surgimento de novos tipos de aços, os polímeros passaram a ser materiais confiáveis e comercialmente viáveis, ligas de alumínio invadiram o mercado e as cerâmicas deixaram de ser meramente um material de decoração. Saímos de um século XIX, onde os materiais se resumiam a aços frágeis usados em construção mecânica, madeiras e pedras para a construção civil. Entramos no século XXI com aços resistentes sem serem frágeis, plásticos que não se deterioram rapidamente se tornando tintas resistentes e o concreto, cujo principal componente é o cimento portland comum, o segundo produto mais consumido pela raça humana perdendo somente para a água.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Podemos atualmente levantar a composição química de metais enquanto eles ainda estão fundidos, determinar a temperatura dos processos e assim obter um controle eficiente do produto final, caracterizar a estrutura cristalina dos materiais e assim prever se este será dúctil ou frágil. E todo esse desenvolvimento veio graças aos instrumentos que a mecânica quântica trouxe à ciência dos materiais. Em 150 anos, observamos que o cimento portland comum aumentou a resistência à compressão em 20 vezes, e coincidentemente, o aparecimento de instrumentos que identificam a estrutura da matéria, também resultaram em saltos nas propriedades mecânicas.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Evolução da resistência à compressão do cimento portland comum (amostra com 28 dias de hidratação) ao longo dos anos. Reparar que a escala de propriedades mecânicas não é linear.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]As aplicações da mecânica quântica são óbvias na indústria eletrônica, com a criação de componentes como os transistores e os microprocessadores. Mas o desenvolvimento da indústria metal/mecânica, o surgimento de novos materiais, assim como a construção civil, se valeram dos instrumentos que a mecânica quântica forneceu para a análise e caracterização dos materiais. Hoje observamos que os métodos criados pela mecânica quântica se transformaram em instrumentos comuns no ambiente industrial, tanto como controladores de processos como no controle de qualidade, e que o fim da evolução dos métodos atuais, e surgimento de novos ainda está longe de ser atingido. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Alexandre M. Barros é doutor em Engenharia de Materiais pela EPUSP.[/FONT]

    CAPITULO 13 - O LASER.



    [FONT=Verdana, Arial, Helvetica, sans-serif]Elza Vasconcellos[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Em 1960 uma nova palavra, LASER, um acrônimo para Amplificação da Luz pela Emissão Estimulada da Radiação, foi acrescentada ao vocabulário. Esta invenção foi baseada numa variedade de idéias e fatos que se originaram em diferentes ramos da física e da engenharia, mas principalmente em fenômenos da física atômica e molecular que não podem ser explicados pela física clássica. Foi a aplicação da mecânica quântica de Einstein à eletrônica, que possibitou o florescimento do que denominamos eletrônica quântica, área que se desenvolveu após a Segunda Guerra Mundial e que deu origem ao descobrimento de muitos dispositivos, a começar pelo transistor nos anos 40, culminando com a descoberta do laser nos anos 60.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] No final da década de 40, começo da década de 50, Charles Townes, então professor da Universidade de Columbia, em Nova Iorque, estava fazendo estudos espectroscópicos de moléculas utilizando radiação de microondas. Ele pretendia produzir microondas mais curtas do que aquelas utilizadas nos radares da Segunda Guerra Mundial, e teve a idéia de utilizar moléculas e a radiação estimulada (conceito introduzido por Einstein em 1917), delas proveniente. Ele e seus colaboradores foram bem sucedidos, produzindo radiação estimulada de comprimento de onda de 1cm, o que foi batizado com o nome MASER referindo-se à radiação estimulada na região de microondas. O maser foi assim, o precursor do laser. Ao final dos anos 50, percebeu-se que esses estudos poderiam ser estendidos à faixa espectral que vai das microondas até a luz visível. Novamente, Townes e seu colega Arthur Schawlow conseguiram mostrar, teoricamente, que era possível utilizar átomos para gerar um Maser óptico, que foi denominado Laser, isto é, simplesmente um maser que produzisse radiação na região visível do espectro eletromagnético, o que conhecemos por luz. Foi Theodore Maiman que em 1960 conseguiu fazer funcionar o primeiro laser sólido, feito a partir de um cristal de rubi, e foi Javan a produzir o primeiro laser à gas, a partir de uma mistura dos gases nobres Hélio e Neônio. (Fig. 1). [/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Figura 1 - Primeiro laser à gás constituído por uma mistura dos gases nobres Hélio e Neônio[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]É interessante notar que, nessa época, muitos pesquisadores que trabalhavam em pesquisa fundamental, em vários países, contribuíram para o advento do laser. Não existia, a priori, intenção de produzir um tal equipamento; e, quando este surgiu, nem mesmo se cogitava sobre o número de aplicações que ele viria a produzir. Nas palavras de Townes, "O desenvolvimento do maser e do laser não seguiu nenhum roteiro, ele simplesmente nasceu da natureza dos cientistas no seu desejo de entender, explorar e criar. Ele é um exemplo gritante de como tecnologias importantes, aplicáveis aos interesses humanos, podem nascer da pesquisa básica feita na universidade". Assim, em 1964, o americano Townes e os russos Basov e Prokorov que, independentemente, deram contribuição significativa na área de lasers sólidos, semicondutores, foram agraciados com o prêmio Nobel de Física, pelo trabalho fundamental na área da eletrônica quântica que levou à construção dos sistemas maser e laser (Fig. 2). [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Mas afinal, o que é o laser? O laser pode ser descrito numa maneira simplificada, como sendo uma fonte luminosa que utiliza a luz emitida por um átomo ou molécula para estimular a emissão de mais luz por outros átomos ou moléculas, e, neste processo, amplificar a luz original. Esses átomos ou moléculas são previamente preparados, ou como dizemos, excitados para energias mais altas. Ao perderem a energia armazeda o fazem pela emissão de luz que inicia todo o processo em cadeia. No tipo mais comum de laser conhecido, o laser de Hélio-Neônio, de luz vermelha, os átomos do gás nobre Neônio é que constituem o meio ativo do laser, isto é, são eles que emitem luz que, ao atingir outros átomos de Neônio contidos numa cavidade laser, estimulam-nos a também emitir o mesmo tipo de luz e, assim, amplificá-la. A Fig. 3 é um desenho esquemático de uma tal cavidade laser. Os átomos estão contidos num tubo que é fechado nas extremidades por dois espelhos que ajudam a confinar a luz emitida num vai-e-vem ao longo da cavidade. No processo, essa luz, ao atingir outros átomos, os induzem a também emitir luz de mesma cor (que está associada ao comprimento de onda dessa luz), amplificando o processo. Essa intensa radiação produzida dentro da cavidade laser pode ser extraída, por exemplo, através de um pequeno orifício central num dos espelhos que constituem a cavidade laser, originando o feixe unidirecional de luz que se observa.[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Figura 3 - Desenho esquemático de uma cavidade laser.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Como então, a grosso modo, a luz de um laser difere de uma luz de uma lâmpada de filamento incandescente, por exemplo? A luz do laser é mais intensa, é emitida numa só direção e tem uma cor específica (comprimento de onda único), enquanto a luz de uma lâmpada incandescente é fraca, é emitida em todas as direções e é formada por muitas cores (radiações de diversos comprimentos de onda) que, somadas, resultam em luz branca.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Existem muitos tipos de lasers, tanto quanto à intensidade do feixe, ao tipo ("cor") de radiação, à produção do feixe, se pulsada ou contínua, e quanto ao desenho específico e tamanho da cavidade, esta última podendo ser de imensões microscópicas ou atingir vários metros de comprimento. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Os lasers podem ser produzidos em diversos meios diferentes, isto é, o meio ativo que gera a radiação pode ser um sólido, como um cristal ou um semicondutor, pode ser um líquido, como um corante ou pode ainda ser um gás ou vapor. O laser à gás é um dos mais eficientes. Nesta categoria está, por exemplo, o laser de dióxido de carbono, cuja radiação, na região do infravermelho, não é visível.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Quando o laser foi descoberto não se podia avaliar a enormidade de aplicações a que serviria. Por vários anos após sua invenção, os colegas do Townes gostavam de provocá-lo dizendo que a invenção do laser tinha sido uma grande idéia, mas que o laser era uma solução à procura de um problema. Lasers são hoje utilizados em afazeres tão corriqueiros como nas comunicações telefônicas, nas leituras de código nas caixas do supermercado, nos tocadores de discos compactos, no corte de metais, papel e roupas, e também em afazeres sofisticados e de precisão como aqueles efetuados em cirurgias oftalmológicas, processamento e manipulação de materiais biológicos, etc. Além de tudo isso, os lasers têm sido amplamente estudados em seus aspectos fundamentais, onde ele joga ao mesmo tempo o papel de ferramenta a ser utilizada e "material" a ser pesquisado. A sua aplicação ao estudo da ciência fundamental propiciará novas descobertas e aplicações, hoje em dia inimagináveis. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Elza Vasconcellos é professora do Instituto de Física Gleb Wataghin da Unicamp[/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif]CAPITULO 14 - [/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]Consciência Quântica ou Consciência Crítica?[/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif]Roberto J. M. Covolan [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] O advento da Física Quântica causou e tem causado enormes transformações na vida de todos nós. Nem sempre e nem todos estamos conscientes dos modos pelos quais uma revolução científica iniciada há cem anos pode nos afetar ainda hoje, mas provavelmente já ouvimos falar de seu impacto na evolução da própria Física e de toda controvérsia gerada pelas dificuldades conceituais de interpretação dos fenômenos quânticos [1]. Seus efeitos, porém, se estenderam para além da Física, com desdobramentos importantes na Química, com a teoria de orbitais quânticos e suas implicações para as ligações químicas, e na Biologia, com a descoberta da estrutura do DNA e a inauguração da genética molecular, apenas para citar dois exemplos.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Mesmo conscientes disso tudo, estaríamos preparados para mais essa: para a possibilidade de que a própria consciência [2] possa operar com base em princípios ou efeitos quânticos? Pois é o que andam conjecturando algumas das mentes mais brilhantes de nosso tempo... e alguns franco-atiradores também. A descoberta do mundo quântico, que tanto impacto teve nas ciências e tecnologias, ameaça agora envolver o "etéreo" universo da psique. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]É preciso dizer desde logo que, na verdade, essa história não é assim tão nova. Desde o início de sua formulação, a Física Quântica apresentou uma dificuldade essencial: a necessidade de se atribuir um papel fundamental para a figura do observador (aquele que está realizando um experimento quântico). Isso decorre do fato da teoria quântica ser de caráter não determinístico, ou seja, trata-se de uma teoria para a qual a fixação do estado inicial de um sistema quântico (um átomo, por exemplo) não é suficiente para determinar com certeza qual será o resultado de uma medida efetuada posteriormente sobre esse mesmo sistema. Pode-se, contudo, determinar a probabilidade de que tal ou qual resultado venha a ocorrer. Mas, quem define o que estará sendo medido e tomará ciência de qual resultado se obtém-se com uma determinada medida é o observador. Com isso, nas palavras de E. P. Wigner, "foi necessária a consciência para completar a mecânica quântica".[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A introdução de elementos subjetivos na Física Quântica, embora tenha sido defendida por físicos notáveis como von Neumann, além do próprio Wigner, é considerada altamente indesejável, tendo sido tentadas diferentes formulações para contornar esse problema que, aliás, é objeto de debate ainda hoje. Contudo, não é tanto esse problema de caráter epistemológico que se quer focalizar aqui, mas sim a possibilidade de que certos efeitos quânticos possam fazer parte do funcionamento do cérebro e estejam envolvidos na manifestação da consciência. Porém, antes de ir direto ao ponto, convém apontar alguns aspectos da dinâmica cerebral mais aceitos atualmente.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] De forma resumida, pode-se dizer que as descrições mais convencionais apontam a consciência como sendo uma propriedade emergente das atividades computacionais realizadas pelas redes de neurônios que constituem o cérebro. O cérebro é visto essencialmente como um "computador" para o qual as excitações neurais (correspondentes à atividade sináptica) seriam os estados de informação fundamentais (equivalentes aos bits). A partir dessa visão, certos padrões de atividades neurais teriam estados mentais correlatos, sendo que oscilações sincronizadas no tálamo e no córtex cerebral produziriam uma conexão temporária dessas informações e a consciência surgiria como uma propriedade nova e singular, emergente da complexidade computacional das redes neurais atuando em sincronia [3].[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Em geral, os enfoques quânticos não excluem o funcionamento do cérebro através de redes neurais (seria negar o óbvio), mas consideram que complexidade somente não explica tudo e situam efeitos quânticos como centrais para a descrição da emergência ou geração do eu consciente. Aliás, alguns desses modelos negam que consciência seja uma propriedade emergente de redes neurais operando além de um certo nível crítico de complexidade, mas consideram que a dinâmica cerebral, na verdade, organiza e faz aflorar algo que já é uma propriedade intrínseca da natureza.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Há vários desses modelos e os mecanismos dos quais lançam mão são os mais diversos (...e os mais "viajados"). Infelizmente o espaço aqui disponível não é suficiente senão para salientar alguns aspectos mais importantes. Para que o leitor possa ter pelo menos um "aperitivo" do que propõem esses modelos, vamos destacar aqui três deles.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Modelo de Fröhlich-Marshall-Zohar - Herbert Fröhlich, físico especialista em superconditividade a altas temperaturas, propôs, há bastante tempo, que seria possível ocorrerem estados quânticos coletivos em sistemas biológicos. Existiriam efeitos vibracionais dentro das células correspondentes a radiação eletromagnética na faixa de microondas, resultantes de um fenômeno de coerência quântica biológica que teria origem em grandes quantidades de energia disponibilizadas por atividades metabólicas. Com isso, ele sugeriu a possibilidade de que estados de coerência quântica de grande alcance, semelhantes aos observados em supercondutividade e em lasers, chamados de condensados de Bose-Einstein, poderiam existir mesmo a temperaturas tão altas como as características de sistemas biológicos. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]I. Marshal (psiquiatra) e D. Zohar (física), tendo como preocupação básica o caráter unitário da consciência, encontraram na proposta de Fröhlich as propriedades necessárias de extensão espacial (não localidade) e capacidade para muitos estados se fundirem num todo único, não analisável, aspectos característicos dos fenômenos mentais. Marshal se valeu, então, do sistema de fonons bombeados de Fröhlich para propor que certas proteinas neurais poderiam formar condensados de Bose-Einstein, dando origem aos fenômenos conscientes.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Modelo de Eccles e Beck - Sir John Eccles, ganhador do prêmio Nobel de Fisiologia e Medicina de 1963 e autor, com Karl Popper, do livro The Self and Its Brain, propôs um modelo, posteriormente aperfeiçoado em parceria com Frederick Beck, físico teórico, pelo qual efeitos quânticos ocorreriam nos terminais sinápticos dos neurônios e seriam moduladores das funções cerebrais. O mecanismo central estaria relacionado à exocitose, processo pelo qual as moléculas neurotransmissoras contidas em minúsculas vesículas são expelidas através da passagem sináptica entre neurônios.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Por esse modelo, a chegada de um impulso nervoso ao terminal de um axônio (prolongamento tubular através do qual os neurônios se comunicam) não induziria invariavelmente as vesículas a expelirem seus neurotransmissores através da sinapse, como se pensava. Isso seria controlado por uma espécie de "gatilho quântico", associado a transferências de elétrons através de um fenômeno denominado tunelamento, que promoveria alterações conformacionais nas membranas controladoras do mecanismo de deliberação de neurotransmissores. Com isso, efeitos quânticos seriam os controladores efetivos de toda a dinâmica cerebral, embora não fique claro como é que tal mecanismo implicaria na emergência da consciência.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Modelo de Hameroff-Penrose - Dois dos principais propositores da Consciência Quântica são Stuart Hameroff, médico, e Roger Penrose, físico-matemático de Oxford que atua na área de Cosmologia e Gravitação e foi ganhador do prêmio Wolf juntamente com Stephen Hawking. Ao final da década de 80, Penrose lançou um livro muito instigante, A Mente Nova do Imperador, que causou sensação e foi o responsável por muito da discussão a respeito de consciência e efeitos quânticos que se seguiu. Nesse livro, ele elabora extensas discussões a respeito dos seguintes pontos:[/FONT]

    • [FONT=Verdana, Arial, Helvetica, sans-serif] O pensamento humano não é algorítmico (é não-computacional);[/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif] Os únicos processos não-algorítmicos no Universo são os processos quânticos;[/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif] Não existe atualmente uma Física Quântica completa, mas está faltando uma Teoria Quântica da Gravitação;[/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif] O advento dessa nova teoria seria o passaporte para se formular um modelo quântico para a consciência.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Anos mais tarde, Penrose, em parceria com Hameroff, formulou um modelo um pouco mais específico, procurando localizar as estruturas cerebrais onde ocorreriam os tais efeitos quânticos. Nesse modelo, eles principiam por correlacionar certas características da psique com atributos de sistemas quânticos. Por exemplo:[/FONT]

    • [FONT=Verdana, Arial, Helvetica, sans-serif] A sensação de um self unitário (the binding problem) - isso é atribuido a coerência quântica e não-localidade; [/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif]Livre arbítrio - decorrência de um processo randômico, não-determinístico; teria a ver com indeterminação quântica; [/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif]Intuição - processamento não-algorítmico, computação via superposição quântica; [/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif]Diferença e transição entre estados não-conscientes e consciência - colapso da função de onda.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] A idéia deles é que a consciência poderia "emergir" como um estado quântico macroscópico a partir de um certo nível crítico de coerência de eventos acontecendo em certas estruturas subneurais, denominadas microtubulos, que compõem o esqueleto neuronal. Os ingredientes essenciais do modelo são os seguintes:[/FONT]

    • [FONT=Verdana, Arial, Helvetica, sans-serif] Coerência quântica e auto-colapso da função de onda são essenciais para a emergência de consciência e isto acontece nos microtubulos; [/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif]Tubulinas, subunidades dos microtubulos, são acopladas por eventos quânticos internos e interagem cooperativamente entre si; [/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif]Deve ocorrer coerência quântica entre tubulinas através de um bombeamento de energia térmica e bioquímica, provavelmente a la Fröhlich; [/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif]Durante o processamento pré-consciente, ocorre um processo de computação/superposição quântica nos microtubulos, até que um auto-colapso acontece em função de efeitos relacionados à Gravitação Quântica; [/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif]O auto-colapso resulta em "estados clássicos" de tubulinas que então implementam uma determinada função neurofisiológica; [/FONT]
    • [FONT=Verdana, Arial, Helvetica, sans-serif]Conexões via MAPs (microtubule-associated proteins) sintonizam e "orquestram" essas oscilações quânticas.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Consciência Quântica ou Consciência Crítica? - Pelo seu caráter altamente especulativo, modelos como os aqui delineados acabam provocando fortemente o senso crítico de físicos e neurocientistas. Recentemente, Max Tegmark, de Princeton, publicou um trabalho [4] em que ele mostra que os tempos de decoerência quântica em situações como as aqui aventadas são extremamente pequenos, entre 10^-13 a 10^-20 segundos, quando os tempos característicos para processos neurais são da ordem de 10^-3 a 10^-1 segundos. Hameroff e colaboradores contra-atacaram, afirmando que as estimativas de Tegmark não levaram em conta efeitos importantes que elevariam tais tempos de decoerência para valores neurofisiologicamente relevantes.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Apesar de se tratarem de idéias bastante controversas, atualmente se procura estabelecer arranjos experimentais em condições de testar modelos como os aqui apresentados. Os leitores interessados poderão obter maiores informações no website http://www.consciousness.arizona.edu/. Aqueles, porém, que se encontram por demais perplexos com o que acabam de ler, talvez prefiram a sugestão abaixo:[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] "What´s mind? No matter.
    What´s matter? Never mind"
    [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][1] Atenção: o que se discutem são as interpretações, os fatos quânticos estão fora de qualquer disputa. (volta)[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][2] Obviamente, palavra "consciência" é empregada aqui no sentido neuropsicológico, não no sentido moral. (volta)[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][3] Veja-se, por exemplo, o artigo "Consciousness and Complexity", de G. Tononi e G. M. Edelman, publicado na revista Science, vol.282, pp.1846-51 (1998). G. M. Edelman foi ganhador do Prêmio Nobel de Medicina e Fisiologia de 1972. (volta)[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif][4] M. Tegmark: "The importance of quantum decoherence in brain processes", Phys. Rev. E 61, 4194 (2000). (volta)[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Roberto J. M. Covolan é professor do Instituto de Física Gleb Wataghin da Unicamp[/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif]CAPITULO 15 - [/FONT][FONT=Verdana, Arial, Helvetica, sans-serif]Mecânica quântica e interpretação na mídia[/FONT]

    [FONT=Verdana, Arial, Helvetica, sans-serif]Ulisses Capozoli[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Uma velha escola de jornalismo, como os físicos do passado, confinados à mecânica clássica, enxerga o mundo com a materialidade aparente de um peso de chumbo. Para seus membros, a realidade está lá fora, independente, faiscando na forma de uma estrela, manifestando-se num corpo que cai, expressando-se de maneira inequívoca em construções como uma árvore, um tigre, uma fotografia.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Jornalistas, evidentemente, não são os únicos a se apegarem a esta interpretação do mundo e nem mesmo todos os jornalistas pensam assim. A construção do lead (o que, quem, quando, onde, como e por que), no entanto, dá ao jornalismo, e a boa parte dos jornalistas, a sensação de uma descrição possível da máquina do mundo. Por isso, o que chamaríamos de um novo e um velho jornalismo podem ser tomados como uma metáfora para a Física Quântica e o fim do realismo materialista.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Enquanto metáfora, a sumariedade interpretativa do velho jornalismo, com o pressuposto de um mundo exterior independente de um observador, não tem razões para confinar-se a essa atividade. E, de fato, estende-se a outras áreas. Ao menos é o que se pode deduzir de encontros, escritos e posturas.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O salto conceitual que o físico alemão Max Planck deu em 1900, engendrando a base da mecânica quântica, reformulou de tal maneira a visão do mundo que, ao menos um historiador da ciência, não teria razões para supor que seu impacto já tivesse sido todo absorvido.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Mário Schenberg, talvez o mais criativo de uma primeira geração de talentosos físicos brasileiros, disse que o desenvolvimento da mecânica quântica "foi uma coisa espantosa, revolucionou toda a física, penetrou em tudo e explicou propriedades estranhas como a supercondutividade, a superfluidez e os acontecimentos a baixas temperaturas".[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Há uma área, no entanto, adverte Schenberg, que a mecânica quântica não pode iluminar: a segunda lei da termodinâmica, a entropia. O aumento da entropia não pode ser deduzido pela mecânica estatística clássica, nem pela mecânica estatística quântica, diz Schenberg, para quem "há, aí, alguma coisa de fundamental que ainda não compreendemos".[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Isaac Asimov, que se tornou conhecido como escritor de ficção científica, embora, à sua maneira, tenha sido sempre um cientista, explorou essa incompreensão num de seus contos mais fascinantes, "Entropia", publicado numa coletânea que, no Brasil, teve o título de Nove Amanhãs. E aí também não há uma resposta, ao menos em termos convencionais.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]A impotência da mecânica quântica em desvendar a entropia é um exemplo intrigante dos mistérios do mundo e por isso é sugestivo um outro trecho de Schenberg para quem "no processo de conhecimento há muitas fases sucessivas. Há uma fase de simplificação, quando muitas coisas diferentes são reunidas numa mesma coisa; posteriormente há um desmembramento em muitas coisas e, depois, vem uma nova fase de simplificação, de síntese, e assim por diante. Parece que não se pode esperar um processo único, de a coisa ir se simplificando cada vez mais. Quando se pensa que se chegou ao fim da simplificação, aí estoura um mundo novo de que não se suspeitava antes".[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] William Thomson, físico inglês mais conhecido pelo título de Lord Kelvin, cometeu a imprudência de, às vésperas do século passado, garantir que, na física, muito pouco restava para ser conhecido. O que veio a seguir, se não for considerada a psicanálise, onde há uma completa subversão do sujeito cartesiano, foram a mecânica quântica e a relatividade.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Com alguma freqüência, falas e escritos sugerem que a unificação das forças básicas será o fim da física. Se depender de fatos como a previsão de Kelvin e as interpretações de Schenberg, o que virá é uma nova explosão do novo, enquanto insuspeito.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Schenberg, crítico de arte, ao interpretar que o desenvolvimento da mecânica quântica penetrou em tudo" certamente compartilha da visão de ciência de Charles S. Pierce matemático, químico, físico, astrônomo, lógico, filósofo, historiador da ciência e fundador da semiótica, a ciência dos signos.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Para Pierce, o corpo da ciência, longe de esquartejado, é interativo, o que pressupõe uma relação nova e promissora entre áreas aparentemente tão dissociadas quanto a história, psicologia, física e literatura. Certamente não seria exagerado incluir aí o jornalismo, particularmente sua vertente científica, enquanto possibilidade e, certamente, necessidade de uma reconstrução epistemológica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Enquanto território de trânsito entre as ciências do comportamento e a história, mas não só por isso, não há razão para se pensar que o jornalismo esteja imune à influência da física quântica, especialmente pela natureza interpretativa. Compreender essa influência e tirar partido dela seguramente traria uma perspectiva nova para um impasse atual: a perspectiva da originalidade do mundo, como produto de interpretações possíveis, e a massificação completa, a recusa, ou impossibilidade de se interpretar.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Encerrada no universo subatômico, a perspectiva da mecânica quântica, ao menos enquanto subversão do absolutismo reducionista, é a de provocar estranhamento. Planck foi sua primeira vítima. Seus biógrafos o descrevem como um tipo tradicional e os historiadores da ciência asseguram que, só à custo, convenceu-se das próprias idéias, rejeitando especialmente suas implicações.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Planck basicamente considerou que os elétrons absorvem ou emitem energia em determinadas energias específicas e descontinuamente separadas, a que chamou de quanta. Isso explica porque é possível bronzear-se ao Sol, mas não em frente a uma fogueira. Para um elétrom executar um grande salto quântico, com emissão de luz ultravioleta, é necessária uma fonte de energia mais poderosa que a queima de madeira.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O salto quântico é, literalmente, um fantasma da Física Quântica. Ao contrário de uma bola, atirada por uma escada que, num dado momento está entre um degrau e outro, os físicos dizem que, no salto entre uma e outra órbita em torno do núcleo atômico, o elétron não se encontra em lugar nenhum. O matemático Charles Lutwidge Dodgson, que ficou conhecido pelo pseudônimo de Lewis Carrol, expressou esses estranhamentos em Alice No País das Maravilhas, mas ainda é confundido como escritor de literatura infantil.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Quanto ao salto quântico, o elétron simplesmente desaparece de um nível e aparece no outro. Além disso, não se pode saber quando um determinado elétron vai dar seu salto, nem para onde vai saltar, acima de um degrau mínimo de energia. Aí deixa de haver certeza e só pode-se falar em probabilidades.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Físicos mais provocativos dizem que isto é o bastante para inviabilizar o teletransporte, recurso indispensável ao capitão Kirk. Mas esta já é um outro caso, ainda que, ficção e realidade, cada vez mais se confundam numa única história.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Ulisses Capozoli, jornalista especializado em divulgação científica é historiador e presidente da Associação Brasileira de Jornalismo Científico (ABJC)
    [/FONT]
    CAPITULO 16 - [FONT=Verdana, Arial, Helvetica, sans-serif]Einstein e a Física Quântica[/FONT]
    [IMG]
    [FONT=Verdana, Arial, Helvetica, sans-serif]David B. Martinez[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Warner Heisenberg ilustra seu Princípio da Incerteza apontando para baixo com a mão direita para indicar a localização de um elétron e apontando para cima com a outra mão para suas ondas, para indicar sua energia. Num determinado instante, quanto mais estamos certos sobre o momentum de um quantum, menos certeza temos de sua exata localização.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Neils Bohr acena com dois dedos para enfatizar a dualidade, natureza complementar da realidade. O quantum não observado é ao mesmo tempo uma onda e uma partícula, mas um determinado experimento pode mostrar apenas uma forma ou outra. Bohr argumenta que as teorias sobre o universo devem incluir um fator que contabilize os efeitos do observador sobre determinada medição do quanta. Bohr e Heisenberg argumentam que predições na Mecânica Quântica são limitadas para descrições estatísticas do comportamento do grupo. Isso levou Einstein a declarar que não podia acreditar que Deus joga dados com o universo.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Albert Einstein aponta um dedo para cima, para indicar sua crença de que o universo pode ser descrito com uma equação de campo unificado. Einstein descobriu a relatividade do tempo e relação matemática entre energia e matéria. Ele dedicou o resto de sua vida tentando formular uma teoria do campo unificado. Ainda que considerasse que devemos agora usar probabilidades para descrever eventos quânticos, Einstein expressou a esperança de que os cientistas do futuro encontrarão uma ordem oculta para a Mecânica Quântica.[/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif] Richard Feynman toca bongô, com diagramas de Feynman de partículas virtuais subindo como notas musicais. Ele inventou Quantum-Elétron-Dinâmica, o mais prático sistema para resolver problemas em Mecânica Quântica. Feynman renormalizou os infinitos que impediam as soluções exatas das equações quânticas. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]O gato de Schodinger está piscando e roçando em Bohr. A mulher azul vergada sobre a Terra é Nut, a deusa egípcia do céu. Ela acaba de jogar dados atrás das costas de Einstein. Nut está dando a luz a chuvas de partículas elementares, que caem como cascatas sobre as borboletas do caos. [/FONT]
    [FONT=Verdana, Arial, Helvetica, sans-serif]Traduzido do site de David B. Martinez
    http://members.aol.com/elchato/
    [/FONT]


    Abraços[kfumando]:rox
  6. Fennix Veterano

    Número de Mensagens:
    4,492
    Pontos de Troféu:
    136
    Esqueceu da Fonte:

    [IMG]
  7. Pack Man Supra-sumo

    Número de Mensagens:
    16,617
    Pontos de Troféu:
    196
    e no oitavo criou o bom senso pra ler ao menos as primeiras linhas:

  8. Tesla Bam-bam-bam

    Número de Mensagens:
    11,778
    Pontos de Troféu:
    499
    [COLOR="Navy"]Apenas 10 pessoas devem ter lido até o fim. E umas 5 entenderam alguma coisa. :p

    No mais, mais um tópico fodástico Pack!! :rox:rox:rox[/COLOR]
  9. apf6769 Veterano

    Número de Mensagens:
    3,652
    Pontos de Troféu:
    149
    Excelente tópico :D Tomara que quem queira ter noções de algo leia os textos.
  10. Vinicius Botelho Bam-bam-bam

    Número de Mensagens:
    8,508
    Pontos de Troféu:
    264
    [COLOR="Black"]Carmba, tava lendo sobre o universo paralelo quando apareceu esse negocio de física quantica ai comecei a boiar no texto.Li até o cap.02 aqui, e ainda tó meio que boiando, agora vou voltar pro tópico sobre universo paralelo pra ver se intendo um pouco melhor :-D

    Eu até consigo entender essa ideia de universo parelelo (até acredito um pouco) porque meu professor de física e de historia gostam de ficar falando sobre, mas lendo tudo aqui, ficou muito confuso :lo[/COLOR]l
  11. Splasha Bam-bam-bam

    Número de Mensagens:
    10,545
    Pontos de Troféu:
    454
    prometo que lerei ainda hj !!
  12. Vinicius Botelho Bam-bam-bam

    Número de Mensagens:
    8,508
    Pontos de Troféu:
    264
    http://forum.outerspace.com.br/showthread.php?t=169530

    [color="black"]Nem fui pra aula hoje pra aproveitar esse último dia :lol:p[/color]
  13. thiago_rariz Bam-bam-bam

    Número de Mensagens:
    7,822
    Pontos de Troféu:
    454
    tópico animal.....ja fiz um copy and paste aqui....
  14. Pack Man Supra-sumo

    Número de Mensagens:
    16,617
    Pontos de Troféu:
    196
    Opa hehe os físicos do fórum ainda aparecem! hehehe

    Valeu gente, é como eu disse visitar uma vez ou outra e comentar se quiser...

    Abraço
  15. BigBrother Bam-bam-bam

    Número de Mensagens:
    18,431
    Pontos de Troféu:
    439
    Pack Man
    você fez fisica ?

    entende bastante de fisica quantica =D

    se fisica não tivesse mecanica eu faria
    AUHAHUAUUHA
  16. luir Bam-bam-bam

    Número de Mensagens:
    14,391
    Pontos de Troféu:
    339
    falando em física, alguém tem as notas de corte da OBF?
  17. KamuiX Habitué da casa

    Número de Mensagens:
    2,253
    Pontos de Troféu:
    66
    Step Up To Life.

    Eu sei que não é legal reviver tópicos OLDs, mas acho que todos entenderam que este aqui vale a pena!

    Eu pelo menos, adorei. Já entendia, mas tem muita galera nova que não entende, so...

Compartilhe essa página