Nuvem de Tags: física

16 de março de 2018

Das margens para o centro: A história da segunda revolução quântica

Na última palestra de 2016, inserida no programa Ciência às 19 Horas, coube ao Prof. Dr. Olival Freire Jr., docente e pesquisador da Universidade Federal da Bahia (UFBA) dissertar sobre o tema Das margens para o centro: A história da segunda revolução quântica. O título desta palestra foi propositalmente enigmático, remetendo para aquilo que alguns chamam de 2ª revolução quântica, que, na verdade, é um conjunto de conceitos e técnicas que se tornaram disponíveis nos anos 60, 70 do século XX, em contraposição com a primeira revolução que aconteceu no início desse mesmo século.

Essa 2ª revolução quântica, que teve enormes impactos na ciência e que promete outros ainda maiores, promete uma alteração no modo de processamento na área de informação quântica. De fato, segundo o palestrante, são apenas promessas. Essa área de informação quântica é hoje uma área da física muito quente, já que aconteceram atividades que foram desenvolvidas às margens da física. Não eram atividades, nem pesquisas muito bem valorizadas ou consideradas: eram pesquisas que trabalhavam com teorias chamadas heterodoxas, que na física podem representar o final da carreira de um jovem físico – se ele se dedicar excessivamente a trabalhos desse tipo, por exemplo.

A ideia de margem e centro é muito usual na ciência, para distinguir o que é mainstream, como explica Olival Jr: O que significa aquela agenda de pesquisa que é perfeitamente bem valorizada numa comunidade científica e o que é que são os temas que não são muito bem considerados, por razões diversas? Procuro sempre argumentar que parte dos conceitos essenciais do que chamamos de 2ª revolução quântica foi formulada num contexto de controvérsias, num contexto em que alguns desses proponentes eram muito mal considerados na comunidade dos físicos, na comunidade científica. Hoje, são altamente bem considerados, recebem premiações e tudo mais. Mas, por que o meu interesse nisso? Não é propriamente um interesse de trazer à luz alguém que foi valorizado na sua trajetória, embora isso seja importante, mas acima de tudo também valorizar e destacar, na ciência, aqueles que, no seu devido tempo, não tiveram destaque. Mas, o meu principal interesse é mostrar que esse é um bom caso para a gente compreender o quão complexa é a atividade científica. Então, ele, para mim, serve como um bom argumento contra qualquer visão simplista do que seja a atividade científica. O que é que eu chamo de atividade simplista? Tipicamente você pensa Não! Ciência é você fazer os dados experimentais, a partir daí extrair uma teoria e por aí afora. Não é assim. Ciência envolve muita conjectura, muita imaginação. Ciência tem uma atividade com uma dimensão social: o modo como você, jovem estudante, se relaciona com os seus colegas, o modo como você entra numa controvérsia. Então, o desenvolvimento da história da ciência, portanto, é um fenômeno tão complexo quanto os fenômenos complexos que a própria ciência estuda, enfatiza o pesquisador.

Quando se fala em renovação da pesquisa sobre os fundamentos da física quântica, isso tem muito a ver com a pergunta anterior, ou seja – e uma vez mais -, das margens para o centro. O palestrante gosta de citar um tema que, tipicamente, estava nos fundamentos da teoria quântica e que, por altura dos anos 50, era considerado um tema morto na ciência, um tema do qual ninguém iria extrair nada interessante. Então, qual era o tema? O tema era o seguinte: será que você pode alterar/modificar a teoria quântica, introduzindo mais variáveis? Essas variáveis são chamadas de variáveis escondidas – que para o palestrante é um nome péssimo, mas que se consagrou na literatura: escondidas em relação às que já são usadas pela teoria.

Será que você pode introduzir essas variáveis adicionais e, mesmo assim, preservar o poder preditivo da teoria quântica? E se você introduzir, isso trará alguma informação nova? Esse tipo de tema era completamente fora do escopo da física, na altura da década de 50. Poucas pessoas brilhantes se preocupavam com isso, sendo que o mais notável deles era Einstein. Na década de 50, outro notável também se dedicou a isso – David Bohm. Certamente, esse era considerado um tema de filosofia. Portanto, um tema fora da física. E foi justamente em torno desse tema que surgiu, quinze anos depois, o chamado Teorema de Bell, um teorema que estabeleceu com precisão quais alterações poderiam ser feitas na teoria quântica, sem a comprometer, e quais alterações que, ao serem feitas, colidissem com a própria teoria quântica. E o Teorema trouxe uma surpresa fenomenal. A surpresa é que, na altura em que ele começou a ser compreendido, no final dos anos 60, se percebeu que não existia um único teste já feito que permitisse fazer aquele contraste previsto pelo Teorema. Então você teve, a partir do início dos anos 70, uma série de experimentos que continuam ainda hoje… esses experimentos todos confirmaram as predições da teoria quântica e, portanto, invalidaram o tipo de teoria modificada que o próprio Bell tinha expectativa… mas o resultado de todo esse processo foi a consolidação, entre os físicos, de um novo fenômeno físico, chamado Emaranhamento Quântico. E é exatamente o Emaranhamento Quântico que é uma das propriedades centrais hoje, na pesquisa em informação quântica. É uma revolução nesse sentido… de uma posição marginal para uma posição muito importante na agenda de pesquisa dos físicos, sublinha Olival Jr..

No resumo de sua palestra, o Prof. Olival Freire Jr. optou por mencionar a frase revolução quântica, em vez de ter escolhido atualização, ou mesmo mudança. Para o palestrante, essa escolha teve o intuito de provocar, mas provocar no sentido delicado. Profissionalmente, eu sou historiador da ciência, mas graças à minha formação em física, ensino essa disciplina, mas meu doutorado foi de história da ciência e, portanto, eu trabalho sistematicamente nessa vertente. Portanto, como historiador da ciência, uso com muito cuidado o termo revolução científica, mesmo para me referir a revolução que todo mundo acha que foi uma revolução lá do Galileu, do Newton… A história da ciência mostra que teve muitos elementos de continuidade entre a física do final do período medieval e a física do Galileu. O problema não foi tão revolucionário quanto pensamos. Então, eu profissionalmente me contenho. Mas eu precisava atrair um pouco a atenção. Mas aí você vai ver que no resumo, eu disse que o termo “revolução quântica” não é meu, mas sim de um grande físico que tem relação com o Instituto de Física de São Carlos, que é o Alain Aspect, que é colaborador do Prof. Vanderlei Bagnato.

Nesse caminho, Olival Freire Jr, está convicto que a divulgação científica se transformou numa atividade, não sem antes ter apresentado uma explicação: a atividade científica tem uma história maior do que se imagina,  ganhou muita força nos últimos 40, 50 anos: Mas, já que falei do Galileu e do Newton, quero dizer que com toda a abertura que se teve no século dezessete para se pensar num universo maior, num universo infinito, ali já começaram as atividades de divulgação científica. E alguns desses divulgadores são grandes filósofos, grandes escritores. O Fontenelle foi um deles, mas um que eu gosto de citar é Voltaire. Voltaire tem uma explicação do que é a física newtoniana, que está traduzida em português. Ele sai da França e vai para a Inglaterra e se encanta com a liberdade que tinha nesse país. E com a mecânica newtoniana, ele ainda escreve uma obra. Pouco depois, todo o projeto da Enciclopédia, os chamados enciclopedistas – Encyclopédie -, dirigida pelo Jean le Rond d’Alembert, é um projeto de divulgação científica. Então, eu acho que, desde quando a ciência se tornou algo mais complexo ou pelo menos do século dezessete em diante, fazer com que o mundo da cultura, o mundo da arte, da literatura, o mundo do cidadão comum, compreenda o que se passa na ciência, quais são as ideias que estão presentes nela, na técnica, se tornou um desafio importante. Nos últimos 50 anos, aí eu diria particularmente depois da 2ª Guerra Mundial – porque acho que a 2ª Guerra Mundial mudou drasticamente a relação da ciência com a sociedade -, com a produção particularmente da bomba atômica, mas não só (a produção do radar também é um produto da 2ª Guerra), tudo isso colocou na ordem do dia a ideia de que a cidadania hoje requer que você tenha algum grau de informação sobre a ciência. E isso que eu estou dizendo não é uma ideia minha, mas de alguém que foi um dos reitores da Universidade de Harvard, um químico chamado James Conant, continua o palestrante, acrescentando que Conant, após a 2ª Guerra, participou do projeto Manhattan.

Quando acabou a 2ª Guerra, Conant passou a organizar cursos que eu chamaria de divulgação científica, mas eram cursos de história e filosofia da ciência, para os graduandos da Universidade de Harvard. Então, é nesse sentido que a divulgação científica  é muito importante. No caso do Brasil, e também no resto do mundo, ela tem uma responsabilidade adicional. É que parte da ciência tem que ser financiada por recursos públicos. Se o público não entende o papel da ciência, o impacto da ciência na sociedade, o financiamento da ciência vira uma coisa de mecenas ilustrados. Nós temos exemplos importantes em que, no caso dos EUA, aquele super collider, aquele acelerador, que em 1993 o congresso americano tomou a medida de fechar porque não era importante. Aquilo ali, provavelmente, vai passar para a história, porque a obra já estava bem adiantada e ficou lá, abandonada. Também se discute que destino dar àquela obra fenomenal. Então, eu acho que a divulgação científica também tem essa dimensão. Se nós queremos que a atividade científica tenha continuidade no nosso país,é preciso que haja recursos públicos.Veja, eu estou em São Paulo e poderia falar do meu estado, que também não compreende muito bem o papel da ciência, mas recentemente nós tivemos um importante político em São Paulo que pôs em dúvida a importância das pesquisas financiadas pela FAPESP. Então, quando eu digo que a sociedade precisa compreender o papel da ciência, é porque, a sociedade, compreendendo, nossos representantes (no judiciário, no mundo político) também vão entender mais. E nesse sentido eu acho que vocês, aqui na USP de São Carlos, têm tido um papel muito importante de vanguarda nesse esforço de divulgação científica, conclui Olival Freire Jr.

(Rui Sintra – jornalista)

16 de março de 2018

Somos um holograma? Como assim?

O tempo e o espaço parecem fluidos, suaves e contínuos. Isso é verdade ou será apenas uma ilusão? Ninguém sabe, mas podemos especular. Uma possibilidade bem radical estudada por vários físicos é que nosso Universo – percebido como uma realidade tridimensional – é na verdade um holograma.

Este é um breve resumo da palestra que o Prof. Pedro Vieira* proferiu no passado dia 04 de outubro, em mais uma edição do programa Ciência às 19 Horas, subordinada ao tema Somos um holograma?.

Mas, como podemos ser um holograma?

Muitas vezes, na nossa intuição, algo nos parece suave e contínuo, como um líquido, mas, de fato, nem tudo é assim, explica o pesquisador convidado. Um líquido, como a água, parece à primeira vista, suave, que se deixa escorrer pela mão, até por vezes de forma poética, mas na realidade e ao contrário do que se possa supor de imediato, ele está cheio de moléculas: portanto, não é nada contínuo e suave. Por vezes, também algo que à distância parece suave, na verdade, quando é visto mais perto é totalmente diferente. E, se com o líquido podemos observar que ele é uma ilusão em termos de suavidade, podemos questionar se com o espaço, com o Universo, acontece a mesma coisa. Será que o espaço é suave, que eu posso me deslocar até qualquer ponto, ou que eu posso embalar minha mão tranquilamente? Parece suave esse movimento que acabamos de descrever Não será apenas uma mera ilusão?

O certo é que, na natureza, ainda não encontramos nada suave. Por exemplo, uma mesa não é suave, pois ela está cheia de moléculas. Então, será que o espaço é a primeira coisa que é suave? Não sabemos!!! O certo é que o espaço está cheio de moléculas. Contudo, existe outra hipótese, que é o próprio espaço ser uma ilusão, que ele não existe, que nós mesmos somos todos uma ilusão, podendo ser, inclusive, um holograma. A ideia é, através do pensamento, entender qual é a natureza do espaço-tempo, colocando perguntas teóricas e inventando experiências imaginárias, sendo que uma delas consiste em imaginar tentar ver qual é a quantidade de bagunça que existe em uma determinada região do espaço-tempo, comenta Pedro Vieira.

Imaginemo-nos, por exemplo, numa sala cheia de bagunça – mesas, cadeiras, camas, roupas, tapetes, etc. -, tudo em desordem. Se tivermos uma sala duas vezes maior, imediatamente somos induzidos a dizer que a bagunça vai ser duas vezes maior, ou seja, vai ter duas mesas, uma série enorme de cadeiras, várias camas e tapetes, ou seja, tudo multiplicado por dois. Contudo, não é bem assim, segundo o palestrante. Quando estudamos o espaço-tempo e quando colocamos a questão se esse espaço duplicado também duplica a bagunça, a designada desordem, chegamos à conclusão que isso não é verdade, ou seja, a bagunça não é proporcional ao volume do espaço, mas sim à sua área – e isso é uma surpresa.

Segundo nosso entrevistado, se observarmos uma casa, do lado de fora, chegamos à conclusão de que se a duplicarmos, de fato a bagunça existente dentro dela é proporcional à área das paredes e não ao volume. Na verdade, a casa está vazia, contudo as paredes estão carregadas de coisas e se duplicarmos o tamanho das paredes, aí sim, as bagunças existentes nas paredes duplicam também. Pedro Vieira acrescenta que se traduzirmos essa ideia para o tema do espaço-tempo, talvez não exista nada dentro dele e talvez toda a informação esteja em uma membrana, em um holograma que estaria no fim desse espaço-tempo. É uma ideia bem radical, mas é a melhor que temos até agora, afirma Pedro Vieira. Esta linha de raciocínio vai exatamente ao encontro dos designados buracos-negros, colocando-nos questões, como, por exemplo, o que são eles e como poderemos estudar e encontrar a quantidade de desordem que existe dentro deles. Para o palestrante tudo isso são experiências de pensamento: a desordem aumenta sempre, de igual forma como quando você quebra um copo, ou um prato e os pedaços não se unem mais. Comparativamente, se enchermos uma sala com uma quantidade enorme de bagunça, de objetos, em determinado momento a sala fica tão cheia que forma buracos-negros: claro que isto que acabo de dizer é uma experiência de pensamento.

Se juntarmos essas ideias explanadas pelo Prof. Pedro Vieira, iremos concluir que o buraco-negro é o local onde existe mais bagunça. Quando um buraco-negro é formado, ele não se desfaz mais. A questão dos buracos-negros é mais simples do que estudar um ambiente, como uma sala ou o interior de uma casa. Para os físicos, estudar um buraco-negro é algo que se consegue fazer com alguma facilidade. Esta experiência do pensamento leva-nos à conclusão que a desordem de um buraco-negro é proporcional à área do mesmo não ao seu volume. Assim, se é verdade que um buraco-negro tem mais bagunça que o interior de uma casa ou de uma sala, então o que está dentro delas é real, ou seja, não existe nada dentro delas, pois toda a informação está localizada nas paredes. Essa é a ideia de holograma, que é uma imagem que parece tridimensional, mas que na verdade é apenas bidimensional, conclui o pesquisador.

*Pedro Vieira é pesquisador do ICTP South American Institute for Fundamental Research – ICTP/SAIFR, IFT/UNESP – Perimeter Institute for Theoretical Physics, Ontario, Canadá.

(Rui Sintra – jornalista)

16 de março de 2018

Como a física pôde estudar os restos mortais dos primeiros imperadores do Brasil

Inserida na programação da SIFSC-2015 – Semana Integrada do Instituto de Física de São Carlos, ocorreu no dia 29 de setembro, cerca das 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP), mais uma edição do programa Ciência às 19 Horas, que na circunstância trouxe a Profa. Dra. Márcia de Almeida Rizzutto, docente e pesquisadora do Instituto de Física da Universidade de São Paulo, que apresentou a palestra intitulada Primeiros imperadores do Brasil: a física pôde estudá-los!

A apresentação de Márcia Rizzutto deu ênfase ao fato de, em 2012, ter sido realizada uma pesquisa multidisciplinar nos restos mortais do Imperador D. Pedro I e de suas esposas – D. Leopoldina e D. Amélia -, que se encontram depositados na Capela Imperial do Monumento à Independência, em São Paulo. Como é do conhecimento público, D. Pedro I é uma das principais personalidades da história do Brasil, tendo sido, durante sua liderança, o principal responsável pela proclamação da independência do Brasil de Portugal, em 1822, fundando assim o Império do Brasil no mesmo ano.

Este trabalho de arqueologia multidisciplinar envolveu vários grupos de pesquisadores com metodologias de análises complementares, um trabalho complexo que também utilizou vários estudos físico-químicos para entender os materiais e as condições de conservação, ou não, dos restos mortais dos imperadores do Brasil. Particularmente, o Instituto de Física da Universidade de São Paulo, através do grupo de física aplicada com aceleradores, auxiliou na caracterização dos materiais dos objetos existentes nos restos mortais dos imperadores.

Nesta palestra, Márcia Rizzutto mostrou como as análises por metodologias físicas permitiram compreender melhor a composição química dos objetos (metais, ossos, tecidos, etc.), associados aos remanescentes humanos, bem como as degradações ocorridas devido à contaminação sofrida no ambiente em que os materiais foram encontrados.

De fato, esse trabalho iniciou-se a partir de um projeto de mestrado em Arqueologia da historiadora Valdirene Ambiel, cuja proposta foi estudar os remanescentes humanos dos imperadores e de suas esposas. Ela fez esse projeto dentro do Museu de Arqueologia e Etnologia da USP, inserido no sistema de pós-graduação, obviamente com todas as autorizações junto ao IPHAN e aos descendentes da família imperial. A ideia foi questionar quais técnicas – físicas, químicas, biofísicas, de geociência – seriam utilizadas e como poderíamos estudar esses objetos para conseguir tirar, ou obter, a maior quantidade de informações possíveis.

Devido às técnicas, houve parcerias com cerca de dez instituições e de vários pesquisadores que auxiliaram no trabalho. O projeto foi gerado no MAE – Museu de Arqueologia e Etnologia, da Universidade de São Paulo, e teve a participação do IPEM – Instituto de Pesos e Medidas, para que se pudessem fazer todas as coletas de gases. Não sabíamos quais seriam as condições que encontraríamos ao abrir esses corpos, então houve uma preocupação muito grande com contaminação. Foi feito um pedido para que fosse realizada uma cromatografia gasosa, para que pudéssemos identificar se havia algum perigo nesse sentido. Depois, o pessoal da Microbiologia da USP fez toda uma coleta para crescer fungos e bactérias, com o intuito de analisar quais danos esses organismos poderiam causar, para que, depois, pudéssemos fazer as análises. Então, nesse inventário, foram discutidas todas as possibilidades, que incluíram a coleta e abertura dos caixões, porque havia questionamentos sobre os corpos, principalmente sobre o de D. Pedro. Fizemos um cronograma com algumas questões sobre as análises que seriam feitas caso os corpos estivessem em determinadas condições, etc, conta Márcia Rizzutto.

Em um primeiro momento, a ideia foi fazer a radiografia, porque sabia-se da existência das ossadas e haviam questionamentos sobre as doenças e causas da morte da Dona Leopoldina e do próprio D. Pedro. Tanto para a pesquisadora, como para seus colegas, foi muito interessante, porque a Faculdade de Medicina absorveu a ideia e conseguiu-se fazer as tomografias, que foram executadas pela Faculdade de Medicina. Os corpos foram retirados do mausoléu durante o período da noite, prolongando-se o trabalho por toda a madrugada, com todo um sistema complexo e sob sigilo absoluto, no sentido de salvaguardar eventuais sensacionalismos da mídia. Fomos até o Hospital Universitário, pegamos os três corpos, fizemos as tomografias e trouxemos os corpos de volta. Mas a Faculdade de Medicina se empenhou em fazer e auxiliar as análises. Muitas das informações obtidas com as tomografias serão usadas pela Valdirene em seu projeto de doutorado, já que agora ela também está mais vinculada à Faculdade de Medicina. Esse trabalho foi realizado durante o ano de 2012 e terminou em 2013. Agora ela está no meio do doutorado, então foi um rico material para o mestrado, no qual Valdirene focou bastante na parte histórica e arqueológica, comenta Márcia Rizzutto.

Este trabalho revelou, por exemplo, que D. Pedro I fraturou ao longo de sua vida quatro costelas do lado esquerdo, consequência de dois acidentes — uma queda de cavalo e quebra de carruagem. Isso teria prejudicado um de seus pulmões e, consequentemente, agravado uma tuberculose que causou sua morte aos 36 anos, em 1834.

(Rui Sintra – jornalista)

16 de março de 2018

O Físico Médico: uma atividade profissional onde a Física e Medicina andam juntas

Chegou ao fim a programação estipulada para o ano de 2012 do programa Ciência às 19 Horas. Na última edição, realizada no dia 13 de novembro, que decorreu no Auditório Prof. Sérgio Mascarenhas (IFSC), foi dado destaque ao tema Onde a Física e a Medicina se encontram: Física Médica e Neurofísica, uma palestra apresentada pela Profa. Dra. Gabriella Castellano, docente Grupo de Neurofísica do Instituto de Física Gleb Wataghin (UNICAMP).

Nesta interessante palestra, a convidada incidiu seu olhar sobre a atividade de um físico médico – ainda pouco conhecida entre nós -, bem como o entrelaçamento que existe entre as áreas da Física e da Medicina nesse seu trabalho.

As áreas mais importantes da designada física médica são a radioterapia, medicina nuclear e a radiologia ou radiodiagnóstico, sendo que todas elas envolvem o manuseamento de equipamentos complexos, lidando com radiação ionizante. Daí a necessidade, segundo a palestrante, de se ter um profissional que tenha conhecimento, aptidão e especialização neste tipo de radiação, sabendo como ela interage com os tecidos do corpo humano e que danos e benefícios ela pode causar nas pessoas: esse profissional é o físico médico.

Sempre que uma estrutura hospitalar possua equipamentos desse tipo, torna-se necessária a presença de um físico médico. Atualmente, os hospitais têm investido na compra de equipamentos de radioterapia, que servem, principalmente, para o tratamento de câncer: daí que os físicos médicos sejam considerados uma peça fundamental nesses procedimentos, porque uma vez que o médico diagnostica qual é o tipo de câncer que um paciente tem, prescrevendo um tratamento, quem irá fazer o planejamento desse mesmo tratamento, juntamente com o médico, será o físico médico, cabendo a este sugerir qual será o melhor tipo de terapia que irá ser utilizado para tratar esse tumor, de que forma é que a radiação irá ser canalizada, se haverá riscos de reações adversas, quais os ângulos que deverão ser aplicados na radiação, qual a intensidade dela, etc. E o objetivo é sempre tentar destruir o tumor sem danificar ou comprometer todo o tecido que se encontra em redor dele e que está são. Sobre o enquadramento legal desta atividade profissional, Gabriela Castellano explica que, atualmente, existe uma legislação que obriga os centros de radioterapia a terem, no seu quadro de recursos humanos, a figura do físico médico. Contudo, para outras áreas, como a medicina nuclear e o radiodiagnóstico, ainda não existe legislação, mas está-se caminhando nesse sentido. Na medicina nuclear, o usual é utilizarem-se radiofármacos, que são moléculas que possuem elementos radioativos, e que ao serem ingeridas ou injetadas nos pacientes, essas moléculas emitem radiações internas que podem ser utilizadas para se fazerem imagens de determinadas partes do corpo humano. É óbvio que toda a manipulação desses radiofármacos precisa ser feita por profissionais altamente qualificados e especializados, que possam calcular a dose certa que pode ser administrada em determinado paciente, exatamente para que se possa fazer determinada imagem e não outra coisa qualquer que possa prejudicar esse paciente. Por outro lado, como os radiofármacos geralmente são feitos nos próprios centros de medicina nuclear, existe a necessidade de existirem físicos médicos nesses locais, por forma a que o trabalho deles tenha uma sequência lógica, principalmente na interligação com o pessoal de radiofarmácia.

A formação de um físico médico e sua saída para o mercado de trabalho

A física médica é uma disciplina multidisciplinar, onde o físico tem que ter conhecimentos vários, não só no aspecto da física comum, como também nas áreas de medicina, biologia, química e, inclusive, conhecimentos profundos de matemática e computação, porque esse profissional irá lidar  com softwares extremamente complexos e com algoritmos complicados, principalmente para captura e tratamento de imagens com definições de alto padrão, que nada têm a ver com as usuais imagens da radiologia convencional – os tão conhecidos Raios-X. Há quem questione se este profissional é um físico, ou se é um médico: na verdade, ele é um físico e não um médico, mas trabalha lado-a-lado com os médicos, em parceria estreita com eles. Quanto à formação destes profissionais, a Profa. Gabriela Castellano informa:

Vou dar o exemplo da UNICAMP, onde existe um curso de graduação em física médica, em que o aluno faz a maioria de suas disciplinas dentro da área da física básica, passando depois para disciplinas específicas: biologia, medicina, física aplicada à medicina, física de radioterapia, física de me3dicina nuclear, física de radiologia, etc., tudo isso já canalizado, como se vê, para a área médica. São quatro anos de curso, acrescido de um ano de estágio em um hospital ou clínica, e mais um período de residência em física médica num centro de radioterapia, para depois ingressar definitivamente em um hospital ou centro. Contudo, um dos problemas no Brasil, nesta área, é que existem pouquíssimos centros que oferecem esse tipo de residência na área de física médica, mas há a esperança de que esse panorama possa mudar, já que foi lançado recentemente um edital, tendo em vista a possibilidade de serem oferecidas mais bolsas destinadas à residência; como informação complementar, essas residências têm uma carga horária pesada – cerca de 60 horas semanais –, o que demonstra o quanto um físico médico fica preparado para exercer sua atividade.

No Brasil, a demanda por esses profissionais está crescendo muito, mas ainda existem dois problemas que necessitam ser resolvidos: o primeiro, diz respeito à legislação, porque embora seja importante a ação do trabalho do físico médico, esta profissão tem ainda que ser reconhecida legalmente na área específica da radioterapia e essa falta de reconhecimento faz com que muitas clínicas e hospitais ainda prescindam da contratação desses profissionais, o que, para nossa entrevistada, é um erro. O segundo problema diz respeito aos próprios médicos, que são proprietários ou possuem cargos de administração em hospitais, que ainda não perceberam a importância de ter um físico médico ao seu lado, até para gerir e manusear, de forma correta, equipamentos que são extremamente sensíveis e fidedignos, dependendo deles e dos resultados alcançados o sucesso dos diagnósticos e tratamentos, tendo em vista o bem-estar dos pacientes. Fazendo uma comparação com a realidade norte-americana, nesta área o Brasil ainda está engatinhando.

Nos Estados Unidos, o físico médico é o profissional mais bem pago em todas as áreas da Física Aplicada e tem uma demanda muito grande. Por exemplo, no Brasil existem alguns (poucos) equipamentos de ressonância magnética e outros mais dedicados à medicina nuclear, enquanto que nos Estados Unidos existem largas centenas desses equipamentos que estão distribuídos pelos principais hospitais e clínicas. Por outro lado, no Brasil existe apenas um técnico – designado de Cientista Clínico – cuja sua missão – conjuntamente com os pesquisadores – é desenvolver protocolos específicos em ressonância magnética, principalmente no capítulo de geração de imagens: não só ele é o único no Brasil a fazer esse trabalho, como também ele é o único com essa especialidade abaixo da linha do Equador. Comparativamente, só nos Estados Unidos existem cerca de trinta cientistas clínicos para esse objetivo. Agora, imaginemos quantos equipamentos de ressonância magnética existem nos Estados Unidos e quantos existem no nosso país, sublinha a pesquisadora.

O programa Ciência às 19 Horas regressará em março de 2013 com uma programação ainda mais interessante, não só dedicada à comunidade acadêmica e científica, como também, e principalmente, dirigida à sociedade de São Carlos e região.

(Rui Sintra – Jornalista)

16 de março de 2018

Surpresas do Mundo Quântico: o olhar do Prof. Dr. Luiz Davidovich

Quando usualmente se fala em transistores, lasers e RMN (ressonância magnética nuclear), não há qualquer tipo de dificuldade em identificar essas denominações, pois elas estão intrinsecamente ligadas às extraordinárias descobertas feitas no século XX. Passada que é a primeira década do século XXI, o mundo científico não quer abrandar a verdadeira revolução que iniciou há cerca de cem anos: o que era inovação ontem, está desatualizado hoje. A velocidade com que a ciência avança em todas as áreas do conhecimento é impressionante. Embora a física tenha também contribuído – e bastante – para esse incrível turbilhão tecnológico, o certo é que século XXI traz com ele alguns enigmas que estão ligados ao rápido desenvolvimento científico e na procura por mais e melhor. E um dos exemplos de enigmas na física reside nos efeitos quânticos que, por enquanto, ainda não apresentam todas as respostas para os cientistas.

Para debater conosco este tema e suas particularidades, conversamos com um dos mais eminentes físicos brasileiros, o pesquisador, Prof. Dr. Luiz Davidovich, que, por ocasião da segunda edição da SIFSC – Semana Integrada do Instituto de Física de São Carlos, participou no habitual programa intitulado Ciência às 19 Horas, que ocorreu no dia 16 de outubro, através da palestra subordinada ao tema Surpresas do Mundo Quântico.

 

O fenômeno do Emaranhamento

De fato, existem ainda questões em aberto na física quântica, relacionadas com problemas antigos que foram formulados em 1935 por Einstein, Podolsky e Rosen, através de um famoso artigo científico que resultou do designado Paradoxo de EPR, no qual se levantou um dos problemas mais fundamentais da teoria quântica – saber se a mecânica quântica era uma teoria completa, ou se, pelo contrário, continha variáveis escondidas que tinham a ver com o fenômeno do Emaranhamento. Segundo Davidovich, esse fenômeno tem ocupado as mentes dos físicos durante décadas e provocou inúmeras discussões filosóficas entre os anos de 1935 e 1960.

Só em 1964 é que foi possível dar uma formulação matemática a todos esses debates, através da teoria de John Stewart Bell, que, no meu entender, foi uma das grandes contribuições da física no século XX. O que despertava a curiosidade e atenção dos físicos e filósofos dessa época era o fato de que o fenômeno do Emaranhamento, que Einstein classificou como fantasmagórico, poderia talvez ser explicado pela teoria designada de variáveis escondidas: por outras palavras, o Emaranhamento estava associado a correlações muito fortes entre dois objetos e acreditava-se que talvez uma teoria alternativa de física quântica poderia explicar essas correlações, comenta o pesquisador.

De fato, em 1964 John Bell mostrou que havia experimentos que poderiam diferenciar as previsões da teoria quântica e as previsões dessas teorias alternativas. Os experimentos foram realizados e estabeleceu-se que, de fato, as teorias alternativas não eram adequadas para descrever esse fenômeno. Ganhou-se, nos últimos anos, uma enorme compreensão sobre esse fenômeno do Emaranhamento, mas ainda há questões em aberto, conforme explica Davidovich.

Einstein, Podolsky e Rosen referiam-se ao Emaranhamento entre duas partículas, entre dois corpos. Hoje, são produzidos estados emaranhados de muitas partículas. Por exemplo, em laboratórios na Áustria, são produzidos estados emaranhados de catorze átomos. Como entender a matemática desses estados, como classificar o emaranhamento desses estados? Como ordenar esses estados de acordo com a quantidade de emaranhamento que possuem? Tudo isso é uma questão em aberto na física e na matemática e por isso é interessante verificar que essas questões, tão básicas da física contemporânea, encontram ainda sérios desafios muito fortes.

Também apareceram novas ideias para futuras aplicações, que envolvem a criptografia e o aparecimento dos computadores quânticos, tendo como base os trabalhos vencedores do Prêmio Nobel da Física – 2012, da autoria do francês Serge Haroche e do americano David Wineland, que conseguiram manipular partículas quânticas sem as destruir. Para o Prof. Luiz Davidovich, essa história não está bem contada, pois os media ainda não souberam explicar, de forma correta, esses trabalhos:

De fato, isso de manipular partículas quânticas sem as destruir tem sido noticiado da forma como refere, mas na verdade é um pouco mais complexo do que isso. Quando se detecta um fóton, a maneira usual de fazê-lo implica na destruição dele. A detecção de um fóton faz-se através de um aparelho chamado (logicamente) Fóton-Detector e ele tem a propriedade de absorver o fóton. Sabemos que o fóton estava lá a posteriori através do sinal emitido por esse aparelho, que o detectou e que o destruiu.

No grupo de pesquisa de Serge Haroche utilizaram-se experimentos que permitiram detectar, por exemplo, o número de fótons existentes numa cavidade, sem os destruir. Não é que o estado do sistema fique inalterado, como se fala, mas é uma propriedade do sistema, ou seja, é o número de fótons que fica inalterado. Você detecta esse número de fótons com átomos que passam pela cavidade, e esses átomos “sentem” que os fótons estão lá, mas não os absorvem. Isso é o que se chama de Medida Quântica Não Demolidora, porque ela não destrói, não demole os fótons que estão na cavidade. Contudo, isso não significa que o estado fique inalterado, podendo-se mostrar que esses átomos, que mantêm o número de fótons inalterado, tornam a fase – que é uma propriedade do campo eletromagnético – completamente caótica. Eles alteram a fase do campo, mas não alteram o número de fótons: são propriedades complementares, refere o nosso convidado.

 

Computadores mais velozes e códigos criptográficos inquebráveis (?)

Nesse contexto, conforme explicou Davidovich, o que se chama de Medida Quântica Não Demolidora, em geral, mais não é do que uma medida que não altera a variável que está sendo observada, mas que pode alterar completamente a variável complementar. Pode-se fazer uma Medida Quântica Não Demolidora da velocidade de uma partícula, mas para se fazer isso não se destrói a posição da partícula. Os trabalhos de Haroche e Wineland prevêem, segundo os media, que num futuro próximo possam existir computadores ainda mais velozes e códigos criptográficos inquebráveis. Estas afirmações obrigaram-nos a questionar nosso entrevistado se essa é uma afirmação correta e o que estará para vir depois disso. Enfaticamente, Luiz Davidovich dividiu a questão em duas partes, debruçando-se primeiramente nos códigos inquebráveis ou invioláveis, explicando que a designada criptografia quântica permite a transmissão daquilo a que se chama usualmente de chaves criptográficas: então, o que é uma chave criptográfica?

Quando queremos enviar uma mensagem para uma pessoa amiga que está longe, e queremos codificar essa mensagem, precisamos ter uma chave para fazer isso. E o importante é que ambas as pessoas tenham essa chave – a pessoa que envia a mensagem e a pessoa que vai recebê-la, para decodificá-la. Por isso mesmo, enviar chaves de um lugar para o outro é o ponto crucial dessa operação, referiu Davidovich, exemplificando com o clímax transmitido por qualquer filme de suspense, já que essas chaves podem ser capturadas por um espião, que necessariamente não está interessado nas mensagens propriamente ditas. Assim, se os espiões conseguem as chaves, eles poderão ter acesso a todas as mensagens.

O que a física quântica faz é permitir enviar uma chave, de tal forma que se alguém tentar olhar para ela, imediatamente se descobre que o fez isso. Isso está baseado na propriedade fundamental da física quântica, que diz que você não pode medir o sistema sem alterá-lo. Você pode até fazer medidas que não alteram certa propriedade do sistema, mas vai alterar outra. Então, se uma pessoa tenta descobrir qual a mensagem que está sendo enviada, ela necessariamente modifica essa mensagem. Assim, tanto a pessoa que envia a chave, como aquela que a recebe, podem descobrir que houve uma observação dela e aí a chave deixa de ser confiável, pois comparando ambas elas mostram diferenças, salienta o pesquisador.

Quando perguntamos ao Prof. Luiz Davidovich se isso poderá se tornar uma realidade, o pesquisador respondeu Já é uma realidade. Com efeito, em 2007, as eleições em Genebra (Suíça) foram feitas eletronicamente e os votos foram transportados (para serem contabilizados) através da criptografia quântica. Se alguém quisesse violar um voto que fosse seria descoberto imediatamente. Segundo o nosso entrevistado, esse método está sendo usado também na Áustria e na Suíça para conectar matrizes de bancos às suas filiais, em distâncias curtas, mas esta realidade não fica por aqui.

Hoje, estão sendo feitos experimentos para o envio de chaves quânticas a grandes distâncias. Existe uma cooperação que está sendo realizada entre a China, Europa e Austrália, para fazer tudo isso através de satélites, ou seja, serão usados satélites artificiais para estabelecer chaves quânticas. Fantástico, não é? Então, essa é uma fase da informação quântica que já está sendo implantada, remata Davidovich.

Quanto à computação quântica, que é a segunda parte relacionada à primeira questão que colocamos, segundo o nosso entrevistado ela promete muito, tendo começado a despertar um grande interesse, principalmente em determinadas agências governamentais dos Estados Unidos da América, nomeadamente na NSA – National Security Agency, a partir do momento em que houve uma proposta de um matemático que trabalhava nos laboratórios da ATAT – American Telephone and Telegraph Corporation, que mostrou que alguém que possuísse um computador quântico poderia faturar um número em um espaço de tempo exponencialmente mais rápido do que num computador clássico. Mas, o que é faturar um número? Luiz Davidovich explica.

É decompor em números primos, explica o pesquisador. Por exemplo, 15=5×3. Até aqui, nada de anormal, todo mundo sabe isso. Agora, um número como 3.873.984, fica mais difícil descobrir os fatores primos dele. De fato, nos computadores clássicos, o melhor algoritmo conhecido hoje, para faturar um número, leva um tempo relativamente longo. Por isso mesmo, a faturação de números grandes é a base do método criptográfico muito usado atualmente – método RSA -, extremamente utilizado quando estabelecemos contato com os bancos pela Internet. Assim, quem possuir um computador quântico vai poder quebrar todos os códigos existentes e daí a preocupação da NSA.

A partir desse pressuposto, a NSA implantou uma estratégia muito interessante: ela abriu completamente o tema, sem segredos, e passou a frequentar, através de funcionários altamente capacitados, todas as conferências para as quais eram convidadas pessoas de todo o mundo. Na China, que é onde decorre a maior parte dessas conferências, lá está sempre um funcionário de alto escalão (na maioria das vezes, matemático) devidamente credenciado e identificado pela NSA. A agência americana não quer saber de mais nada a não ser verificar se alguém violou algo, por forma a poder mudar imediatamente seus códigos. Contudo, para fazer com que um computador quântico fature números com mais eficácia de que um computador convencional teria que existir uma máquina com um poder quase inimaginável.

Esse computador imaginário teria que ter 1.000 qbits, colocando esse número num estado emaranhado, o que é algo extremamente difícil, quase impossível. Agora, se vai aparecer o computador quântico baseado nas idéias atuais, para quebrar códigos, eu tenho as minhas dúvidas. Por outro lado, atualmente estão sendo feitas demonstrações muito interessantes de computação quântica, usadas para simular sistemas físicos, e nessas simulações consegue-se fazer coisas extraordinárias, como, por exemplo, simular movimentos de camadas de ar na atmosfera, o que é um tema interessantíssimo para a área de meteorologia, explica o palestrante.

 

Luiz Davidovich versus Serge Haroche

O Prof. Davidovich é amigo pessoal e um dos colaboradores brasileiros mais próximos de Serge Haroche, um dos vencedores do Prêmio Nobel da Física deste ano, e essa colaboração vem de há vinte ou vinte cinco anos. Davidovich desloca-se frequentemente a França, onde participa de conselhos de diversos organismos europeus, e propôs-se a falar um pouco sobre essa relação de trabalho com o pesquisador francês, que remonta ao ano de 1986, quando Luiz Davidovich ainda estava na PUC do Rio de Janeiro.

Foi graças a uma licença sabática que decidi ir para França, onde passei um ano com a equipe de Haroche. Quando cheguei lá, a minha intenção era fazer um experimento sobre um dispositivo chamado micro-maser: o maser é um laser que funciona na região de microondas, na área da luz. O micro-maser é um maser microscópico que funciona com apenas alguns átomos de cada vez, numa cavidade ressonante, e esse micro-maser era algo baseado na transição de dois fótons. Eu achei interessante e comecei a trabalhar na teoria desse micro-maser, uma teoria que, para essa especificação, ainda não tinha sido realizada. Cheguei na França com muita vontade e trabalhei dia e noite, durante fins-de-semana: eu estava cheio de gás. Então, deparei-me com problemas de vária ordem que levaram muito tempo para resolver – inclusive, houve um problema que eu resolvi, imagine, no cinema, em plena exibição de um filme. Então, o que eu fiz foi desenvolver essa teoria e o interessante foi que ela demonstrou que o experimento que estávamos planejando com Haroche tinha que ser modificado e mais tarde comprovou-se tudo isso, na experimentação. Foi fantástica essa experiência, esse trabalho em colaboração com Haroche e sua equipe, que tinham a particularidade de ter um humor deveras refinado, extraordinário, recorda nosso entrevistado, sorrindo.

Depois desse ano na França, Davidovich começou a viajar com freqüência para aquele país, sempre trabalhando junto com Haroche e sua equipe em diversos projetos e idéias, sendo que algumas delas não passaram para a fase experimental por falta de equipamentos, mas que, mesmo assim, estão prontas para isso, como é o caso da teleportação.

De fato, o nosso artigo sobre teleportação foi o primeiro a propor o experimento e, curiosamente, mostrou que dava para fazer a teleportação fazendo uma determinada operação lógica entre átomos e campo, que na verdade mais não era do que uma porta lógica alimentada por computação quântica. Claro que na época não sabíamos isso; apenas chamávamos de porta de fase. Seguidamente, trabalhamos na designada Medida Quântica Não Demolidora, propondo experimentos; no artigo que foi feito com base nesse trabalho conjunto com a equipe de Haroche – que é um dos artigos mais citados –, tivemos a idéia de fazer um experimento que envolveria a produção de um estado do campo eletromagnético análogo ao Gato de Schrodinger, teoria datada de 1935, da autoria do físico Erwin Schrodinger. Nesse experimento seria produzido, numa cavidade, um campo que estaria numa superposição de dois estados, ou seja, uma cavidade acesa e apagada, ao mesmo tempo, uma superposição dessas duas situações. Era uma superposição que você pode interpretar, classicamente, cada uma delas – sabemos o que é uma cavidade acesa e o que é uma cavidade apagada, mas uma cavidade acesa e apagada, ao mesmo tempo, é difícil de imaginar, é impossível imaginar: é como o Gato de Schodinger, que está vivo e morto, ao mesmo tempo. No entanto, isso é uma possibilidade quântica. Na sequência desse artigo, publicamos, em 1996, um outro artigo em que mostramos como é que poderia ser medida essa superposição, mostrando, igualmente, como é que, com o tempo, essa superposição quântica estranha se transforma numa alternativa clássica. Em outras palavras, as propriedades quânticas desaparecem devido ao contato daquele sistema com o ambiente, ou seja, o ambiente destrói as propriedades quânticas. Nós provamos isso, na teoria, explica Davidovich.

Esse experimento foi feito ainda no decurso de 1996 e foi muito badalado na época, exatamente pela propriedade da perda de coerência. Davidovich e Haroche tiveram ainda uma outra cooperação na área de laser, que incidiu sobre uma teoria do laser microscópico.

Foi um trabalho intenso nessa época. Em 1994 transferi-me para a UFRJ e a partir daí dediquei-me exclusivamente á teoria, ao ponto de criar um laboratório – para pasmo da comunidade de físicos. É um laboratório para teóricos, mas com uma interligação fortíssima com a área experimental, que acolhe nomes de grandes pesquisadores. São verdadeiramente fantásticos os resultados obtidos nesse laboratório, com artigos de grande impacto publicados em diversas revistas, como, por exemplo, na Nature ou na Science, recorda o pesquisador.

A colaboração com França deu e continua a dar frutos muito importantes, principalmente para a ciência brasileira. Luiz Davidovich e Serge Haroche orgulham-se de sua amizade e continuam a trocar experiências científicas e a se visitarem mutuamente. Contudo, existem outras colaborações científicas com França, não necessariamente com o grupo de Haroche, que têm contribuído – e muito – para o desenvolvimento da ciência nacional.

E os trabalhos nas universidades brasileiras estão aí, como prova disso.

Rui Sintra – jornalista

16 de março de 2018

Rumo à descoberta do bóson de Higgs

Subordinada ao tema O que é a massa? E o bóson de Higgs, decorreu no dia 18 de setembro, no Auditório Prof. Sergio Mascarenhas, mais uma edição do programa Ciência às 19 Horas, tendo desta vez como palestrante convidado o Prof. Dr. Carlos Garcia Canal, docente do Departamento de Física da Universidad Nacional de La Plata – Argentina.

A palestra apresentou um breve relato das origens de massa e inércia, e, através da evolução de conceitos sobre a constituição da matéria, foi apresentada a argumentação que a massa dos corpos macroscópicos se deve à massa e interações de seus constituintes, ou seja, os átomos, núcleos atômicos e partículas elementares, como quarks e elétrons.

Finalmente, o palestrante lançou a discussão sobre o problema da origem da massa no contexto das teorias atuais que descrevem as interações (forças) entre corpos, como um processo de troca de partículas ditas intermediárias, enfatizando os últimos passos dados rumo à descoberta do bóson de Higgs.

Antes mesmo de começar sua palestra e em conversa informal com a Assessoria de Comunicação do IFSC, Carlos Garcia Canal afirmou que a principal intenção de sua participação no programa Ciência às 19 Horas era tentar partilhar com o público o entendimento que se tem da massa, mas a um nível microscópico, já que existem diferenças nos conceitos tradicionais da mesma em nossa vida cotidiana.

A massa clássica, que é uma medida da inércia que está relacionada com o nosso peso – o peso de um ser humano – sofre modificações conceptuais quando está em causa a relatividade, ou seja, quando a física se coloca perante uma velocidade próxima à velocidade da luz. Por outro lado, a física também está sendo toda ela repensada ao nível da mecânica quântica, já que ela tem uma vigência nos níveis atômico e subatômico. Através da relatividade, aprendemos que a massa e a energia podem se correlacionar; se você dispõe de energia, ela pode ser materializada em partículas quânticas – comenta Garcia Canal.

Para o palestrante, a massa está diretamente relacionada com as interações fundamentais da Natureza – elétrica e magnética -, interações fortes que têm a ver com a composição dos prótons e neutrons do núcleo atômico; e as interações fracas, que estão relacionadas com a desintegração dos núcleos por emissão de elétrons.

Neste momento trabalhamos com uma teoria relativa às partículas que intervêm nas interações e que são desprovidas de massa; mas, na realidade, quer as partículas da matéria, quer as partículas que levam à interação fraca – que são as portadoras da interação fraca -, todas elas têm massa. Então, o conflito entre uma simetria que é a base da compreensão das interações e o fato de que essa simetria não permite a presença de massa é resolvido através de uma situação muito particular, que é a realização de uma simetria incompleta; ou seja, a simetria está presente nas equações e no sistema, mas ela não apresenta nas soluções. É a isto que chamamos de mecanismo de Higgs. Para colocarmos em marcha esse mecanismo precisamos que exista um novo ingrediente da teoria – o bóson de Higgs – refere o palestrante.

No último dia 04 de julho, no acelerador de partículas LHC do laboratório CERN, em Genebra, Suíça, foi descoberto um bóson “compatível” com o bóson de Higgs, que a comunidade científica mundial pensa existir, mas onde não há ainda uma demonstração precisa da sua existência. Este recente evento faz o Prof. Carlos Garcia Canal acreditar que se está muito próximo dessa descoberta, embora o que se tenha descoberto em julho último seja apenas um bóson compatível, mas constituído apenas por uma imagem que necessita ter melhor definição.

É de fato uma imagem entusiasmante, mas temos que conseguir obter, através de vários experimentos, outros dados que confirmem que todas as características desse bóson que foi descoberto coincidam plenamente com as características que devem fazer parte do bóson de Higgs, por forma a completar a teoria – sublinha o pesquisador. Confesso que esta descoberta do dia 04 de julho me entusiasmou muito. Repare que há cerca de um século o homem desconhecia que a matéria tinha elétrons e hoje a vida, como a conhecemos, é inconcebível sem os elétrons. É claro que o bóson de Higgs não irá ter o mesmo papel ou impacto que teve o elétron, até porque se tratam de coisas diferentes; mas vai proporcionar uma compreensão relativa à estrutura da matéria, mais íntima, interessante e detalhada, com um ingrediente que eu acho interessantíssimo, que é o fato do bóson de Higg produzir a massa das partículas por interação e, por isso, o campo de Higgs fazer parte do nosso cotidiano, estar em nosso redor, por toda a parte – conclui o cientista.

Todas as dúvidas sobre a existência do bóson de Higgs poderão ser tiradas até ao final deste ano – ou no máximo até aos primeiros meses de 2013 -, até porque o acelerador de partículas do CERN deveria ter já parado seu funcionamento, por motivos de manutenção, calibração e afinação e isso não aconteceu. A descoberta realizada no dia 04 de julho alterou todo o planejamento e os cientistas estão trabalhando vinte e quatro horas por dia para poderem coletar novas informações que poderão comprovar (ou não) a consistência do famoso bóson de Higgs.

(Rui Sintra – jornalista)

16 de março de 2018

A Física do Futebol

Pela primeira vez, desde que foi criado, o programa “Ciência às 19 Horas” abordou um tema que é muito querido para todos os brasileiros: o futebol. Essa abordagem não se deu através de aspectos esportivos, competitivos ou técnicos, mas sim utilizando a Física como forma de explicar inúmeros conceitos inerentes a como marcar o golo perfeito, como fazer a bola descrever um ângulo em sua trajetória, ou a forma como reduzir as chances de um goleiro defender um pênalti.

Esta interessante palestra, que decorreu no dia 17 de abril, a partir das 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC-USP), esteve sob a responsabilidade da Profa. Dra. Emico Okuno, pesquisadora e docente do Instituto de Física da USP, ao apresentar o tema “A Física do Futebol”. Com bacharelado em Física na Faculdade de Filosofia, Ciências e Letras da USP, em 1960, e doutorado na mesma área e universidade, em 1971, a Profa. Okuno fez pesquisa científica em Raios Cósmicos com o Prof. Cesare Lattes, entre 1959 e 1962, tendo estagiado com o Prof. Masatoshi Koshiba (Prêmio Nobel da Física 2002). Experiente na área de Física-Médica – efeitos biológicos das radiações ionizantes e não-ionizantes, proteção radiológica, e biomecânica, e de outras temáticas relacionadas com desastres e acidentes nucleares, Emico Okuno é autora e co-autora de seis livros, entre os quais se conta aquele que deu o título a esta palestra – “A Física do Futebol” –, uma obra escrita em parceria com o Prof. Dr. Marcos Duarte, igualmente docente da USP.

De trato muito fácil, extraordinariamente alegre, ativa e atenta, a Profa. Okuno sente-se como peixe na água ao falar de Física, a ponto de, por vezes, esquecer que já está aposentada compulsoriamente há cerca de cinco anos: Como eu continuo a dar aulas regularmente, por vezes esqueço que já estou aposentada faz tempo. Mas dou aulas com muito prazer, porque gosto de ensinar, gosto de formar jovens. Tanto Okuno como Marcos Duarte dão aulas a alunos que não pertencem à área da Física – biólogos, farmacêuticos, biomédicos, etc –, ou que simplesmente não gostam dessa área do conhecimento: Esse é o aspecto mais curioso desta nossa postura, devido ao fato de sempre termos apostado – e vamos continuar apostando – na formação dos estudantes. Temos que os atrair para esta magnífica área do conhecimento que se encontra presente em tudo na nossa vida – refere a Profa. Okuno.

A ideia de se falar sobre a Física do Futebol nasceu porque o futebol é a paixão nacional e mundial, sendo que o único país que não se sente tão atraído por este esporte é os Estados Unidos. Até no Japão o futebol é, agora, uma paixão. Os conceitos da física, no futebol, são muito complexos e variados e encontram-se sempre presentes nos jogos. Okuno dá o exemplo da marcação de um pênalti: Você calcula a força do chute do jogador, a intensidade e direção do vento, humidade no ar, o impacto da chuteira na bola e da bola na grama, a velocidade e o tempo que ela percorre até ao goleiro: impossível defender, a não ser por uma questão de sorte, que é o que acontece habitualmente. Repare que muitos goleiros fixam o olhar na coxa de quem vai rematar, tentando adivinhar para que lado é que a bola vai, quando deveriam olhar exatamente para a bola, pois é nela que os efeitos da física acontecem. Geralmente, o posicionamento do corpo de quem remata a gol não indica para que lado vai a bola – muito pelo contrário. Se repararmos com atenção, na grande maioria dos pênaltis os goleiros saem do gol antes dos remates: portanto, como eu já disse, é uma questão de sorte eles pegarem a bola. Por outro lado, quando você vê a bola de futebol descrever uma curva após um remate ou um cruzamento, essa trajetória não é ocasional; o jogador treinou bastante tempo para dar esse particular efeito na bola, ou seja, treinou diversos componentes da Física, sem sequer se aperceber disso. Imagine se ele tivesse estudado um pouco de Física e pudesse aplicar esse aprendizado no jogo: ele seria, possivelmente, muito mais perfeito e eficaz no seu desempenho em campo. Se ponderarmos sobre isso tudo, se essas equações fossem aplicadas nos treinos dos jogadores, acredito que eles aumentariam substancialmente seu desempenho – refere nossa entrevistada.

Os conceitos da física no futebol não passam apenas por aquilo que foi referido acima; eles também passam pela própria estrutura da bola. Antigamente, as bolas de futebol tinham 18 gomos, depois passaram a ter 12 e, seguidamente, apresentaram 32 gomos. Na última copa do mundo, a famosa Jabulani tinha pouquíssimos gomos e tudo isso tem uma influência drástica em termos da física, explica Emico Okuno: Essa questão da Jabulani foi bastante debatida nessa copa, quando muitos jogadores reclamaram da bola, já que eles tiveram bastantes dificuldades, quer no domínio da bola, em passes, cruzamentos, remates, porque ela se comportava de forma estranha, tomava trajetórias diferentes ao que o jogador queria, escorregava e saltitava nas mãos dos goleiros, tudo isso devido à sua composição estrutural.

Quando se realizou o lançamento do livro que deu título a esta palestra do programa “Ciência às 19 horas” – A Física do Futebol – a Profa. Okuno esperava que apenas comparecessem à cerimônia alunos e colegas da USP, mas, de fato, apareceu muita gente ligada ao esporte e ao futebol, em particular, alguns técnicos de futebol e profissionais ligados à área da educação física. No exterior utiliza-se já a ciência para melhorar aspectos competitivos, incluindo o futebol; então, questiona nossa entrevistada, porque não fazer isso também no Brasil, que é o país do futebol?

Para a nossa entrevistada, não é só no futebol que os conceitos da física se fazem presentes, mas sim em todos os esportes que utilizam – ou não – uma bola. Daí que, na opinião da pesquisadora, se todos os atletas tivessem uma formação básica na área da física, eles iriam apresentar um maior desempenho competitivo.

 

(Rui Sintra – jornalista)

16 de março de 2018

Nathan Jacob Berkovits ministra palestra sobre o tema “Teoria das Supercordas: A Física do Futuro?”

Em mais uma edição do programa “Ciência às 19 horas”, decorreu no dia 26 de outubro, pelas 19 horas, no Auditório Professor Sérgio Mascarenhas (IFSC), a palestra intitulada “Teoria das Supercordas: a Física do Futuro?”, apresentada pelo Prof. Dr. Nathan Jacob Berkovits, do Instituto de Física Teórica da UNESP.

A teoria das supercordas, também chamada de “teoria de tudo”, é quase que uma “candidata” para a resolução de conflitos clássicos colocados entre a Relatividade Geral e a Mecânica Quântica, tendo como meta unificar todas as forças e partículas da Natureza.

Além disso, a teoria tem aplicações em áreas como matemática, matéria condensada e física de íons pesados.

Na palestra, o professor Berkovits – que é um dos principais pesquisadores do Brasil dedicados à teoria das supercordas – apresentou um panorama dessa área de pesquisa, tendo discutido, com entusiasmo, as possibilidades dessa teoria, bem como seus problemas fundamentais, com uma platéia interessada que lotou o Auditório do IFSC.

Mesmo antes de iniciar a sua palestra, o Prof. Nathan teve a amabilidade de conversar com a Assessoria de Comunicação do IFSC sobre este assunto.

Segundo o pesquisador, existe grande possibilidade da “Teoria das Supercordas” ser a Física do Futuro:

De fato, as Supercordas é uma teoria de Gravitação, que também inclui outras forças. Como modelo de Gravitação Quântica ela já funciona, mas como modelo comum para todas as forças ela não passa de uma mera possibilidade, que ainda não foi confirmada.

Segundo Nathan, será necessário fazer muito mais experiências com a finalidade de obter mais resultados teóricos, de modo a se confirmar – ou não – se realmente essa teoria inclui todas as forças da Natureza, ou somente a Gravitação.

Pessoalmente, alimento uma grande esperança de que essa teoria possa descrever as forças existentes na Natureza, mas isso não quer dizer que seja o fim de todas as teorias. Com certeza que irá surgir outra teoria melhor, que irá substituir a Teoria das Supercordas. Contudo, esta teoria é, basicamente, uma aproximação a algo que surgirá no futuro. Realmente, na Teoria das Supercordas ainda não enxergamos o que virá a seguir. Ainda não entendemos com profundidade esta teoria: alguns falam que quando chegarmos a esse entendimento iremos descobrir o caminho seguinte. Portanto, é prematuro afirmar se esta teoria vai descrever todas as forças, ou não. Existem várias coisas dentro desta teoria que ainda não conseguimos entender e que estão como que escondidas. O nosso desafio é entender e descobrir isso e ir mais além.

Rui Correia Sintra – Jornalista

 

14 de março de 2018

Das margens para o centro: A história da segunda revolução quântica

O palestrante apresentará um histórico dos aspectos intelectuais e contextuais associados à renovação da pesquisa sobre os fundamentos da física quântica, a que o físico francês Alain Aspect chamou de “a segunda revolução quântica”.

Download da apresentação

 

 

 

 


Resenha

Na última palestra de 2016, inserida no programa Ciência às 19 Horas, coube ao Prof. Dr. Olival Freire Jr., docente e pesquisador da Universidade Federal da Bahia (UFBA) dissertar sobre o tema Das margens para o centro ? A história da segunda revolução quântica. O título desta palestra foi propositalmente enigmático, remetendo para aquilo que alguns chamam de 2ª revolução quântica, que na verdade é um conjunto de conceitos e técnicas que se tornaram disponíveis nos anos 60, 70 do século XX, em contraposição com a primeira revolução que aconteceu no início desse mesmo século.

Prof. Dr. Olival Freire Jr

Essa 2ª revolução quântica, que teve enormes impactos na ciência e que promete outros ainda maiores, promete uma alteração no modo de processamento na área de informação quântica. De fato, segundo o palestrante, são apenas promessas. Essa área de informação quântica é, hoje, uma área da física muito quente, já que aconteceram atividades que foram desenvolvidas às margens da física. Não eram atividades, nem pesquisas muito bem valorizadas ou consideradas: eram pesquisas que trabalhavam com teorias chamadas heterodoxas, que, na física, podem representar o final da carreira de um jovem físico, se ele se dedicar excessivamente a trabalhos desse tipo, por exemplo.

A ideia de margem e centro é muito usual na ciência, para distinguir o que é mainstream, como explica Olival Jr: O que significa aquela agenda de pesquisa que é perfeitamente bem valorizada numa comunidade científica e o que é que são os temas que não são muito bem considerados, por razões diversas? Procuro sempre argumentar que parte dos conceitos essenciais do que chamamos de 2ª revolução quântica foi formulada num contexto de controvérsias, num contexto em que alguns desses proponentes eram muito mal considerados na comunidade dos físicos, na comunidade científica. Hoje, são altamente bem considerados, recebem premiações e tudo mais. Mas, por que o meu interesse nisso? Não é propriamente um interesse de trazer à luz alguém que foi valorizado na sua trajetória, embora isso seja importante, mas também valorizar e destacar, na ciência, aqueles que, no seu devido tempo, não tiveram destaque. Mas, o meu principal interesse é mostrar que esse é um bom caso para a gente compreender o quão complexa é a atividade científica. Então, ele, para mim, serve como um bom argumento contra qualquer visão simplista do que seja a atividade científica. O que é que eu chamo de atividade simplista? Tipicamente você pensa “Não! Ciência é você fazer os dados experimentais, a partir daí extrair uma teoria e por aí afora”. Não é assim. Ciência envolve muita conjectura, muita imaginação. Ciência tem uma atividade com uma dimensão social: o modo como você, jovem estudante, se relaciona com os seus colegas, o modo como você entra numa controvérsia. Então, o desenvolvimento da história da ciência, portanto, é um fenômeno tão complexo quanto os fenômenos complexos que a própria ciência estuda, enfatiza o pesquisador.

14 de março de 2018

Somos um Holograma?

O tempo e o espaço parecem fluidos, suaves e contínuos. Isso é verdade ou será apenas uma ilusão? Ninguém sabe, mas podemos especular. Uma possibilidade bem radical estudada por vários físicos é que nosso Universo, percebido como uma realidade tridimensional, é na verdade um holograma.

 

 

 

 

 


Resenha

Prof. Pedro Vieira

O tempo e o espaço parecem fluidos, suaves e contínuos. Isso é verdade ou será apenas uma ilusão? Ninguém sabe, mas podemos especular. Uma possibilidade bem radical estudada por vários físicos é que nosso Universo – percebido como uma realidade tridimensional – é na verdade um holograma.

Este é um breve resumo da palestra que o Prof. Pedro Vieira* proferiu no passado dia 04 de outubro, em mais uma edição do programa Ciência às 19 Horas, subordinada ao tema Somos um holograma?.

Mas, como podemos ser um holograma?

Muitas vezes, na nossa intuição, algo nos parece suave e contínuo, como um líquido, mas, de fato, nem tudo é assim, explica o pesquisador convidado. Um líquido, como a água, parece à primeira vista, suave, que se deixa escorrer pela mão, até por vezes de forma poética, mas na realidade e ao contrário do que se possa supor de imediato, ele está cheio de moléculas: portanto, não é nada contínuo e suave. Por vezes, também algo que à distância parece suave, na verdade, quando é visto mais perto é totalmente diferente. E, se com o líquido podemos observar que ele é uma ilusão em termos de suavidade, podemos questionar se com o espaço, com o Universo, acontece a mesma coisa. Será que o espaço é suave, que eu posso me deslocar até qualquer ponto, ou que eu posso embalar minha mão tranquilamente? Parece suave esse movimento que acabamos de descrever Não será apenas uma mera ilusão?

O certo é que, na natureza, ainda não encontramos nada suave. Por exemplo, uma mesa não é suave, pois ela está cheia de moléculas. Então, será que o espaço é a primeira coisa que é suave? Não sabemos!!! O certo é que o espaço está cheio de moléculas. Contudo, existe outra hipótese, que é o próprio espaço ser uma ilusão, que ele não existe, que nós mesmos somos todos uma ilusão, podendo ser, inclusive, um holograma. A ideia é, através do pensamento, entender qual é a natureza do espaço-tempo, colocando perguntas teóricas e inventando experiências imaginárias, sendo que uma delas consiste em imaginar tentar ver qual é a quantidade de bagunça que existe em uma determinada região do espaço-tempo, comenta Pedro Vieira.

Imaginemo-nos, por exemplo, numa sala cheia de bagunça ? mesas, cadeiras, camas, roupas, tapetes, etc. -, tudo em desordem. Se tivermos uma sala duas vezes maior, imediatamente somos induzidos a dizer que a bagunça vai ser duas vezes maior, ou seja, vai ter duas mesas, uma série enorme de cadeiras, várias camas e tapetes, ou seja, tudo multiplicado por dois. Contudo, não é bem assim, segundo o palestrante. Quando estudamos o espaço-tempo e quando colocamos a questão se esse espaço duplicado também duplica a bagunça, a designada desordem, chegamos à conclusão que isso não é verdade, ou seja, a bagunça não é proporcional ao volume do espaço, mas sim à sua área ? e isso é uma surpresa.

Segundo nosso entrevistado, se observarmos uma casa, do lado de fora, chegamos à conclusão de que se a duplicarmos, de fato a bagunça existente dentro dela é proporcional à área das paredes e não ao volume. Na verdade, a casa está vazia, contudo as paredes estão carregadas de coisas e se duplicarmos o tamanho das paredes, aí sim, as ?bagunças? existentes nas paredes duplicam também. Pedro Vieira acrescenta que se traduzirmos essa ideia para o tema do espaço-tempo, talvez não exista nada dentro dele e talvez toda a informação esteja em uma membrana, em um holograma que estaria no fim desse espaço-tempo. É uma ideia bem radical, mas é a melhor que temos até agora, afirma Pedro Vieira. Esta linha de raciocínio vai exatamente ao encontro dos designados buracos-negros, colocando-nos questões, como, por exemplo, o que são eles e como poderemos estudar e encontrar a quantidade de desordem que existe dentro deles. Para o palestrante tudo isso são experiências de pensamento: a desordem aumenta sempre, de igual forma como quando você quebra um copo, ou um prato e os pedaços não se unem mais. Comparativamente, se enchermos uma sala com uma quantidade enorme de bagunça, de objetos, em determinado momento a sala fica tão cheia que forma buracos-negros: claro que isto que acabo de dizer é uma experiência de pensamento.

Se juntarmos essas ideias explanadas pelo Prof. Pedro Vieira, iremos concluir que o buraco-negro é o local onde existe mais bagunça. Quando um buraco-negro é formado, ele não se desfaz mais. A questão dos buracos-negros é mais simples do que estudar um ambiente, como uma sala ou o interior de uma casa. Para os físicos, estudar um buraco-negro é algo que se consegue fazer com alguma facilidade. Esta experiência do pensamento leva-nos à conclusão que a desordem de um buraco-negro é proporcional à área do mesmo não ao seu volume. Assim, se é verdade que um buraco-negro tem mais bagunça que o interior de uma casa ou de uma sala, então o que está dentro delas é real, ou seja, não existe nada dentro delas, pois toda a informação está localizada nas paredes. Essa é a ideia de holograma, que é uma imagem que parece tridimensional, mas que na verdade é apenas bidimensional, conclui o pesquisador.

*Pedro Vieira pesquisador do ICTP South American Institute for Fundamental Research – ICTP/SAIFR, IFT/UNESP – Perimeter Institute for Theoretical Physics, Ontario, Canada, será o palestrante, interagindo com o público de uma forma muito peculiar: ele falará apenas dez minutos sobre o tema e discutirá os pormenores de sua abordagem com os espectadores, numa espécie de bate-papo direto.

13 de março de 2018

Primeiros imperadores do Brasil: a física pôde estudá-los!

Em 2012, foi realizada uma pesquisa multidisciplinar nos restos mortais do Imperador D. Pedro I e de suas esposas – D. Leopoldina e Amélia -, que estão depositados na Capela Imperial do Monumento à Independência, em São Paulo. Dom Pedro I é uma das principais personalidades da história do Brasil. Durante sua liderança, tornou-se o principal responsável pela proclamação da independência do Brasil de Portugal, em 1822, fundando assim o Império do Brasil no mesmo ano.

Este trabalho de arqueologia multidisciplinar envolveu vários grupos de pesquisadores com metodologias de análises complementares. O trabalho realizado também utilizou vários estudos físico-químicos para entender os materiais e as condições de conservação – ou não – dos restos mortais dos imperadores do Brasil. Particularmente, o Instituto de Física da Universidade de São Paulo, através do grupo de física aplicada com aceleradores, auxiliou na caracterização dos materiais dos objetos existentes nos restos mortais dos imperadores.

Neste seminário, a palestrante demonstrará como as análises por metodologias físicas permitiram compreender melhor a composição química dos objetos (metais, ossos, tecidos, etc.) associados aos remanescentes humanos, bem como as degradações ocorridas devido à contaminação sofrida no ambiente em que os materiais foram encontrados.


Resenha

Profa. Márcia de Almeida Rizzutto

Inserida na programação da SIFSC-2015 ? Semana Integrada do Instituto de Física de São Carlos, ocorreu no dia 29 de setembro, cerca das 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP), mais uma edição do programa Ciência às 19 Horas, que na circunstância trouxe a Profa. Dra. Márcia de Almeida Rizzutto, docente e pesquisadora do Instituto de Física da Universidade de São Paulo, que apresentou a palestra intitulada Primeiros imperadores do Brasil: a física pôde estudá-los!

A apresentação de Márcia Rizzutto deu ênfase ao fato de, em 2012, ter sido realizada uma pesquisa multidisciplinar nos restos mortais do Imperador D. Pedro I e de suas esposas – D. Leopoldina e D. Amélia -, que se encontram depositados na Capela Imperial do Monumento à Independência, em São Paulo. Como é do conhecimento público, D. Pedro I é uma das principais personalidades da história do Brasil, tendo sido, durante sua liderança, o principal responsável pela proclamação da independência do Brasil de Portugal, em 1822, fundando assim o Império do Brasil no mesmo ano.

Este trabalho de arqueologia multidisciplinar envolveu vários grupos de pesquisadores com metodologias de análises complementares, um trabalho complexo que também utilizou vários estudos físico-químicos para entender os materiais e as condições de conservação, ou não, dos restos mortais dos imperadores do Brasil. Particularmente, o Instituto de Física da Universidade de São Paulo, através do grupo de física aplicada com aceleradores, auxiliou na caracterização dos materiais dos objetos existentes nos restos mortais dos imperadores.

Nesta palestra, Márcia Rizzutto mostrou como as análises por metodologias físicas permitiram compreender melhor a composição química dos objetos (metais, ossos, tecidos, etc.), associados aos remanescentes humanos, bem como as degradações ocorridas devido à contaminação sofrida no ambiente em que os materiais foram encontrados.

De fato, esse trabalho iniciou-se a partir de um projeto de mestrado em Arqueologia da historiadora Valdirene Ambiel, cuja proposta foi estudar os remanescentes humanos dos imperadores e de suas esposas. Ela fez esse projeto dentro do Museu de Arqueologia e Etnologia da USP, inserido no sistema de pós-graduação, obviamente com todas as autorizações junto ao IPHAN e aos descendentes da família imperial. A ideia foi questionar quais técnicas – físicas, químicas, biofísicas, de geociência – seriam utilizadas e como poderíamos estudar esses objetos para conseguir tirar, ou obter, a maior quantidade de informações possíveis.

Devido às técnicas, houve parcerias com cerca de dez instituições e de vários pesquisadores que auxiliaram no trabalho. O projeto foi gerado no MAE ? Museu de Arqueologia e Etnologia, da Universidade de São Paulo, e teve a participação do IPEM ? Instituto de Pesos e Medidas, para que se pudessem fazer todas as coletas de gases. Não sabíamos quais seriam as condições que encontraríamos ao abrir esses corpos, então houve uma preocupação muito grande com contaminação. Foi feito um pedido para que fosse realizada uma cromatografia gasosa, para que pudéssemos identificar se havia algum perigo nesse sentido. Depois, o pessoal da Microbiologia da USP fez toda uma coleta para crescer fungos e bactérias, com o intuito de analisar quais danos esses organismos poderiam causar, para que, depois, pudéssemos fazer as análises. Então, nesse inventário, foram discutidas todas as possibilidades, que incluíram a coleta e abertura dos caixões, porque havia questionamentos sobre os corpos, principalmente sobre o de D. Pedro. Fizemos um cronograma com algumas questões sobre as análises que seriam feitas caso os corpos estivessem em determinadas condições, etc, conta Márcia Rizzutto.

Em um primeiro momento, a ideia foi fazer a radiografia, porque sabia-se da existência das ossadas e haviam questionamentos sobre as doenças e causas da morte da Dona Leopoldina e do próprio D. Pedro. Tanto para a pesquisadora, como para seus colegas, foi muito interessante, porque a Faculdade de Medicina absorveu a ideia e conseguiu-se fazer as tomografias, que foram executadas pela Faculdade de Medicina. Os corpos foram retirados do mausoléu durante o período da noite, prolongando-se o trabalho por toda a madrugada, com todo um sistema complexo e sob sigilo absoluto, no sentido de salvaguardar eventuais sensacionalismos da mídia. Fomos até o Hospital Universitário, pegamos os três corpos, fizemos as tomografias e trouxemos os corpos de volta. Mas a Faculdade de Medicina se empenhou em fazer e auxiliar as análises. Muitas das informações obtidas com as tomografias serão usadas pela Valdirene em seu projeto de doutorado, já que agora ela também está mais vinculada à Faculdade de Medicina. Esse trabalho foi realizado durante o ano de 2012 e terminou em 2013. Agora ela está no meio do doutorado, então foi um rico material para o mestrado, no qual Valdirene focou bastante na parte histórica e arqueológica, comenta Márcia Rizzutto.

Este trabalho revelou, por exemplo, que D. Pedro I fraturou ao longo de sua vida quatro costelas do lado esquerdo, consequência de dois acidentes — uma queda de cavalo e quebra de carruagem. Isso teria prejudicado um de seus pulmões e, consequentemente, agravado uma tuberculose que causou sua morte aos 36 anos, em 1834.

13 de março de 2018

Onde a Física e a Medicina se encontram: Física Médica e Neurofísica

O que pode fazer um físico em um hospital ou uma clínica? O físico médico é um físico ou é um médico? Como a Física pode auxiliar no entendimento do cérebro humano e suas doenças? Esta palestra responderá a estas e outras questões, abordando um pouco da história do entrelaçamento entre as áreas de Física e Medicina e descrevendo a profissão e áreas de atuação de um Físico Médico, profissional cuja demanda está aumentando no mercado de trabalho. Também falará sobre a área de pesquisa multidisciplinar conhecida como Neurofísica, em que não só a Física e a Medicina, mas também a Biologia, Psicologia, Computação e Química se encontram para desvendar os mistérios do cérebro humano.

 

Download da apresentação


Resenha

Chegou ao fim a programação estipulada para o ano de 2012 do programa Ciência às 19 Horas. Na última edição, realizada no dia 13 de novembro, que decorreu no Auditório Prof. Sérgio Mascarenhas (IFSC), foi dado destaque ao tema Onde a Física e a Medicina se encontram: Física Médica e Neurofísica, uma palestra apresentada pela Profa. Dra. Gabriella Castellano, docente Grupo de Neurofísica do Instituto de Física Gleb Wataghin (UNICAMP).

Nesta interessante palestra, a convidada incidiu seu olhar sobre a atividade de um físico médico, ainda pouco conhecida entre nós, bem como o entrelaçamento que existe entre as áreas da Física e da Medicina nesse seu trabalho.

As áreas mais importantes da designada física médica são a radioterapia, medicina nuclear e a radiologia ou radiodiagnóstico, sendo que todas elas envolvem o manuseamento de equipamentos complexos, lidando com radiação ionizante. Daí a necessidade, segundo a palestrante, de se ter um profissional que tenha conhecimento, aptidão e especialização neste tipo de radiação, sabendo como ela interage com os tecidos do corpo humano e que danos e benefícios ela pode causar nas pessoas: esse profissional é o físico médico.

Sempre que uma estrutura hospitalar possua equipamentos desse tipo, torna-se necessária a presença de um físico médico. Atualmente, os hospitais têm investido na compra de equipamentos de radioterapia, que servem, principalmente, para o tratamento de câncer: daí que os físicos médicos sejam considerados uma peça fundamental nesses procedimentos, porque uma vez que o médico diagnostica qual é o tipo de câncer que um paciente tem, prescrevendo um tratamento, quem irá fazer o planejamento desse mesmo tratamento, juntamente com o médico, será o físico médico, cabendo a este sugerir qual será o melhor tipo de terapia que irá ser utilizado para tratar esse tumor, de que forma é que a radiação irá ser canalizada, se haverá riscos de reações adversas, quais os ângulos que deverão ser aplicados na radiação, qual a intensidade dela, etc. E o objetivo é sempre tentar destruir o tumor sem danificar ou comprometer todo o tecido que se encontra em redor dele e que está são. Sobre o enquadramento legal desta atividade profissional, Gabriela Castellano explica:

Atualmente, existe uma legislação que obriga os centros de radioterapia a terem, no seu quadro de recursos humanos, a figura do físico médico. Contudo, para outras áreas, como a medicina nuclear e o radiodiagnóstico, ainda não existe legislação, mas está-se caminhando nesse sentido. Na medicina nuclear, o usual é utilizarem-se radiofármacos, que são moléculas que possuem elementos radioativos, e que ao serem ingeridas ou injetadas nos pacientes, essas moléculas emitem radiações internas que podem ser utilizadas para se fazerem imagens de determinadas partes do corpo humano. É óbvio que toda a manipulação desses radiofármacos precisa ser feita por profissionais altamente qualificados e especializados, que possam calcular a dose certa que pode ser administrada em determinado paciente, exatamente para que se possa fazer determinada imagem e não outra coisa qualquer que possa prejudicar esse paciente. Por outro lado, como os radiofármacos geralmente são feitos nos próprios centros de medicina nuclear, existe a necessidade de existirem físicos médicos nesses locais, por forma a que o trabalho deles tenha uma sequência lógica, principalmente na interligação com o pessoal de radiofarmácia.

A formação de um físico médico e sua saída para o mercado de trabalho

A física médica é uma disciplina multidisciplinar, onde o físico tem que ter conhecimentos vários, não só no aspecto da física comum, como também nas áreas de medicina, biologia, química e, inclusive, conhecimentos profundos de matemática e computação, porque esse profissional irá lidar  com softwares extremamente complexos e com algoritmos complicados, principalmente para captura e tratamento de imagens com definições de alto padrão, que nada têm a ver com as usuais imagens da radiologia convencional, os tão conhecidos Raios-X. Há quem questione se este profissional é um físico, ou se é um médico: na verdade, ele é um físico e não um médico, mas trabalha a par com os médicos, em parceria estreita com eles. Quanto à formação destes profissionais, a Profa. Gabriela Castellano elucida:

Vou dar o exemplo da UNICAMP, onde existe um curso de graduação em física médica, em que o aluno faz a maioria de suas disciplinas dentro da área da física básica, passando depois para disciplinas específicas: biologia, medicina, física aplicada à medicina, física de radioterapia, física de medicina nuclear, física de radiologia, etc., tudo isso já canalizado, como se vê, para a área médica. São quatro anos de curso, acrescido de um ano de estágio em um hospital ou clínica, e mais um período de residência em física médica num centro de radioterapia, para depois ingressar definitivamente em um hospital ou centro. Contudo, um dos problemas no Brasil, nesta área, é que existem pouquíssimos centros que oferecem esse tipo de residência na área de física médica, mas há a esperança de que esse panorama possa mudar, já que foi lançado recentemente um edital, tendo em vista a possibilidade de serem oferecidas mais bolsas destinadas à residência; como informação complementar, essas residências têm uma carga horária pesada ? cerca de 60 horas semanais ?, o que demonstra o quanto um físico médico fica preparado para exercer sua atividade.

No Brasil, a demanda por esses profissionais está crescendo muito, mas ainda existem dois problemas que necessitam ser resolvidos: o primeiro, diz respeito à legislação, porque embora seja importante a ação do trabalho do físico médico, esta profissão tem ainda que ser reconhecida legalmente na área específica da radioterapia e essa falta de reconhecimento faz com que muitas clínicas e hospitais ainda prescindam da contratação desses profissionais, o que, para nossa entrevistada, é um erro. O segundo problema diz respeito aos próprios médicos, que são proprietários ou possuem cargos de administração em hospitais, que ainda não perceberam a importância de ter um físico médico ao seu lado, até para gerir e manusear, de forma correta, equipamentos que são extremamente sensíveis e fidedignos, dependendo deles e dos resultados alcançados o sucesso dos diagnósticos e tratamentos, tendo em vista o bem-estar dos pacientes.

Fazendo uma comparação, nesta área, com a realidade norte-americana, o Brasil ainda está engatinhando:

Nos Estados Unidos, o físico médico é o profissional mais bem pago em todas as áreas da Física Aplicada e tem uma demanda muito grande. Por exemplo, no Brasil existem alguns (poucos) equipamentos de ressonância magnética e outros mais dedicados à medicina nuclear, enquanto que nos Estados Unidos existem largas centenas desses equipamentos que estão distribuídos pelos principais hospitais e clínicas. Por outro lado, no Brasil existe apenas um técnico, designado de Cientista Clínico, cuja sua missão, conjuntamente com os pesquisadores, é desenvolver protocolos específicos em ressonância magnética, principalmente no capítulo de geração de imagens: não só ele é o único no Brasil a fazer esse trabalho, como também ele é o único com essa especialidade abaixo da linha do Equador. Comparativamente, só nos Estados Unidos existem cerca de trinta cientistas clínicos para esse objetivo. Agora, imaginemos quantos equipamentos de ressonância magnética existem nos Estados Unidos e quantos existem no nosso país, conclui Gabriela Castellano.

 (Rui Sintra – Jornalista)

13 de março de 2018

Surpresas do Mundo Quântico

No início do século XX, uma revolução conceitual transformou a visão que até então se tinha dos fenômenos naturais. A nova física quântica, desenvolvida por jovens como Einstein, Heisenberg, Schrodinger, Dirac, Bohr, Born, Pauli, Dirac e outros, revelou que as leis que regem o comportamento do mundo microscópico violam a intuição obtida através da observação dos fenômenos macroscópicos que fazem parte de nosso quotidiano.

Apesar de seu aspecto contra-intuitivo, as surpreendentes propriedades do mundo quântico resultaram, ainda no século XX, em aplicações importantes, como o laser, o transistor e a ressonância magnética nuclear.

No início do século XXI, questões importantes sobre sutis efeitos quânticos permanecem sem resposta, ao mesmo tempo que novas idéias surgem sobre outras possíveis aplicações, envolvendo a codificação de informações (criptografia) e computadores quânticos.

Esta palestra apresentará uma introdução aos fenômenos quânticos e algumas das possíveis aplicações que estão sendo consideradas atualmente.

Download da apresentação


Resenha

Prof. Dr. Luiz Davidovich

Quando usualmente se fala em transistores, lasers e RMN (ressonância magnética nuclear), não há qualquer tipo de dificuldade em identificar essas denominações, pois elas estão intrinsecamente ligadas às extraordinárias descobertas feitas no século XX. Passada que é a primeira década do século XXI, o mundo científico não quer abrandar a verdadeira revolução que iniciou há cerca de cem anos: o que era inovação ontem, está desatualizado hoje. A velocidade com que a ciência avança em todas as áreas do conhecimento é impressionante. Embora a física tenha contribuído ? e bastante – para esse incrível turbilhão tecnológico, o certo é que o século XXI traz com ele alguns enigmas que estão ligados ao rápido desenvolvimento científico e na procura por mais e melhor. E um dos exemplos de enigmas na física reside nos efeitos quânticos que, por enquanto, ainda não apresentam todas as respostas para os cientistas.

Para debater conosco este tema e suas particularidades, conversamos com um dos mais eminentes físicos brasileiros, o pesquisador, Prof. Dr. Luiz Davidovich, que por ocasião da segunda edição da SIFSC ? Semana Integrada do Instituto de Física de São Carlos, participou no habitual programa intitulado ?Ciência às 19 Horas?, que ocorreu no dia 16 de outubro, com a palestra subordinada ao tema Surpresas do Mundo Quântico.

 

O fenômeno do Emaranhamento

De fato, existem ainda questões em aberto na física quântica, relacionadas com problemas antigos que foram formulados em 1935 por Einstein, Podolsky e Rosen, através de um famoso artigo científico que resultou do designado Paradoxo de EPR, no qual se levantou um dos problemas mais fundamentais da teoria quântica ? saber se a mecânica quântica era uma teoria completa, ou se, pelo contrário, continha variáveis escondidas que tinham a ver com o fenômeno do Emaranhamento. Segundo Davidovich, esse fenômeno tem ocupado as mentes dos físicos durante décadas e provocou inúmeras discussões filosóficas entre os anos de 1935 e 1960.

Só em 1964 é que foi possível dar uma formulação matemática a todos esses debates, através da teoria de John Stewart Bell, que, no meu entender, foi uma das grandes contribuições da física no século XX. O que despertava a curiosidade e atenção dos físicos e filósofos dessa época era o fato de que o fenômeno do Emaranhamento, que Einstein classificou como fantasmagórico, poderia talvez ser explicado pela teoria designada de variáveis escondidas: por outras palavras, o Emaranhamento estava associado a correlações muito fortes entre dois objetos e acreditava-se que talvez uma teoria alternativa de física quântica poderia explicar essas correlações, comenta o pesquisador.

De fato, em 1964 John Bell mostrou que havia experimentos que poderiam diferenciar as previsões da teoria quântica e as previsões dessas teorias alternativas. Os experimentos foram realizados e estabeleceu-se que, de fato, as teorias alternativas não eram adequadas para descrever esse fenômeno. Ganhou-se, nos últimos anos, uma enorme compreensão sobre esse fenômeno do Emaranhamento, mas ainda há questões em aberto, conforme explica Davidovich.

Einstein, Podolsky e Rosen referiam-se ao Emaranhamento entre duas partículas, entre dois corpos. Hoje, são produzidos estados emaranhados de muitas partículas. Por exemplo, em laboratórios na Áustria, são produzidos estados emaranhados de catorze átomos. Como entender a matemática desses estados, como classificar o emaranhamento desses estados? Como ordenar esses estados de acordo com a quantidade de emaranhamento que possuem? Tudo isso é uma questão em aberto na física e na matemática e por isso é interessante verificar que essas questões, tão básicas da física contemporânea, encontram ainda sérios desafios muito fortes.

Também apareceram novas ideias para futuras aplicações, que envolvem a criptografia e o aparecimento dos computadores quânticos, tendo como base os trabalhos vencedores do Prêmio Nobel da Física ? 2012, da autoria do francês Serge Haroche e do americano David Wineland, que conseguiram manipular partículas quânticas sem as destruir. Para o Prof. Luiz Davidovich, essa história não está bem contada, pois os media ainda não souberam explicar, de forma correta, esses trabalhos:

De fato, isso de manipular partículas quânticas sem as destruir tem sido noticiado da forma como você refere, mas na verdade é um pouco mais complexo do que isso. Quando se detecta um fóton, a maneira usual de fazê-lo implica na destruição dele. A detecção de um fóton faz-se através de um aparelho chamado (logicamente) Fóton-Detector e ele tem a propriedade de absorver o fóton. Sabemos que o fóton estava lá a posteriori através do sinal emitido por esse aparelho, que o detectou e que o destruiu. No grupo de pesquisa de Serge Haroche utilizaram-se experimentos que permitiram detectar, por exemplo, o número de fótons existentes numa cavidade, sem os destruir. Não é que o estado do sistema fique inalterado, como se fala, mas é uma propriedade do sistema, ou seja, é o número de fótons que fica inalterado. Você detecta esse número de fótons com átomos que passam pela cavidade, e esses átomos sentem que os fótons estão lá, mas não os absorvem. Isso é o que se chama de Medida Quântica Não Demolidora, porque ela não destrói, não demole os fótons que estão na cavidade. Contudo, isso não significa que o estado fique inalterado, podendo-se mostrar que esses átomos, que mantêm o número de fótons inalterado, tornam a fase ? que é uma propriedade do campo eletromagnético ? completamente caótica. Eles alteram a fase do campo, mas não alteram o número de fótons: são propriedades complementares, refere o nosso convidado.

 

Computadores mais velozes e códigos criptográficos inquebráveis (?)

Nesse contexto, conforme explicou Davidovich, o que se chama de Medida Quântica Não Demolidora, em geral, mais não é do que uma medida que não altera a variável que está sendo observada, mas que pode alterar completamente a variável complementar. Pode-se fazer uma Medida Quântica Não Demolidora da velocidade de uma partícula, mas para se fazer isso não se destrói a posição da partícula. Os trabalhos de Haroche e Wineland prevêem, segundo os media, que num futuro próximo possam existir computadores ainda mais velozes e códigos criptográficos inquebráveis. Estas afirmações obrigaram-nos a questionar nosso entrevistado se essa é uma afirmação correta e o que estará para vir depois disso. Enfaticamente, Luiz Davidovich dividiu a questão em duas partes, debruçando-se primeiramente nos códigos inquebráveis ou invioláveis, explicando que a designada criptografia quântica permite a transmissão daquilo a que se chama usualmente de chaves criptográficas: então, o que é uma chave criptográfica?

Quando queremos enviar uma mensagem para uma pessoa amiga que está longe, e queremos codificar essa mensagem, precisamos ter uma chave para fazer isso. E o importante é que ambas as pessoas tenham essa chave ? a pessoa que envia a mensagem e a pessoa que vai recebê-la, para decodificá-la. Por isso mesmo, enviar chaves de um lugar para o outro é o ponto crucial dessa operação, referiu Davidovich, exemplificando com o clímax transmitido por qualquer filme de suspense, onde um espião dá a vida para capturar essas chaves, já que, na verdade, ele não está interessado nas mensagens propriamente ditas. Assim, se os espiões conseguem as chaves, eles poderão ter acesso a todas as mensagens.

O que a física quântica faz é permitir enviar uma chave, de tal forma que se alguém tentar olhar para ela, imediatamente se descobre que o fez isso. Isso está baseado na propriedade fundamental da física quântica, que diz que você não pode medir o sistema sem alterá-lo. Você pode até fazer medidas que não alteram certa propriedade do sistema, mas vai alterar outra. Então, se uma pessoa tenta descobrir qual a mensagem que está sendo enviada, ela necessariamente modifica essa mensagem. Assim, tanto a pessoa que envia a chave, como aquela que a recebe, podem descobrir que houve uma observação dela e aí a chave deixa de ser confiável, pois comparando ambas elas mostram diferenças, salienta o pesquisador.

Quando perguntamos ao Prof. Luiz Davidovich se isso poderá se tornar uma realidade, o pesquisador respondeu Já é uma realidade. Com efeito, em 2007, as eleições em Genebra (Suíça) foram feitas eletronicamente e os votos foram transportados (para serem contabilizados) através da criptografia quântica. Se alguém quisesse violar um voto que fosse seria descoberto imediatamente. Segundo o nosso entrevistado, esse método está sendo usado também na Áustria e na Suíça para conectar matrizes de bancos às suas filiais, em distâncias curtas, só que esta realidade não fica por aqui.

Hoje, estão sendo feitos experimentos para o envio de chaves quânticas a grandes distâncias. Existe uma cooperação que está sendo realizada entre a China, Europa e Austrália, para fazer tudo isso através de satélites, ou seja, serão usados satélites artificiais para estabelecer chaves quânticas. Fantástico, não é? Então, essa é uma fase da informação quântica que já está sendo implantada, remata Davidovich.

Quanto à computação quântica, que é a segunda parte relacionada com a primeira questão que colocamos, segundo o nosso entrevistado, ela promete muito, tendo começado a despertar um grande interesse, principalmente em determinadas agências governamentais dos Estados Unidos da América, nomeadamente na NSA ? National Security Agency, a partir do momento em que houve uma proposta de um matemático que trabalhava nos laboratórios da ATAT ? American Telephone and Telegraph Corporation, que mostrou que alguém que possuísse um computador quântico poderia faturar um número em um espaço de tempo exponencialmente mais rápido do que num computador clássico. Mas, o que é faturar um número? Luiz Davidovich explica.

É decompor em números primos, pontua o pesquisador. Por exemplo, 15=5×3. Até aqui, nada de anormal, todo mundo sabe isso. Agora, um número como 3.873.984, fica mais difícil descobrir os fatores primos dele. De fato, nos computadores clássicos, o melhor algoritmo conhecido hoje para faturar um número, leva um tempo relativamente longo. Por isso mesmo, a faturação de números grandes é a base do método criptográfico muito usado atualmente ? método RSA -, extremamente utilizado quando estabelecemos contato com os bancos pela Internet. Assim, quem possuir um computador quântico vai poder quebrar todos os códigos existentes e daí a preocupação da NSA.

A partir desse pressuposto, a NSA implantou uma estratégia muito interessante: ela abriu completamente o tema, sem segredos, e passou, através de funcionários altamente capacitados, a frequentar as conferências para as quais eram convidadas pessoas de todo o mundo. Na China, que é onde decorre a maior parte dessas conferências, lá está sempre um funcionário de alto escalão – na maioria das vezes, matemático – devidamente credenciado e identificado pela NSA. A agência americana não quer saber de mais nada a não ser verificar se alguém violou algo, por forma a poder mudar imediatamente seus códigos. Contudo, para fazer com que um computador quântico fature números com mais eficácia de que um computador convencional teria que existir uma máquina com um poder quase inimaginável.

Esse computador imaginário teria que ter 1.000 qbits, colocando esse número num estado emaranhado, o que é algo extremamente difícil, quase impossível. Agora, se vai aparecer o computador quântico baseado nas idéias atuais, para quebrar códigos, eu tenho as minhas dúvidas. Por outro lado, atualmente estão sendo feitas demonstrações muito interessantes de computação quântica, usadas para simular sistemas físicos, e nessas simulações consegue-se fazer coisas extraordinárias, como, por exemplo, simular movimentos de camadas de ar na atmosfera, o que é um tema interessantíssimo para a área de meteorologia, explica o palestrante.

 

Luiz Davidovich versus Serge Haroche

O Prof. Davidovich é amigo pessoal e um dos colaboradores brasileiros mais próximos de Serge Haroche, um dos vencedores do Prêmio Nobel da Física deste ano, e essa colaboração vem de há vinte ou vinte cinco anos. Davidovich desloca-se frequentemente a França, onde participa de conselhos de diversos organismos europeus, e propôs-se a falar um pouco sobre essa relação de trabalho com o pesquisador francês, que remonta ao ano de 1986, quando Luiz Davidovich ainda estava na PUC do Rio de Janeiro.

Foi graças a uma licença sabática que decidi ir para França, onde passei um ano com a equipe de Haroche. Quando cheguei lá, a minha intenção era fazer um experimento sobre um dispositivo chamado micro-maser: o maser é um laser que funciona na região de microondas, na área da luz. O micro-maser é um maser microscópico que funciona com apenas alguns átomos de cada vez, numa cavidade ressonante, e esse micro-maser era algo baseado na transição de dois fótons. Eu achei interessante e comecei a trabalhar na teoria desse micro-maser, uma teoria que, para essa especificação, ainda não tinha sido realizada. Cheguei na França com muita vontade e trabalhei dia e noite, durante fins-de-semana: eu estava cheio de gás. Então, deparei-me com problemas de vária ordem que levaram muito tempo para resolver ? inclusive, houve um problema que eu resolvi, imagine, no cinema, em plena exibição de um filme. Então, o que eu fiz foi desenvolver essa teoria e o interessante foi que ela demonstrou que o experimento que estávamos planejando com Haroche tinha que ser modificado e mais tarde comprovou-se tudo isso, na experimentação. Foi fantástica essa experiência, esse trabalho em colaboração com Haroche e sua equipe, que tinham a particularidade de ter um humor deveras refinado, extraordinário, recorda nosso entrevistado, sorrindo.

Depois desse ano na França, Davidovich começou a viajar com freqüência para lá, sempre trabalhando junto com Haroche e sua equipe em diversos projetos e idéias, sendo que algumas delas não passaram para a fase experimental por falta de equipamentos, mas que, mesmo assim, estão prontas para isso, como é o caso da teleportação.

De fato, o nosso artigo sobre teleportação foi o primeiro a propor o experimento e, curiosamente, mostrou que dava para fazer a teleportação fazendo uma determinada operação lógica entre átomos e campo, que na verdade mais não era do que uma porta lógica alimentada por computação quântica. Claro que na época não sabíamos isso; apenas chamávamos de porta de fase. Seguidamente, trabalhamos na designada Medida Quântica Não Demolidora, propondo experimentos; no artigo que foi feito com base nesse trabalho conjunto com a equipe de Haroche ? que é um dos artigos mais citados ?, tivemos a idéia de fazer um experimento que envolveria a produção de um estado do campo eletromagnético análogo ao Gato de Schrodinger, teoria datada de 1935, da autoria do físico Erwin Schrodinger. Nesse experimento, seria produzido, numa cavidade, um campo que estaria numa superposição de dois estados, ou seja, uma cavidade acesa e apagada, ao mesmo tempo, uma superposição dessas duas situações. Era uma superposição que você pode interpretar, classicamente, cada uma delas ? sabemos o que é uma cavidade acesa e o que é uma cavidade apagada, mas uma cavidade acesa e apagada, ao mesmo tempo, é difícil de imaginar, é impossível imaginar: é como o Gato de Schodinger, que está vivo e morto, ao mesmo tempo. No entanto, isso é uma possibilidade quântica. Na sequência desse artigo, publicamos, em 1996, um outro artigo em que mostramos como é que poderia ser medida essa superposição, mostrando, igualmente, como é que, com o tempo, essa superposição quântica estranha se transforma numa alternativa clássica. Em outras palavras, as propriedades quânticas desaparecem devido ao contato daquele sistema com o ambiente, ou seja, o ambiente destrói as propriedades quânticas. Nós provamos isso, na teoria, explica Davidovich.

Esse experimento foi feito ainda no decurso de 1996 e foi muito badalado nessa época, exatamente pela propriedade da perda de coerência. Davidovich e Haroche tiveram ainda uma outra cooperação na área do laser, que incidiu sobre uma teoria do laser microscópico.

Foi um trabalho intenso nessa época. Em 1994 transferi-me para a UFRJ e a partir daí dediquei-me exclusivamente á teoria, ao ponto de criar um laboratório ? para pasmo da comunidade de físicos. É um laboratório para teóricos, mas com uma interligação fortíssima com a área experimental, que acolhe nomes de grandes pesquisadores. São verdadeiramente fantásticos os resultados obtidos nesse laboratório, com artigos de grande impacto publicados em diversas revistas, como, por exemplo, na Nature ou na Science, recorda o pesquisador.

A colaboração com França deu e continua a dar frutos muito importantes, principalmente para a ciência brasileira. Luiz Davidovich e Serge Haroche orgulham-se de sua amizade e de seus trabalhos, continuando a trocar experiências científicas e a se visitarem mutuamente. Contudo, existem outras colaborações científicas com França, não necessariamente com o grupo de Haroche, que têm contribuído ? e muito – para o desenvolvimento da ciência nacional. E as universidades brasileiras estão aí, como prova disso.

13 de março de 2018

O que é a massa? E o bóson de Higgs?

Faremos um breve relato das origens de massa e inércia, e, através da evolução de nossos conceitos sobre a constituição da matéria, argumentaremos que a massa dos corpos macroscópicos se deve à massa e interações de seus constituintes, ou seja, os átomos, núcleos atômicos e partículas elementares, como quarks e elétrons.

Finalmente, discutiremos o problema da origem da massa no contexto das teorias atuais, que descrevem as interações (forças) entre corpos, como um processo de troca de partículas ditas intermediárias.

Por um lado, tais teorias baseiam-se em princípios de simetria que exigem que as partículas intermediárias tenham massa nula. Por outro lado, estas mesmas teorias dizem que o alcance da força é tanto menor quanto maior for a massa daquelas partículas.

A descrição das forças nucleares, que sabemos ser de curto alcance, exige a ruptura das simetrias sobre as quais nossas teorias são baseadas. O conflito é resolvido, magistralmente, pelo chamado mecanismo de Higgs, que implica a existência do famoso bóson de Higgs e que talvez tenha sido descoberto, recentemente, no acelerador de partículas LHC do laboratório CERN, em Genebra, Suíça.


Resenha

Prof. Dr. Carlos Garcia Canal

Subordinada ao tema O que é a massa? E o bóson de Higgs, decorreu no dia 18 de setembro, no Auditório Prof. Sergio Mascarenhas, mais uma edição do programa Ciência às 19 Horas, tendo desta vez como palestrante convidado o Prof. Dr. Carlos Garcia Canal, docente do Departamento de Física da Universidad Nacional de La Plata ? Argentina.

A palestra apresentou um breve relato das origens de massa e inércia, e, através da evolução de conceitos sobre a constituição da matéria, foi apresentada a argumentação que a massa dos corpos macroscópicos se deve à massa e interações de seus constituintes, ou seja, os átomos, núcleos atômicos e partículas elementares, como quarks e elétrons.

Finalmente, o palestrante lançou a discussão sobre o problema da origem da massa no contexto das teorias atuais que descrevem as interações (forças) entre corpos, como um processo de troca de partículas ditas intermediárias, enfatizando os últimos passos dados rumo à descoberta do bóson de Higgs.

Antes mesmo de começar sua palestra e em conversa informal com a Assessoria de Comunicação do IFSC, Carlos Garcia Canal afirmou que a principal intenção de sua participação no programa Ciência às 19 Horas era tentar partilhar com o público o entendimento que se tem da massa, mas a um nível microscópico, já que existem diferenças nos conceitos tradicionais da mesma em nossa vida cotidiana.

A massa clássica, que é uma medida da inércia que está relacionada com o nosso peso , o peso de um ser humano, sofre modificações conceptuais quando está em causa a relatividade, ou seja, quando a física se coloca perante uma velocidade próxima à velocidade da luz. Por outro lado, a física também está sendo toda ela repensada ao nível da mecânica quântica, já que ela tem uma vigência nos níveis atômico e subatômico. Através da relatividade, aprendemos que a massa e a energia podem se correlacionar; se você dispõe de energia, ela pode ser materializada em partículas quânticas, comenta Garcia Canal.

Para o palestrante, a massa está diretamente relacionada com as interações fundamentais da Natureza, elétrica e magnética, interações fortes que têm a ver com a composição dos prótons e neutrons do núcleo atômico; e as interações fracas, que estão relacionadas com a desintegração dos núcleos por emissão de elétrons.

Neste momento trabalhamos com uma teoria relativa às partículas que intervêm nas interações e que são desprovidas de massa; mas, na realidade, quer as partículas da matéria, quer as partículas que levam à interação fraca, que são as portadoras da interação fraca, todas elas têm massa. Então, o conflito entre uma simetria que é a base da compreensão das interações e o fato de que essa simetria não permite a presença de massa é resolvido através de uma situação muito particular, que é a realização de uma simetria incompleta; ou seja, a simetria está presente nas equações e no sistema, mas ela não apresenta nas soluções. É a isto que chamamos de mecanismo de Higgs. Para colocarmos em marcha esse mecanismo precisamos que exista um novo ingrediente da teoria, o bóson de Higgs, refere o palestrante.

No último dia 04 de julho, no acelerador de partículas LHC do laboratório CERN, em Genebra, Suíça, foi descoberto um bóson compatível com o tal bóson de Higgs, que a comunidade científica mundial pensa existir, mas onde não há ainda uma demonstração precisa da sua existência. Esta recente descoberta faz o Prof. Carlos Garcia Canal acreditar que se está muito próximo dessa descoberta, embora o que se tenha descoberto em julho último seja apenas um bóson compatível, mas constituído apenas por uma imagem que necessita ter melhor definição.

É de fato uma imagem entusiasmante, mas temos que conseguir obter, através de vários experimentos, outros dados que confirmem que todas as características desse bóson que foi descoberto coincidam plenamente com as características que devem fazer parte do bóson de Higgs, por forma a completar a teoria, sublinha o pesquisador. Confesso que esta descoberta do dia 04 de julho me entusiasmou muito. Repare que há cerca de um século o homem desconhecia que a matéria tinha elétrons e hoje a vida, como a conhecemos, é inconcebível sem os elétrons. É claro que o bóson de Higgs não irá ter o mesmo papel ou impacto que teve o elétron, até porque se tratam de coisas diferentes; mas vai proporcionar uma compreensão relativa à estrutura da matéria, mais íntima, interessante e detalhada, com um ingrediente que eu acho interessantíssimo, que é o fato do bóson de Higg produzir a massa das partículas por interação e, por isso, o campo de Higgs fazer parte do nosso cotidiano, estar em nosso redor, por toda a parte, conclui o cientista.

Todas as dúvidas sobre a existência do bóson de Higgs poderão ser tiradas até ao final deste ano – ou no máximo até aos primeiros meses de 2013 -, até porque o acelerador de partículas do CERN deveria ter já parado seu funcionamento, por motivos de manutenção, calibração e afinação e isso não aconteceu.

A descoberta realizada no dia 04 de julho alterou todo o planejamento e os cientistas estão trabalhando vinte e quatro horas por dia para poderem coletar novas informações que poderão comprovar (ou não) a consistência do famoso bóson de Higgs.

13 de março de 2018

A Física do Futebol

Entender a Física do futebol provavelmente não vai fazer ninguém jogar melhor, mas com certeza vai ajudar a compreender um pouco mais esse jogo apaixonante e fascinante. E para quem quer compreender as leis do movimento, estudar a Física do futebol é a maneira mais descontraída de fazê-lo.
Futebol e Física são inseparáveis. Futebol é movimento, mas não um movimento qualquer, desordenado, sem leis. Cada jogador é um criador num cenário com leis já determinadas. Cada ação do jogador tem sua intenção, que é em parte moldada pelas leis (regras) do futebol e pelas leis da natureza. Tentaremos mostrar aos boleiros e curiosos da Física, a Física que há no futebol.

 

 

 

 

 


Resenha

Profa. Dra. Emico Okuno

Pela primeira vez, desde que foi criado, o programa Ciência às 19 Horas abordou um tema que é muito querido para todos os brasileiros: o futebol. Essa abordagem não se deu através de aspectos esportivos, competitivos ou técnicos, mas sim utilizando a Física como forma de explicar inúmeros conceitos inerentes a como marcar o golo perfeito, como fazer a bola descrever um ângulo em sua trajetória, ou a forma como reduzir as chances de um goleiro defender um pênalti.

Esta interessante palestra, que decorreu no dia 17 de abril, a partir das 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC-USP), esteve sob a responsabilidade da Profa. Dra. Emico Okuno, pesquisadora e docente do Instituto de Física da USP, ao apresentar o tema ?A Física do Futebol?. Com bacharelado em Física na Faculdade de Filosofia, Ciências e Letras da USP, em 1960, e doutorado na mesma área e universidade, em 1971, a Profa. Okuno fez pesquisa científica em Raios Cósmicos com o Prof. Cesare Lattes, entre 1959 e 1962, tendo estagiado com o Prof. Masatoshi Koshiba (Prêmio Nobel da Física 2002). Experiente na área de Física-Médica – efeitos biológicos das radiações ionizantes e não-ionizantes, proteção radiológica, e biomecânica, e de outras temáticas relacionadas com desastres e acidentes nucleares, Emico Okuno é autora e co-autora de seis livros, entre os quais se conta aquele que deu o título a esta palestra ? ?A Física do Futebol? ?, uma obra escrita em parceria com o Prof. Dr. Marcos Duarte, igualmente docente da USP.

De trato muito fácil, extraordinariamente alegre, ativa e atenta, a Profa. Okuno sente-se como peixe na água ao falar de Física, a ponto de, por vezes, esquecer que já está aposentada compulsoriamente há cerca de cinco anos: Como eu continuo a dar aulas regularmente, por vezes esqueço que já estou aposentada faz tempo. Mas dou aulas com muito prazer, porque gosto de ensinar, gosto de formar jovens. Tanto Okuno como Marcos Duarte dão aulas a alunos que não pertencem à área da Física ? biólogos, farmacêuticos, biomédicos, etc ?, ou que simplesmente não gostam dessa área do conhecimento: Esse é o aspecto mais curioso desta nossa postura, devido ao fato de sempre termos apostado ? e vamos continuar apostando ? na formação dos estudantes. Temos que os atrair para esta magnífica área do conhecimento que se encontra presente em tudo na nossa vida ? refere a Profa. Okuno.

A ideia de se falar sobre a Física do Futebol nasceu porque o futebol é a paixão nacional e mundial, sendo que o único país que não se sente tão atraído por este esporte é os Estados Unidos. Até no Japão o futebol é, agora, uma paixão. Os conceitos da física, no futebol, são muito complexos e variados e encontram-se sempre presentes nos jogos. Okuno dá o exemplo da marcação de um pênalti: Você calcula a força do chute do jogador, a intensidade e direção do vento, humidade no ar, o impacto da chuteira na bola e da bola na grama, a velocidade e o tempo que ela percorre até ao goleiro: impossível defender, a não ser por uma questão de sorte, que é o que acontece habitualmente. Repare que muitos goleiros fixam o olhar na coxa de quem vai rematar, tentando adivinhar para que lado é que a bola vai, quando deveriam olhar exatamente para a bola, pois é nela que os efeitos da física acontecem. Geralmente, o posicionamento do corpo de quem remata a gol não indica para que lado vai a bola ? muito pelo contrário. Se repararmos com atenção, na grande maioria dos pênaltis os goleiros saem do gol antes dos remates: portanto, como eu já disse, é uma questão de sorte eles pegarem a bola. Por outro lado, quando você vê a bola de futebol descrever uma curva após um remate ou um cruzamento, essa trajetória não é ocasional; o jogador treinou bastante tempo para dar esse particular efeito na bola, ou seja, treinou diversos componentes da Física, sem sequer se aperceber disso. Imagine se ele tivesse estudado um pouco de Física e pudesse aplicar esse aprendizado no jogo: ele seria, possivelmente, muito mais perfeito e eficaz no seu desempenho em campo. Se ponderarmos sobre isso tudo, se essas equações fossem aplicadas nos treinos dos jogadores, acredito que eles aumentariam substancialmente seu desempenho, refere nossa entrevistada.

Os conceitos da física no futebol não passam apenas por aquilo que foi referido acima; eles também passam pela própria estrutura da bola. Antigamente, as bolas de futebol tinham 18 gomos, depois passaram a ter 12 e, seguidamente, apresentaram 32 gomos. Na última copa do mundo, a famosa Jabulani tinha pouquíssimos gomos e tudo isso tem uma influência drástica em termos da física, explica Emico Okuno: Essa questão da Jabulani foi bastante debatida nessa copa, quando muitos jogadores reclamaram da bola, já que eles tiveram bastantes dificuldades, quer no domínio da bola, em passes, cruzamentos, remates, porque ela se comportava de forma estranha, tomava trajetórias diferentes ao que o jogador queria, escorregava e saltitava nas mãos dos goleiros, tudo isso devido à sua composição estrutural.

Quando se realizou o lançamento do livro que deu título a esta palestra do programa Ciência às 19 horas, A Física do Futebol, a Profa. Okuno esperava que apenas comparecessem à cerimônia alunos e colegas da USP, mas, de fato, apareceu muita gente ligada ao esporte e ao futebol, em particular, alguns técnicos de futebol e profissionais ligados à área da educação física. No exterior utiliza-se já a ciência para melhorar aspectos competitivos, incluindo o futebol; então, questiona nossa entrevistada, porque não fazer isso também no Brasil, que é o país do futebol?

Para a nossa entrevistada, não é só no futebol que os conceitos da física se fazem presentes, mas sim em todos os esportes que utilizam ,ou não, uma bola. Daí que, na opinião da pesquisadora, se todos os atletas tivessem uma formação básica na área da física, eles iriam apresentar um maior desempenho competitivo.

(Rui Sintra – jornalista)

12 de março de 2018

A origem da Física no Brasil e os 25 anos do MCT

Em 2010, comemorou-se o vigésimo quinto aniversário de fundação do Ministério de Ciência e Tecnologia, o MCT, um dos órgãos da administração federal que mais se destacou na última década. O objetivo desta palestra é duplo. O primeiro deles consiste em descrever a origem da física no Brasil, e o segundo discutir os principais eventos que estiveram presentes na elaboração do projeto desse ministério, enfatizando a participação de físicos como, por exemplo, José Leite Lopes (1918-2006) e Jayme Tiomno (1920-2011). A tese, que pretendemos defender, é que, mais do que construir um ministério, o propósito que os animava era propor e defender um projeto de nação.

Download da apresentação

12 de março de 2018

Teoria das Supercordas: a Física do futuro?

A motivação principal para estudar teoria de supercordas é a resolução de um conflito entre  relatividade geral e mecânica quântica. Além de resolver este conflito, a teoria de supercordas é uma candidata a unificar todas as forças e partículas da Naturza. Também tem aplicações em áreas diversas, como matemática, matéria condensada, e física de íons pesados. Nesta palestra, apresentarei uma introdução geral para este assunto.

Download da apresentação

 

 

 


Resenha

Nathan Jacob Berkovits

Em mais uma edição do programa “Ciência às 19 horas”, decorreu no dia 26 de outubro, pelas 19 horas, no Auditório Professor Sérgio Mascarenhas (IFSC), a palestra intitulada “Teoria das Supercordas: a Física do Futuro?”, apresentada pelo Prof. Dr. Nathan Jacob Berkovits, do Instituto de Física Teórica da UNESP.

A teoria das supercordas, também chamada de “teoria de tudo”, é quase que uma “candidata” para a resolução de conflitos clássicos colocados entre a Relatividade Geral e a Mecânica Quântica, tendo como meta unificar todas as forças e partículas da Natureza.

Além disso, a teoria tem aplicações em áreas como matemática, matéria condensada e física de íons pesados.

Na palestra, o professor Berkovits – que é um dos principais pesquisadores do Brasil dedicados à teoria das supercordas – apresentou um panorama dessa área de pesquisa, tendo discutido, com entusiasmo, as possibilidades dessa teoria, bem como seus problemas fundamentais, com uma platéia interessada que lotou o Auditório do IFSC.

Mesmo antes de iniciar a sua palestra, o Prof. Nathan teve a amabilidade de conversar com a Assessoria de Comunicação do IFSC sobre este assunto.

Segundo o pesquisador, existe grande possibilidade da “Teoria das Supercordas” ser a Física do Futuro:

De fato, as Supercordas é uma teoria de Gravitação, que também inclui outras forças. Como modelo de Gravitação Quântica ela já funciona, mas como modelo comum para todas as forças ela não passa de uma mera possibilidade, que ainda não foi confirmada.

Segundo Nathan, será necessário fazer muito mais experiências com a finalidade de obter mais resultados teóricos, de modo a se confirmar – ou não – se realmente essa teoria inclui todas as forças da Natureza, ou somente a Gravitação.

Pessoalmente, alimento uma grande esperança de que essa teoria possa descrever as forças existentes na Natureza, mas isso não quer dizer que seja o fim de todas as teorias. Com certeza que irá surgir outra teoria melhor, que irá substituir a Teoria das Supercordas. Contudo, esta teoria é, basicamente, uma aproximação a algo que surgirá no futuro. Realmente, na Teoria das Supercordas ainda não enxergamos o que virá a seguir. Ainda não entendemos com profundidade esta teoria: alguns falam que quando chegarmos a esse entendimento iremos descobrir o caminho seguinte. Portanto, é prematuro afirmar se esta teoria vai descrever todas as forças, ou não. Existem várias coisas dentro desta teoria que ainda não conseguimos entender e que estão como que escondidas. O nosso desafio é entender e descobrir isso e ir mais além.

Rui Correia Sintra – Jornalista

9 de março de 2018

A Lógica da Física

  1. As grandes teorias físicas; consistência, estruturas e modelos;
  2. A lógica subjacente a uma teoria. Lógicas clássicas e heterodoxas;
  3. A lógica da física atual. Quase-verdade.
2 de março de 2018

A Física dos Instrumentos Musicais

O principio básico de propagação do som emitido por instrumentos musicais é a existência de um sistema vibrante que transmite uma onda através do ar aos nossos ouvidos.

Os instrumentos são classificados em três coletorias: os baseados em cordas vibrantes.

Os que dependem de vibração de colunas de ar e os instrumentos de percussão.

As formas dos instrumentos são projetadas cuidadosamente para torná-los harmônicos.

Nesta palestra descreveremos a produção das ondas sonoras pelos diferentes instrumentos musicais, dando ênfase ao estudo das propriedades acústicas do piano e do violino.

Vamos descrever a natureza das ondas sonoras, a forma como se propaga, a altura das notas musicais e a importância do fenômeno de ressonância na compreensão das propriedades dos instrumentos, alem do modo como eles produzem seu som característico.

Download da apresentação

2 de março de 2018

Física e Informação

As origens das idéias sobre probabilidades talvez remontem a preocupações com apostas e jogos de azar.

Apesar de origem tão vulgar, a teoria das probabilidades tem um papel muito importante em ciência.

A necessidade de se analisar problemas de maneira probabilística surge quando a informação é incompleta.

Problemas tão diversos como transmissão de informação em um canal (e.g. celular), reconhecimento de padrões, segmentação de imagens, identificação do conjunto de genes responsáveis por uma doença ou a razão pela qual uma cerveja congela se esquecida no congelador, com- partilham uma estrutura matemática comum. Esta estrutura, chamada de Física Estatística, vem sendo desenvolvida há mais de um século.

Mostraremos alguns exemplos onde idéias utilizadas em física permitem resolver problemas que aparentemente não tem nada de físico.

Ou será que tem?

Download da apresentação

  • 1
  • 2
Fale conosco
Instituto de Física de São Carlos - IFSC Universidade de São Paulo - USP
Programa Ciência às 19 horas
Obrigado pela mensagem! Assim que possível entraremos em contato..