Notícias

Notícias em geral irá aparecer ao clicar no botão MAIS NOTÍCIAS da HOME na seção NOTÍCIAS, será paginado.

19 de março de 2018

Prof. Rodrigo Nemmen fala sobre a ciência do filme Interestelar

O filme de ficção científica intitulado Interstelar foi o mote principal para a realização da edição do mês de outubro do programa Ciência às 19 Horas, que ocorreu no dia 24 de outubro, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP), com a presença do palestrante convidado – Prof. Dr. Rodrigo Nemmen – docente e pesquisador no Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG/USP), que dissertou sobre o tema A Ciência do Filme Interestelar, um evento que incluiu a exibição do longa no mesmo dia, entre as 15h45 e 18h35.

O filme retrata um futuro não muito longínquo do presente, no qual a civilização humana está à beira do colapso. Devido à propagação incontrolável de pestes agrícolas, há uma grande escassez de alimentos e alterações na composição da atmosfera, ameaçando levar a humanidade à extinção dentro de poucas gerações. Neste contexto, é organizada uma viagem interplanetária em busca de um planeta potencialmente habitável e no qual seja possível reconstruir a civilização. Fazendo uso de um misterioso wormhole que surgiu no sistema solar e que constitui um portal para outra galáxia, a expedição viaja até um sistema planetário com vários candidatos, circundando um buraco negro supermassivo, denominado Gargantua.

Um dos planetas visitados, o planeta de Miller, possui muita água no estado líquido e orbita muito perto do buraco negro. Neste planeta os astronautas observam efeitos curiosos de gravitação, como ondas gigantes e fenómenos de Relatividade Geral, como grandes dilatações do tempo (uma hora no planeta corresponde a sete anos na Terra).

Tendo em conta que o revisor científico do filme foi Kip Thorne, uma das maiores referências científicas internacionais na área da gravitação e ganhador do Prêmio Nobel da Física – 2017, foi bastante interessante verificar onde estão instaladas as fronteiras entre realidade e a ficção neste filme, que aborda a existência de um buraco de minhoca (wormhole) que possibilita uma viagem intergalática, um fenômeno previsto teoricamente, mas jamais observado na prática. Esse fenômeno foi descrito primeiro por Albert Einstein e Nathan Rosen em 1935 e devido a isso seja oficialmente chamado de ponte de Einstein-Rosen. Segundo a teoria elaborada pelos dois físicos, buraco de minhoca é uma deformação do espaço-tempo que funcionaria como um atalho espacial.

Assim, o Prof. Nemmen revelou que os incríveis eventos fictícios do filme, assim como os efeitos especiais inéditos, são baseados em áreas fascinantes da ciência, falando também sobre buracos negros, viagens interestelares, planetas fora do sistema solar, etc., descrevendo as leis que governam o nosso universo e os fenômenos assombrosos que estas leis tornam possíveis.

Em entrevista à Assessoria de Comunicação do IFSC/USP, o pesquisador falou sobre o que, no filme, corresponde e não corresponde minimamente á realidade científica, tendo discorrido sobre dilatações do tempo, buracos de minhoca, dimensões espaciais, se será – ou não – possível fazer viagens interestelares no futuro, viagens no tempo, etc..

Clique na imagem abaixo para assistir à entrevista.

video
play-sharp-fill

(Rui Sintra – jornalista)

19 de março de 2018

A supercondutividade e as propriedades emergentes: porque o todo não é apenas a soma de suas partes

O Prof. Eduardo Miranda (Instituto de Física  Gleb Wataghin, Universidade Estadual de Campinas – UNICAMP ) foi o palestrante convidado de mais uma edição do programa Ciência às 19 Horas – um evento organizado mensalmente pelo IFSC/USP e aberto à sociedade -, que ocorreu no dia 26 de setembro, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP).

O tema abordado pelo palestrante – A supercondutividade e as propriedades emergentes: porque o todo não é apenas a soma de suas partes – deu uma ideia real de que conhecemos materiais que apresentam uma vasta gama de propriedades surpreendentes, como os cristais líquidos que formam as telas de computadores, supercondutores que conduzem eletricidade sem resistência elétrica, superfluidos que escorrem por tubos sem viscosidade e muitos outros.

Para Eduardo Miranda, todos esses exemplos têm uma coisa em comum: só acontecem quando juntamos um número muito grande de átomos ou moléculas. Fenômenos que só aparecem quando há um número muito grande de constituintes são conhecidos como propriedades emergentes.

A pergunta que muitos pesquisadores se fazem é: Como entidades simples, como átomos, podem se juntar e dar origem a fenômenos tão intrigantes e complexos? É possível entender uma propriedade emergente, sabendo-se apenas como dois átomos interagem entre si? Como partir do microscópico e chegar ao macroscópico?

O palestrante pretendeu, nesta palestra, dar uma ideia dos raciocínios de que lançam mão os físicos para entender a complexidade da natureza a partir das leis simples que regem as interações entre elétrons, núcleos, átomos e moléculas.

Antes de sua palestra, Eduardo Miranda concedeu uma pequena entrevista abordando a temática.

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Garatéa-L – a missão lunar brasileira

O Prof. Lucas Fonseca foi o palestrante convidado em mais uma edição do programa Ciência às 19 Horas, promovido pelo Instituto de Física de São Carlos (IFSC/USP), evento que ocorreu no dia 22 de agosto, no Auditório Prof. Sérgio Mascarenhas.

Lucas Fonseca é CEO da empresa de consultoria Airvantis e Diretor da Missão Garatéa, um projeto que pretende enviar, pela primeira vez na história, uma sonda brasileira para sobrevoar a órbita lunar e coletar dados sobre a superfície, conduzindo experimentos científicos pioneiros com micróbios, moléculas e até células humanas. A ideia é a equipe beneficiar da recente revolução dos designados nanossatélites, mais conhecidos como cubesats, uma aposta que colocará o Brasil entre os pares na exploração espacial.

Aquela que será a primeira missão lunar brasileira está sendo desenvolvida em conjunto com cientistas do INPE (Instituto Nacional de Pesquisas Espaciais), ITA (Instituto Tecnológico de Aeronáutica), da USP, LNLS (Laboratório Nacional de Luz Síncrotron), Instituto Mauá de Tecnologia e da PUC-RS (Pontifícia Universidade Católica do Rio Grande do Sul).

Abordando o tema Garatéa-L – a missão lunar brasileira, Lucas Fonseca – que foi aluno da Escola de Engenharia de São Carlos (EESC/USP) – aproveitou sua palestra para falar também de seu trabalho na Agência Espacial Europeia e de sua participação – como único brasileiro – na missão Rosetta, que em 2014 logrou pousar, de forma inédita, uma sonda no cometa 67P.

Numa pequena entrevista, Lucas Fonseca explicou os projetos:

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Prof Nicholas Suntzeff fala sobre o universo

O Prof. Nicholas Suntzeff (Distinguished professor da Texas A&M University – EUA) foi o palestrante convidado em mais uma edição do programa Ciência às 19 Horas, que ocorreu no dia 20 de junho, no Auditório Prof. Sérgio Mascarenhas, do Instituto de Física de São Carlos (IFSC/USP), uma apresentação que foi subordinada ao tema – O Universo.

Mundialmente conhecido por ter criado, em 1994, junto com Brian Schmidt, o programa de observação de supernovas distantes, observações essas que quatro anos mais tarde mostraram que a expansão do universo é acelerada, dando origem ao conceito de Energia Escura (Schmidt e Adam Riess receberam o Prêmio Nobel de 2011), Suntzeff concedeu uma entrevista exclusiva à Assessoria de Comunicação do IFSC/USP, antes de sua palestra, onde falou de sua teoria, do Universo, como um todo, e da interação que teve com os alunos do Instituto nesta sua passagem pelo Brasil e pelo IFSC.

Assista à entrevista, clicando na imagem abaixo.

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Da deriva continental às placas tectônicas: de que forma trabalham o planeta e a ciência

O conhecimento sobre como nosso planeta funciona e como nossa vida é afetada por este funcionamento dinâmico e cada vez melhor caracterizado e compreendido, foi a base da palestra que a Profª Draª Maria Cristina Motta de Toledo (EACH/USP) apresentou em mais uma edição do programa “Ciência às 19 Horas”, evento ocorrido no dia 16 de maio e que abordou o tema “Da deriva continental às placas tectônicas: como trabalham o planeta e a ciência”. Nessa palestra, a oradora abordou não apenas o que se conhece hoje acerca das placas tectônicas, seus movimentos, seus efeitos e conexões com outros processos da Natureza, mas de como esse conhecimento foi adquirido, por meio de uma longa evolução de observações, reflexões e discussões, utilizando o método científico.

A teoria da Tectônica de Placas tem sido cada vez mais divulgada nos meios de comunicação e verifica-se um interesse crescente com relação aos detalhes dos processos dinâmicos envolvidos e também com relação às razões pelas quais esta teoria se encontra tão fortemente estabelecida.

Convidada a falar um pouco sobre este tema, mesmo antes de sua apresentação, Maria Cristina Motta de Toledo referiu que a teoria da Tectônica de Placas tem sido cada vez mais divulgada nos meios de comunicação e verifica-se um interesse crescente com relação aos detalhes dos processos dinâmicos envolvidos e também com relação às razões pelas quais esta teoria encontra-se tão fortemente estabelecida. O movimento constante das placas tectônicas de nosso planeta tem impactos diretos sobre a vida que existe nele, e não só ao nível humano. A dinâmica interna de nosso planeta, o movimento quase constante dessas placas tectônicas é que provoca os terremotos e tsunamis e, com eles, algumas mudanças climáticas, a formação de recursos minerais e o crescimento de cadeias montanhosas, entre outros fatores.

Clique na figura abaixo para acessar a pequena entrevista concedida pela Profª Drª Maria Cristina Motta de Toledo antes de sua palestra.

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Medicina personalizada em Oncologia: a contribuição da genética para o tratamento do câncer

“Medicina personalizada em Oncologia: a contribuição da genética para o tratamento do câncer”

“Medicina personalizada em Oncologia: a contribuição da genética para o tratamento do câncer” foi o tema abordado em mais uma edição do programa “Ciência às 19 Horas”, organizado pelo IFSC/USP, e que ocorreu no último dia 25 de Abril, no Auditório “Prof. Sérgio Mascarenhas”, com a participação da Dra. Anamaria A. Camargo (PhD), Coordenadora do Centro de Oncologia Molecular do Instituto Sírio-Libanês de Ensino e Pesquisa – Hospital Sírio-Libanês (SP).

Em sua apresentação, Anamaria Camargo abordou o fato de o Câncer ser, de fato, um nome usado para definir mais de 100 doenças distintas, que tem em comum o crescimento descontrolado das células de um determinado tecido, situação que afeta os tecidos adjacentes e distantes formando as metástases.

Recordamos que o câncer é a segunda principal causa de morte no mundo e foi responsável por 8.8 milhões de mortes em 2015.

Um pouco antes de sua apresentação, Anamaria Camargo conversou com a Assessoria de Comunicação do IFSC/USP e fez uma espécie de resumo do tema que se mantém, infelizmente, atual.

Para assistir a essa pequena entrevista, clique na imagem abaixo:

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Estamos sozinhos no Universo?

Uma das perguntas mais antigas que a humanidade se faz é: Estamos sozinhos no Universo? Na tentativa de responder a essa e outras questões extremamente complexas da natureza, como a origem da vida, foi criado um novo campo de pesquisa, a Astrobiologia, a qual reúne pesquisadores de diferentes áreas, trabalhando em colaboração.

Os cientistas, atuando como exploradores modernos, vasculham a vida em nosso planeta, desde as profundezas oceânicas até o alto das montanhas, procurando entender como ela surgiu, evoluiu e, em muitos casos, extinguiu-se, com o passar dos bilhões de anos de história da Terra. E hoje, esse esforço se estende para além da Terra, para os planetas e luas do Sistema Solar e mesmo para planetas muito distantes, orbitando outras estrelas de nossa Galáxia. Talvez consigamos encontrar indícios de vida extraterrestre, talvez não, mas o importante é que, no caminho, estamos compreendendo melhor os processos naturais que permitiram que um fenômeno tão complexo, como a vida, tenha surgido e evoluído em nosso Universo.

Das pesquisas e das inúmeras perguntas que se fazem – muitas delas sem resposta, principalmente de como surgiu a vida no nosso planeta e como é que tudo começou e como conseguimos chegar a este estágio, partimos para outro questionamento, que é, exatamente, se estamos sozinhos neste vastíssimo Universo. Mas, a pergunta relacionada com o estarmos sós nesta imensidade é no aspecto da vida inteligente, ou da vida em seu âmbito mais primário? Existem respostas concretas, ou tudo ainda é muito nebuloso, por vezes considerado tabú?

A astrobiologia pode dar respostas mais concretas sobre estes questionamentos?

Assista à entrevista com o Prof. Dr. Douglas Galante, pesquisador no Laboratório Nacional de Luz Síncroton (LNLS), realizada pouco antes de sua palestra intitulada Astrobiologia: estudando a vida no Universo, no dia 21 de março de 2017, no Auditório Professor Sérgio Mascarenhas (IFSC/USP), no Programa Ciência às 19 Horas.

Clique na imagem para assistir à entrevista.

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Das margens para o centro: A história da segunda revolução quântica

Na última palestra de 2016, inserida no programa Ciência às 19 Horas, coube ao Prof. Dr. Olival Freire Jr., docente e pesquisador da Universidade Federal da Bahia (UFBA) dissertar sobre o tema Das margens para o centro: A história da segunda revolução quântica. O título desta palestra foi propositalmente enigmático, remetendo para aquilo que alguns chamam de 2ª revolução quântica, que, na verdade, é um conjunto de conceitos e técnicas que se tornaram disponíveis nos anos 60, 70 do século XX, em contraposição com a primeira revolução que aconteceu no início desse mesmo século.

Essa 2ª revolução quântica, que teve enormes impactos na ciência e que promete outros ainda maiores, promete uma alteração no modo de processamento na área de informação quântica. De fato, segundo o palestrante, são apenas promessas. Essa área de informação quântica é hoje uma área da física muito quente, já que aconteceram atividades que foram desenvolvidas às margens da física. Não eram atividades, nem pesquisas muito bem valorizadas ou consideradas: eram pesquisas que trabalhavam com teorias chamadas heterodoxas, que na física podem representar o final da carreira de um jovem físico – se ele se dedicar excessivamente a trabalhos desse tipo, por exemplo.

A ideia de margem e centro é muito usual na ciência, para distinguir o que é mainstream, como explica Olival Jr: O que significa aquela agenda de pesquisa que é perfeitamente bem valorizada numa comunidade científica e o que é que são os temas que não são muito bem considerados, por razões diversas? Procuro sempre argumentar que parte dos conceitos essenciais do que chamamos de 2ª revolução quântica foi formulada num contexto de controvérsias, num contexto em que alguns desses proponentes eram muito mal considerados na comunidade dos físicos, na comunidade científica. Hoje, são altamente bem considerados, recebem premiações e tudo mais. Mas, por que o meu interesse nisso? Não é propriamente um interesse de trazer à luz alguém que foi valorizado na sua trajetória, embora isso seja importante, mas acima de tudo também valorizar e destacar, na ciência, aqueles que, no seu devido tempo, não tiveram destaque. Mas, o meu principal interesse é mostrar que esse é um bom caso para a gente compreender o quão complexa é a atividade científica. Então, ele, para mim, serve como um bom argumento contra qualquer visão simplista do que seja a atividade científica. O que é que eu chamo de atividade simplista? Tipicamente você pensa Não! Ciência é você fazer os dados experimentais, a partir daí extrair uma teoria e por aí afora. Não é assim. Ciência envolve muita conjectura, muita imaginação. Ciência tem uma atividade com uma dimensão social: o modo como você, jovem estudante, se relaciona com os seus colegas, o modo como você entra numa controvérsia. Então, o desenvolvimento da história da ciência, portanto, é um fenômeno tão complexo quanto os fenômenos complexos que a própria ciência estuda, enfatiza o pesquisador.

Quando se fala em renovação da pesquisa sobre os fundamentos da física quântica, isso tem muito a ver com a pergunta anterior, ou seja – e uma vez mais -, das margens para o centro. O palestrante gosta de citar um tema que, tipicamente, estava nos fundamentos da teoria quântica e que, por altura dos anos 50, era considerado um tema morto na ciência, um tema do qual ninguém iria extrair nada interessante. Então, qual era o tema? O tema era o seguinte: será que você pode alterar/modificar a teoria quântica, introduzindo mais variáveis? Essas variáveis são chamadas de variáveis escondidas – que para o palestrante é um nome péssimo, mas que se consagrou na literatura: escondidas em relação às que já são usadas pela teoria.

Será que você pode introduzir essas variáveis adicionais e, mesmo assim, preservar o poder preditivo da teoria quântica? E se você introduzir, isso trará alguma informação nova? Esse tipo de tema era completamente fora do escopo da física, na altura da década de 50. Poucas pessoas brilhantes se preocupavam com isso, sendo que o mais notável deles era Einstein. Na década de 50, outro notável também se dedicou a isso – David Bohm. Certamente, esse era considerado um tema de filosofia. Portanto, um tema fora da física. E foi justamente em torno desse tema que surgiu, quinze anos depois, o chamado Teorema de Bell, um teorema que estabeleceu com precisão quais alterações poderiam ser feitas na teoria quântica, sem a comprometer, e quais alterações que, ao serem feitas, colidissem com a própria teoria quântica. E o Teorema trouxe uma surpresa fenomenal. A surpresa é que, na altura em que ele começou a ser compreendido, no final dos anos 60, se percebeu que não existia um único teste já feito que permitisse fazer aquele contraste previsto pelo Teorema. Então você teve, a partir do início dos anos 70, uma série de experimentos que continuam ainda hoje… esses experimentos todos confirmaram as predições da teoria quântica e, portanto, invalidaram o tipo de teoria modificada que o próprio Bell tinha expectativa… mas o resultado de todo esse processo foi a consolidação, entre os físicos, de um novo fenômeno físico, chamado Emaranhamento Quântico. E é exatamente o Emaranhamento Quântico que é uma das propriedades centrais hoje, na pesquisa em informação quântica. É uma revolução nesse sentido… de uma posição marginal para uma posição muito importante na agenda de pesquisa dos físicos, sublinha Olival Jr..

No resumo de sua palestra, o Prof. Olival Freire Jr. optou por mencionar a frase revolução quântica, em vez de ter escolhido atualização, ou mesmo mudança. Para o palestrante, essa escolha teve o intuito de provocar, mas provocar no sentido delicado. Profissionalmente, eu sou historiador da ciência, mas graças à minha formação em física, ensino essa disciplina, mas meu doutorado foi de história da ciência e, portanto, eu trabalho sistematicamente nessa vertente. Portanto, como historiador da ciência, uso com muito cuidado o termo revolução científica, mesmo para me referir a revolução que todo mundo acha que foi uma revolução lá do Galileu, do Newton… A história da ciência mostra que teve muitos elementos de continuidade entre a física do final do período medieval e a física do Galileu. O problema não foi tão revolucionário quanto pensamos. Então, eu profissionalmente me contenho. Mas eu precisava atrair um pouco a atenção. Mas aí você vai ver que no resumo, eu disse que o termo “revolução quântica” não é meu, mas sim de um grande físico que tem relação com o Instituto de Física de São Carlos, que é o Alain Aspect, que é colaborador do Prof. Vanderlei Bagnato.

Nesse caminho, Olival Freire Jr, está convicto que a divulgação científica se transformou numa atividade, não sem antes ter apresentado uma explicação: a atividade científica tem uma história maior do que se imagina,  ganhou muita força nos últimos 40, 50 anos: Mas, já que falei do Galileu e do Newton, quero dizer que com toda a abertura que se teve no século dezessete para se pensar num universo maior, num universo infinito, ali já começaram as atividades de divulgação científica. E alguns desses divulgadores são grandes filósofos, grandes escritores. O Fontenelle foi um deles, mas um que eu gosto de citar é Voltaire. Voltaire tem uma explicação do que é a física newtoniana, que está traduzida em português. Ele sai da França e vai para a Inglaterra e se encanta com a liberdade que tinha nesse país. E com a mecânica newtoniana, ele ainda escreve uma obra. Pouco depois, todo o projeto da Enciclopédia, os chamados enciclopedistas – Encyclopédie -, dirigida pelo Jean le Rond d’Alembert, é um projeto de divulgação científica. Então, eu acho que, desde quando a ciência se tornou algo mais complexo ou pelo menos do século dezessete em diante, fazer com que o mundo da cultura, o mundo da arte, da literatura, o mundo do cidadão comum, compreenda o que se passa na ciência, quais são as ideias que estão presentes nela, na técnica, se tornou um desafio importante. Nos últimos 50 anos, aí eu diria particularmente depois da 2ª Guerra Mundial – porque acho que a 2ª Guerra Mundial mudou drasticamente a relação da ciência com a sociedade -, com a produção particularmente da bomba atômica, mas não só (a produção do radar também é um produto da 2ª Guerra), tudo isso colocou na ordem do dia a ideia de que a cidadania hoje requer que você tenha algum grau de informação sobre a ciência. E isso que eu estou dizendo não é uma ideia minha, mas de alguém que foi um dos reitores da Universidade de Harvard, um químico chamado James Conant, continua o palestrante, acrescentando que Conant, após a 2ª Guerra, participou do projeto Manhattan.

Quando acabou a 2ª Guerra, Conant passou a organizar cursos que eu chamaria de divulgação científica, mas eram cursos de história e filosofia da ciência, para os graduandos da Universidade de Harvard. Então, é nesse sentido que a divulgação científica  é muito importante. No caso do Brasil, e também no resto do mundo, ela tem uma responsabilidade adicional. É que parte da ciência tem que ser financiada por recursos públicos. Se o público não entende o papel da ciência, o impacto da ciência na sociedade, o financiamento da ciência vira uma coisa de mecenas ilustrados. Nós temos exemplos importantes em que, no caso dos EUA, aquele super collider, aquele acelerador, que em 1993 o congresso americano tomou a medida de fechar porque não era importante. Aquilo ali, provavelmente, vai passar para a história, porque a obra já estava bem adiantada e ficou lá, abandonada. Também se discute que destino dar àquela obra fenomenal. Então, eu acho que a divulgação científica também tem essa dimensão. Se nós queremos que a atividade científica tenha continuidade no nosso país,é preciso que haja recursos públicos.Veja, eu estou em São Paulo e poderia falar do meu estado, que também não compreende muito bem o papel da ciência, mas recentemente nós tivemos um importante político em São Paulo que pôs em dúvida a importância das pesquisas financiadas pela FAPESP. Então, quando eu digo que a sociedade precisa compreender o papel da ciência, é porque, a sociedade, compreendendo, nossos representantes (no judiciário, no mundo político) também vão entender mais. E nesse sentido eu acho que vocês, aqui na USP de São Carlos, têm tido um papel muito importante de vanguarda nesse esforço de divulgação científica, conclui Olival Freire Jr.

(Rui Sintra – jornalista)

16 de março de 2018

Entre o melhor e o pior

A edição do passado dia 25 de outubro do programa Ciência às 19 Horas foi diferente do que é habitual, não só pelo destaque conferido ao palestrante convidado, o Prof. Fabio Jatene, que na circunstância apresentou o tema Implantação de novas tecnologias no país e no cenário econômico mundial, como também pela homenagem que foi feita a seu pai, o famoso e saudoso Adib Domingos Jatene (Xapuri, Acre, 4 de junho de 1929 — São Paulo, 14 de novembro de 2014), médico (cirurgião torácico), professor universitário, inventor e cientista brasileiro.

Antes mesmo da palestra, coube ao Prof. Sérgio Mascarenhas (IFSC/USP) iniciar o pequeno período dedicado à lembrança da vida e obra de Adib Jatene, tendo sido acompanhado pelo Diretor do IFSC/USP, Prof. Tito José Bonagamba, pela futura Reitora da UFSCar, Profª Vera Hoffmann, e pelo Dr. Roberto Verzola, médico cardiologista e docente do Departamento de Ciências Fisiológicas – Laboratório de Fisiologia do Exercício (UFSCar), entre outros convidados.

Depois de ter recordado a vida e obra de Adib Jatene, o Prof. Sérgio Mascarenhas e o Diretor do IFSC/USP entregaram a seu filho, Prof. Fabio Jatene, uma placa de homenagem em reconhecimento à obra do famoso cirurgião torácico.

Filho de imigrantes árabes, Adib Jatene formou-se em medicina na Universidade de São Paulo, onde viria a se tornar professor. Conhecido e respeitado internacionalmente, além das dezenas de inovações no meio médico, como o inventor de uma cirurgia do coração que leva seu nome para tratamento da transposição das grandes artérias em recém-nascidos, e do primeiro coração-pulmão artificial do Hospital das Clínicas .

Jatene foi secretário estadual de Saúde no governo de Paulo Maluf e duas vezes ministro da Saúde durante o Governo Collor e, a última delas, no governo de Fernando Henrique Cardoso. Foi membro da Academia Nacional de Medicina e foi agraciado com o Prêmio Anísio Teixeira, em 1991.

Já no que diz respeito à palestra proferida pelo filho do homenageado – Prof. Fabio Biscegli Jatene -, falar de tecnologia é sempre um assunto complexo, caso se decida falar de todos os campos da atividade, e muito mais complexo quando se abordam áreas específicas, como é o caso da medicina. Existem áreas que tiveram e têm ainda um desenvolvimento extraordinário, como, por exemplo, a aviação comercial, agricultura e petróleo, entre muitas outras, mas em outras áreas esses avanços não ocorreram nem ocorrem na mesma proporção.

Para quem ainda não o conheça suficientemente, o Prof. Fabio Jatene é Professor Titular de Cirurgia Torácica da Faculdade de Medicina da Universidade de São Paulo (FMUSP), Diretor do Serviço de Cirurgia Torácica do Instituto do Coração (InCor) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HCFMUSP), e Vice-presidente da Sociedade Brasileira de Cirurgia Torácica, com especialização em Cirurgia Torácica e Cirurgia Cardiovascular. É autor de 219 artigos científicos em revistas científicas nacionais (176) e internacionais (43), foi editor de 7 livros e manuais na área e autor de 52 capítulos em livros nacionais (43) e internacionais (9), tendo recebido 18 prêmios ao longo de sua carreira

Na área profissional do Prof. Fabio Jatene – que concedeu à Assessoria de Comunicação do IFSC/USP uma pequena entrevista antes de iniciar sua palestra -, que é a cirurgia do coração – cirurgia torácica e cardiovascular –, é um fato que a grande maioria dos equipamentos dotados de um maior avanço tecnológico está disponível, observando-se, assim, uma certa heterogeneidade nessa área do conhecimento, a par de outras. Não digo que não é possível que se desenvolvam, no Brasil, equipamentos de ponta que necessitamos para a nossa missão, para a nossa profissão, mas o que acontece é para que você consiga desenvolver e utilizar esses equipamentos existe uma série de requisitos: precisam ser de boa qualidade, o mercado precisa ser atrativo, até porque, se assim não for, os empresários e as restantes pessoas interessadas em desenvolver e comercializar esses equipamentos acabam por se afastar. E nesta condição, ficamos defasados em relação a todo esse processo. Estamos avançando, mas é preciso reconhecer que esses passos ainda são muito tímidos, salienta o cirurgião.

Para Jatene, o fato de não termos tecnologia própria na área médica é um obstáculo até para que se possam diminuir os custos decorrentes de intervenções cirúrgicas, neste caso concreto na área cardiovascular, o que, para nosso entrevistado, causa algum constrangimento em prestar esse tipo de serviço. Esse foi um dos motivos que levou o InCor a desenvolver, nos últimos anos, um projeto chamado Inova-InCor, que é a tentativa de se avançar tecnologicamente na área da cardiopneumologia, que congrega os dois principais focos do Instituto.

E essa é uma iniciativa que não é restrita ao InCor, mas a outras áreas que também têm desenvolvido iniciativas semelhantes. Existe a Agência USP de Inovação, com a qual colaboro, que tem trabalhado fortemente nisso. Mas a ideia do Inova-InCor é criar possibilidades para dentro de nosso ambiente nas várias áreas relacionadas ao Instituto, para que possamos ter avanços significativos na área tecnológica, comenta nosso entrevistado, que acrescenta: Há um enorme interesse, tanto interno – no Instituto -, como em companhias e centros de desenvolvimento externos, no fomento de parcerias com o intuito de auxiliar ao desenvolvimento de equipamentos e projetos mais avançados. E isso é muito interessante! Nós iremos ter agora, neste mês de novembro, um simpósio com a participação do Instituto e de representantes do governo da Coreia do Sul, através de algumas de suas indústrias, com o intuito de ajudar a desenvolver tecnologia exatamente dentro da área médica e principalmente dentro da área da cardiopneumologia . A ideia é que essa parceria seja uma via de mão-dupla. Eles têm muita tecnologia e nós temos necessidade dela; mas, também temos algo para mostrar para eles – nossa experiência. A ideia é incorporar interesses. Como nós temos uma população muito numerosa, tudo isso talvez possa interessar a eles, até porque a nossa mão-de-obra é altamente especializada.

A despeito do atraso verificado, o Brasil tem agora a consciência do que aconteceu anteriormente e do que precisa acontecer a partir de agora e, a partir daqui, tentar tirar esse atraso da melhor maneira. Fabio Jatene é enfático ao afirmar que é importante que se tenha consciência que não só o InCor, como os outros institutos, estão com essas iniciativas de inovação e avanços tecnológicos voltados para suas áreas de atuação, em todas as áreas conhecimento. O ponto positivo desse grande processo é que hoje temos consciência da importância em se poder avançar, sublinha Jatene.

Comparativamente ao que se passa no exterior, o atual estado da arte na cirurgia torácica no Brasil pode ser dividido em duas partes Em relação à possibilidade de assistência, ao atendimento, o Brasil está praticamente no mesmo nível que ocorre no exterior e isso é confirmado pelo Prof. Fabio Jatene. Temos os mais modernos equipamentos, temos as técnicas desenvolvidas e temos os profissionais altamente capacitados para empregá-las.

Contudo, o que chama a atenção, na parte assistencial, é que o Brasil tem – da mesma forma que no assunto abordado acima, relacionado com o desenvolvimento tecnológico – diferentes possibilidades de oferecimento dessa tecnologia a toda a população. Por exemplo, existem hospitais que são considerados entre os melhores do mundo e, por outro lado, existem hospitais com uma qualidade bastante precária, ou seja, existem dificuldades de conseguir dar o melhor a todos que necessitam. Para o Prof. Fabio Jatene, essa situação pode ser resumida através de uma frase simples: “Nós temos o melhor no Brasil? Temos! Para todos? Ainda não!…”

(Rui Sintra – jornalista)

16 de março de 2018

Somos um holograma? Como assim?

O tempo e o espaço parecem fluidos, suaves e contínuos. Isso é verdade ou será apenas uma ilusão? Ninguém sabe, mas podemos especular. Uma possibilidade bem radical estudada por vários físicos é que nosso Universo – percebido como uma realidade tridimensional – é na verdade um holograma.

Este é um breve resumo da palestra que o Prof. Pedro Vieira* proferiu no passado dia 04 de outubro, em mais uma edição do programa Ciência às 19 Horas, subordinada ao tema Somos um holograma?.

Mas, como podemos ser um holograma?

Muitas vezes, na nossa intuição, algo nos parece suave e contínuo, como um líquido, mas, de fato, nem tudo é assim, explica o pesquisador convidado. Um líquido, como a água, parece à primeira vista, suave, que se deixa escorrer pela mão, até por vezes de forma poética, mas na realidade e ao contrário do que se possa supor de imediato, ele está cheio de moléculas: portanto, não é nada contínuo e suave. Por vezes, também algo que à distância parece suave, na verdade, quando é visto mais perto é totalmente diferente. E, se com o líquido podemos observar que ele é uma ilusão em termos de suavidade, podemos questionar se com o espaço, com o Universo, acontece a mesma coisa. Será que o espaço é suave, que eu posso me deslocar até qualquer ponto, ou que eu posso embalar minha mão tranquilamente? Parece suave esse movimento que acabamos de descrever Não será apenas uma mera ilusão?

O certo é que, na natureza, ainda não encontramos nada suave. Por exemplo, uma mesa não é suave, pois ela está cheia de moléculas. Então, será que o espaço é a primeira coisa que é suave? Não sabemos!!! O certo é que o espaço está cheio de moléculas. Contudo, existe outra hipótese, que é o próprio espaço ser uma ilusão, que ele não existe, que nós mesmos somos todos uma ilusão, podendo ser, inclusive, um holograma. A ideia é, através do pensamento, entender qual é a natureza do espaço-tempo, colocando perguntas teóricas e inventando experiências imaginárias, sendo que uma delas consiste em imaginar tentar ver qual é a quantidade de bagunça que existe em uma determinada região do espaço-tempo, comenta Pedro Vieira.

Imaginemo-nos, por exemplo, numa sala cheia de bagunça – mesas, cadeiras, camas, roupas, tapetes, etc. -, tudo em desordem. Se tivermos uma sala duas vezes maior, imediatamente somos induzidos a dizer que a bagunça vai ser duas vezes maior, ou seja, vai ter duas mesas, uma série enorme de cadeiras, várias camas e tapetes, ou seja, tudo multiplicado por dois. Contudo, não é bem assim, segundo o palestrante. Quando estudamos o espaço-tempo e quando colocamos a questão se esse espaço duplicado também duplica a bagunça, a designada desordem, chegamos à conclusão que isso não é verdade, ou seja, a bagunça não é proporcional ao volume do espaço, mas sim à sua área – e isso é uma surpresa.

Segundo nosso entrevistado, se observarmos uma casa, do lado de fora, chegamos à conclusão de que se a duplicarmos, de fato a bagunça existente dentro dela é proporcional à área das paredes e não ao volume. Na verdade, a casa está vazia, contudo as paredes estão carregadas de coisas e se duplicarmos o tamanho das paredes, aí sim, as bagunças existentes nas paredes duplicam também. Pedro Vieira acrescenta que se traduzirmos essa ideia para o tema do espaço-tempo, talvez não exista nada dentro dele e talvez toda a informação esteja em uma membrana, em um holograma que estaria no fim desse espaço-tempo. É uma ideia bem radical, mas é a melhor que temos até agora, afirma Pedro Vieira. Esta linha de raciocínio vai exatamente ao encontro dos designados buracos-negros, colocando-nos questões, como, por exemplo, o que são eles e como poderemos estudar e encontrar a quantidade de desordem que existe dentro deles. Para o palestrante tudo isso são experiências de pensamento: a desordem aumenta sempre, de igual forma como quando você quebra um copo, ou um prato e os pedaços não se unem mais. Comparativamente, se enchermos uma sala com uma quantidade enorme de bagunça, de objetos, em determinado momento a sala fica tão cheia que forma buracos-negros: claro que isto que acabo de dizer é uma experiência de pensamento.

Se juntarmos essas ideias explanadas pelo Prof. Pedro Vieira, iremos concluir que o buraco-negro é o local onde existe mais bagunça. Quando um buraco-negro é formado, ele não se desfaz mais. A questão dos buracos-negros é mais simples do que estudar um ambiente, como uma sala ou o interior de uma casa. Para os físicos, estudar um buraco-negro é algo que se consegue fazer com alguma facilidade. Esta experiência do pensamento leva-nos à conclusão que a desordem de um buraco-negro é proporcional à área do mesmo não ao seu volume. Assim, se é verdade que um buraco-negro tem mais bagunça que o interior de uma casa ou de uma sala, então o que está dentro delas é real, ou seja, não existe nada dentro delas, pois toda a informação está localizada nas paredes. Essa é a ideia de holograma, que é uma imagem que parece tridimensional, mas que na verdade é apenas bidimensional, conclui o pesquisador.

*Pedro Vieira é pesquisador do ICTP South American Institute for Fundamental Research – ICTP/SAIFR, IFT/UNESP – Perimeter Institute for Theoretical Physics, Ontario, Canadá.

(Rui Sintra – jornalista)

16 de março de 2018

Energia renovável como se apresenta o panorama nacional

O Brasil é um dos países no mundo com a maior porção de energia elétrica renovável, só que completamente concentrada no modal hidrelétrico, ou seja, construída e instalada muito longe dos centros de consumo, provocando, por isso, um problema muito grande no que diz respeito à transmissão.

Este foi o resumo que o Prof. James Waterhouse fez à Assessoria de Comunicação sobre o tema intitulado Energia renovável: um panorama nacional, palestra que o pesquisador apresentou na última edição do programa Ciência às 19 Horas, ocorrida no dia 20 de setembro, no Auditório “Prof. Sérgio Mascarenhas” (IFSC/USP).

E, o problema salientado no início desta nossa matéria deve-se, em primeiro lugar, à distância das hidrelétricas dos centros de consumo. Com exceção de Furnas, que se localiza no estado de Minas Gerais, as restantes localizam-se na bacia amazônica ou no Paraná e os consumidores estão a mais de mil quilômetros de distância, como, por exemplo, Rio de Janeiro e São Paulo. Desta forma, segundo Waterhouse, tem que se utilizar muitas linhas de transmissão, o que tem causado sérios problemas para o país, desde há longo tempo. Embora a geração de energia seja enviada através de novas hidrelétricas, cuja transmissão também foi ampliada, o certo é que ela está ainda aquém da necessidade nacional. “Temos tido muitos problemas com transmissão nos últimos vinte anos, no Brasil, além de termos outro problema muito grave, que é o endividamento do setor elétrico, que hoje é todo estatal”, comenta Waterhouse.

Segundo explicou o palestrante, o setor estatal é controlado pela presidência da república, que fez um decreto para a redução da tarifa energética, só que esse decreto acarretou num endividamento recorde de todas as empresas que não conseguiram cumprir metas de custo: por lei, elas foram obrigadas a vender a energia mais barata e acumularam dívidas. “Só a Eletrobrás, que é uma das faces dessa história – ou a principal face -, tem uma dívida de mais ou menos 45 bilhões de reais. Então, não tem como não quebrar e se quebra, quebra o país. Energia todo mundo consome. Precisamos de energia. O sistema Eletrobrás, se não fosse estatal, estava falido, basicamente”, enfatiza o palestrante. Dessa forma, a dívida de 45 bilhões terá que ser recuperada e quem vai pagar essa dívida, basicamente, é o consumidor, que vai reverter todos esses erros. Contudo, nesse intrincado processo de redução do endividamento, as empresas começaram a contingenciar investimentos. “O primeiro investimento comprometido foi a expansão de linhas de transmissão, e, na sequência, o processo de manutenção das linhas. As linhas de transmissão são ativos e de grande durabilidade – trinta e cinco ou quarenta anos de durabilidade -, então você tem que renovar, fazer uma manutenção compatível, só que sem dinheiro não existe manutenção”, lamenta Waterhouse.

Em face desses problemas, o que todas as concessionárias fizeram foi realizar um mínimo de manutenção possível nas linhas, porque não tinham dinheiro. Na opinião de nosso entrevistado, todo ativo de transmissão enfrenta dois problemas, sendo que o primeiro se concentra na idade de grande parte dos ativos nacionais de transmissão, que foram feitos durante a época do governo militar, tendo-se atingido exatamente o momento de reformá-los e trocar tudo. “Foi exatamente nessa hora que o recurso foi contingenciado. Então, as empresas de distribuição, todas as concessionárias, pouparam recursos, fazendo a mínima manutenção possível aquém da necessidade. Só que, como veio uma recessão brutal (a maior recessão do país), o consumo de energia, que crescia a 6% ao ano, diminuiu. Hoje temos uma sobre-oferta de energia da ordem de 5% e, no processo de retomada de crescimento, com 2% ou 2,5% que o país volte a crescer, esse excedente de energia passa imediatamente a virar déficit e as linhas vão ser imediatamente sobrecarregadas. Num futuro próximo haverá um risco – que não é desprezível – de termos um ativo bastante depreciado, sem a devida manutenção e com aumento de consumo muito grande”, sublinha James Waterhouse.

Na opinião de nosso entrevistado, há probabilidade do país ter vários colapsos. De vez em quando, uma queimada no Tocantins derruba o sistema elétrico nacional, já para não falar de outros acontecimentos e isso provavelmente irá ficar mais frequente, porque, segundo Waterhouse, não houve investimento necessário. “Neste panorama, temos geração de energia, só que se o nosso consumo voltar a aumentar, mesmo a nossa energia elétrica já contratada para construção – como Belo Monte, Jirau, etc. -, logo ficará aquém da necessidade. Além disso, nós temos o problema de transmissão”, sublinha Waterhouse, acrescentando que, num futuro breve, dependendo da taxa de crescimento do Brasil, a energia vai ser um risco para o crescimento. “Particularmente, em alguns locais do Brasil, principalmente no centro-oeste, o problema já é real. O Brasil, no centro-oeste, cresce a uma taxa grande porque aí a crise não foi muito sentida. O centro-oeste vive de plantação de grãos, de commodities agrícolas – que estão cada dia mais valorizadas -, e ele não depende de mercado externo – ele exporta”. Na opinião do entrevistado, o centro-oeste está vindo do lado contrário da crise. “Ele está crescendo. Só que, onde tem grãos, vai a proteína animal, vai o frango, vai boi, vai tudo. E onde vai proteína animal, vão as abatedoras e as processadoras. E onde vão as processadoras, vão as indústrias que dão apoio, que fazem equipamentos, máquinas etc. Cada uma dessas indústrias tem um consumo de energia cada vez maior, nessa cadeia. E por que que o centro-oeste não está conseguindo aumentar a taxa de industrialização no passo que teria o potencial de fazer? Porque, primeiro está faltando energia, não tem segurança energética. A rede de distribuição no centro-oeste é muito aquém da necessidade. A geração de energia também é muito aquém da necessidade e a expansão é muito rápida, e as concessionários do centro-oeste estão altamente endividadas e não têm nenhuma capacidade de resolver o problema a curto prazo. Então, o centro-oeste está pagando um preço muito maior pela falta de um planejamento bem-feito. Só que o centro-oeste precisa crescer e precisa se industrializar, porque ele está longe dos mercados de consumo. Se você não processar localmente esse material para exportar, vai ser difícil porque você tem mil e quinhentos quilômetros de logística e ela é muito cara: além disso, a logística no Brasil é de péssima qualidade”, acrescenta Waterhouse.

O pesquisador enfatiza que a única chance de manter o centro-oeste competitivo é processando localmente todos esses itens, aumentando o consumo local de grãos na cadeia de proteína e processando isso localmente. Só que, para isso, é necessário haver energia e segurança energética – algo que ainda não se conseguiu. “Tudo isso mostra o seguinte: que existe uma enorme janela de oportunidades para, principalmente, os modais renováveis de geração distribuída, todos os modais renováveis. Geração distribuída no centro-oeste já se usa e é o local do Brasil que mais tem geração distribuída, só que através de geradores a diesel, que são altamente poluentes e extremamente caros. Só que o centro-oeste, por outro lado, é muito rico em recursos naturais, então você tem um sol abundante, com poucas nuvens; você tem um excedente de biomassa que apodrece e não é utilizado; e você tem outros recursos naturais. Só o sol e a biomassa já poderiam produzir mais energia que o centro-oeste precisa. Então, é uma questão de levar a tecnologia.

Para James Waterhouse, o centro-oeste é um grande centro de consumo e é, no Brasil, onde a energia alternativa tem a maior chance de nascer em massa, porque existe uma demanda muito grande, quer não só em nível residencial, como industrial. E, a energia alternativa já é competitiva com a energia da rede, sendo, inclusive, muito mais barata – vejamos, por exemplo, a energia solar, que gera em qualquer lugar que se queira. “Você gera, sem necessidade da transmissão e sem necessidade da rede de distribuição. Você gera in loco. Só que ela tem um contra: o sol só está aí durante o dia. Quem tem consumo à noite, ou durante o dia todo, tem que ter duas opções, uma delas é ter bateria de reserva, e a outra é usar a linha. Ou seja, você gera um excedente de energia para a linha e depois você pega de volta, através de um mecanismo de compensação que já foi regulamentado pelo governo. Só que se você não tem uma linha compatível, que é o caso do centro-oeste, como eu vou armazenar? Usar baterias? Elas ainda são muito caras e não tem custo-benefício. Então, eu consigo ter energia, mas é mais barato o diesel do que ter as baterias e as placas solares. Então, para esses casos, a biomassa começa a fazer sentido”.

Contudo, ainda existem outras opções alternativas, como é o caso da utilização da biomassa, da energia eólica, que no Brasil é grande e tem aumentado e vai continuar aumentando, e, por fim, um novo modal que não se fala, mas que vai começar brevemente a ser falado no Brasil, que é a energia hidrocinética. “A energia hidrocinética é como se fosse uma turbina eólica, só que mergulhada dentro do rio. Ela pega a correnteza. No Brasil ainda não existe, mas está começando a nascer através de uma série de iniciativas. Eu participo de uma iniciativa para fazer já um primeiro gerador de 100 kilowatts, que já é uma potência apreciável, para colocar em Tucuruí [Pará] e aproveitar boa parte do que não se aproveita hoje. Então, o nosso potencial hidrocinético é enorme, é tão grande quanto o potencial eólico, só que por enquanto ele é completamente inexplorado. E a tecnologia de hidrocinética já foi desenvolvida em outros países, porque eles usam isso, por exemplo, através das marés ou em bacias, girando o gerador para um lado ou para o outro, e isso tem funcionado em boa parte do mundo”, explica Waterhouse.

Contudo, essa tecnologia que se utiliza no oceano, através de suas correntezas, não é a mesma que se usa para os rios. Existem várias diferenças e a tecnologia utilizada nos rios brasileiros ainda não está madura, já que existem inúmeros pormenores a considerar, como, por exemplo, tocos que podem danificar as pás, ou peixes excessivamente grandes que poderão entrar nas hélices e prejudicar o funcionamento do sistema. Por outro lado, a maior parte das energias alternativas também apresentam alguns problemas complexos, como é o caso das intermitências de geração de energia. Na energia eólica, qual é a solução se o vento parar de soprar? Ou na energia solar, já que só tem sol durante parte do dia? “Quer dizer, tanto a opção de energia solar quanto a eólica têm uma grande intermitência. A biomassa, como se pode acumular, você tira a intermitência, só que no Brasil nós não usamos biomassa em pequena escala. Só usamos em grandes centrais, que são as usinas de cogeração de cana. Então, nós poderíamos usar isso para complementar a energia solar na geração distribuída e é essa é a visão que eu tenho, uma visão um pouco mais holística da simbiose de todos esses processos”, afirma Waterhouse..

O Brasil já tem uma participação grande da energia eólica na matriz, que só vai aumentar. “Para cada ponto de crescimento do PIB, temos dois ou três pontos de crescimento de demanda energética. Então, parte desse crescimento, dessa demanda, será necessariamente feita por energia renovável distribuída. As casas vão começar a ter sua própria geração, as indústrias vão começar a ter a sua própria geração, porque isso significa duas coisas: em primeiro lugar, segurança energética e, em segundo plano, redução de custo. Porque a tarifa está muito cara, com um sistema obsoleto e tudo mais. Temos uma tarifa hoje, por kilowatt/hora, extremamente cara. E a energia renovável já é mais barata que a tarifa. Se é mais barata, então ela tende a crescer de uma forma explosiva. Quanto mais barata, mais rápido vai ser o crescimento. Então, devemos passar por uma expansão enorme dos modais de energia renovável”, complementa o pesquisador.

James Waterhouse prevê que em cerca de cinco anos, o Brasil possa ter um crescimento expressivo disso tudo. Hoje, a energia distribuída é quase nada. Em cinco anos, ela vai ser alguma coisa relevante na matriz. Hoje, ela nem aparece nas estatísticas. A energia renovável aparece, através da eólica, mas ela é concentrada. A energia distribuída, que é a energia da solar ou da biomassa localizada, nem aparece. “É ridículo. E em cinco anos ela vai aparecer de uma forma expressiva nessa matriz energética brasileira. E aí aparecem as consequências positivas disso na empregabilidade, porque o número de empregos e a qualidade dos empregos gerados serão fantásticos, exatamente porque estaremos mexendo com várias tecnologias e não apenas com uma só. E todas essas tecnologias precisarão de técnicos de bom nível. Por exemplo, a energia hidráulica precisa de dez engenheiros para projetar a usina, cerca de vinte mil operários para construí-la num prazo aproximado de quatro anos, e depois uma pessoa apenas para apertar o botão. Então, ela tem um perfil de geração de empregos continuados e de boa qualidade”, conclui nosso entrevistado.

(Rui Sintra – jornalista)

16 de março de 2018

Vidro: 6.000 anos de maravilhas e mitos

Edgar Dutra Zanotto, docente e pesquisador do Departamento de Engenharia de Materiais – DEMa – Centro de Ensino, Pesquisa e Tecnologia de Materiais Vítreos (CeRTEV), da Universidade Federal de São Carlos (UFSCar), foi o palestrante convidado de mais uma edição do programa Ciência às 19 Horas, que ocorreu no dia 23 de agosto de 2016, pelas 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP).

Em sua apresentação – dinâmica e muito interessante -, intitulada Vidro: 6.000 anos de maravilhas e mitos, Zanotto abordou diversos assuntos relacionados com o vidro, tendo colocado algumas questões curiosas, como, por exemplo, se os vidros de catedrais medievais escorrem, ou se é possível quebrar um vidro no grito. O palestrante descreveu, ainda, como o vidro foi descoberto há cerca de 6.000 anos, tendo ilustrado como ele é produzido e as suas principais propriedades físico-químicas e, na sequência, mostrado algumas aplicações conhecidas, como o Gorilla Glass, dos telefones celulares, e outras menos convencionais, como vidros para uso em medicina e odontologia, vidros que absorvem calor, vidros para visão noturna e vidros para tacos de golfe! No final de sua apresentação, o palestrante levantou um pouco o véu sobre as causas das imagens sacras que apareceram misteriosamente numa janela de vidro em Ferraz de Vasconcelos (SP), bem como vídeos (em Inglês) sobre o famoso tenor italiano Enrico Caruso e a cantora norte-americana Ella Fitzgerald, que quebravam vidros de janelas e taças de vinho com a própria voz!

Na verdade – e indo diretamente ao encontro do tema desta edição do programa Ciência às 19 Horas -, o vidro foi descoberto acidentalmente há aproximadamente seis mil anos, sendo um dos materiais mais antigos que se conhece, isto, claro, em relação ao vidro artificial, porque também existem vidros naturais produzidos na natureza, sendo que esses sempre existiram. No entanto, segundo Edgar Zanotto, só aproximadamente nos últimos cem anos é que a ciência e a tecnologia do vidro começaram a atuar de forma incisiva e exploratória. Apesar de ser um material que tem seis mil anos, só nos últimos cem anos é que os cientistas começaram a se interessar e a tentar entender e a controlar as propriedades do vidro. E o interessante é que, aqui no Brasil, essa ciência tem quarenta anos e começou exatamente no Instituto de Física da USP, com o Prof. Aldo Aldo Craievich, conforme explica Zanotto: O primeiro artigo científico publicado por um autor vinculado a uma instituição brasileira é de autoria desse renomado pesquisador, que chegou a dar aulas aqui no IFSC/USP, há muitos anos: foi em 1975, numa revista chamada Physics and Chemistry of Glasses, que, por sinal, está comemorando cem anos, sendo a publicação mais antiga dedicada exclusivamente a vidros. E o professor Aldo publicou, então, o artigo em 1975. Eu me formei em 1976 e fui contratado pela engenharia de materiais, como uma espécie de auxiliar de ensino, sem mestrado, sem nada, para montar essa área de vidros no Brasil. E só tinha o professor Aldo e fiz um mestrado aqui na física, por conta dessa coincidência, esclarece nosso convidado.

No que respeita às principais pesquisas que estão sendo feitas no mudo, nesta área, talvez a principal seja tentar entender o genoma dos vidros, a influência de sua estrutura, em nível molecular, as propriedades ópticas, térmicas, mecânicas, eletrônicas, químicas, biológicas etc. Segundo Edgar Zanotto, existe um grande esforço dos pesquisadores nesse assunto, tentando entender os efeitos da estrutura, nas propriedades, para, a partir daí, poderem controlar as estruturas visando desenvolver vidros com certas propriedades e aplicações, algo que, segundo o palestrante, é bastante complexo. É usada muita dinâmica molecular, métodos DFT calculations e muita simulação, porque o acesso experimental, na escala atômica, ainda é restrito, apesar de existirem microscópios eletrônicos de altíssima resolução, difração de nêutrons, difração de Raios-X; mas essas técnicas são muito melhor adaptadas a materiais cristalinos. Os vidros, pelas suas estruturas totalmente desordenadas, dificultam a análise, elucida Zanotto. Outro tipo de pesquisa, na qual a equipe de Edgar Zanotto, na UFSCar, está profundamente envolvida, é cristalizar controladamente os vidros. Os vidros são materiais totalmente desordenados, são líquidos que foram congelados. Eles têm uma tendência à cristalização se forem aquecidos. Então, é possível aquecer controladamente os vidros a determinadas temperaturas e mudar a estrutura de amorfa desordenada para cristalina. Com isso, as propriedades mudam radicalmente e consegue-se formar alguns materiais chamados vitrocerâmicos, que não são vidros, nem são cerâmicas: são materiais cristalinos, obtidos através do controle da cristalização de vidros. Eu trabalho muito nessa área, principalmente no entendimento dos processos de nucleação de cristais, do crescimento dos cristais, de sua organização, da cristalização da combinação desses dois fenômenos, da cinética difusional, em como os átomos se difundem em função da temperatura, se rearranjam, etc. Enfim, tudo isso tem muito trabalho, tanto de cunho eminentemente teórico, como fundamental, quanto, ainda, de cunho aplicado, visando desenvolver esses vidros cerâmicos para uma série enorme de aplicações.

O designado Gorilla Glass é uma das principais inovações surgidas com as pesquisas desenvolvidas em vidro, um material que resiste a oito toneladas por centímetro quadrado. É um material que demorou entre cinco e seis anos para ser desenvolvido pelos pesquisadores, com muito esforço, com muita gente controlando inúmeros detalhes para se chegar até ao produto final. O Gorilla Glass já está sendo usado nos carros top de linha, substituindo, de forma inacreditável, um vidro de 7,8 milímetros de espessura por um de 1 milímetro, com mais resistência e muito menos peso. Outra pesquisa que está sendo desenvolvida pelos pesquisadores é relacionada com biovidros. São vidros que são implantados no corpo humano para substituir ossos e dentes. Eles se ligam automaticamente aos ossos e às cartilagens, sublinha Zanotto. Essa é uma área que começou em 1970. No último congresso sobre essa temática estavam quatro mil participantes. Então tem áreas muito quentes, como, por exemplo, baterias no estado sólido. Por exemplo, as baterias do celular, que atualmente duram um dia, agora a meta é que elas durem uma semana e logo mais um mês. São baterias no estado sólido, de alta capacidade de armazenamento e um dos materiais estudados para utilizar como eletrólito é o vidro. São vidros de altíssima condutividade iônica.

As perspectivas para o futuro nesta área estão focadas na reciclagem, algo que é uma característica muito importante. Hoje, fala-se muito em meio ambiente, em carbon footprint etc., atendendo até que o vidro é um material facilmente reciclado, bastando apenas fundir. Quebrou, sujou, não tem importância: você põe numa forma, refunde e dá outra forma. É forever. O vidro não se degrada como os plásticos e mantém todas as propriedades. Você só não pode misturar cores. Mas, havendo um sistema seletivo de coleta de vidro, é possível reciclar e o curso do vidro reciclado é uma pequena fração de um vidro novo – de vidro virgem, e as propriedades são idênticas. Então, reciclagem é uma palavra muito importante em todas as engenharias e o vidro é o material mais reciclável que existe entre todos os materiais. Então, isso é forte. Reciclagem de vidro é muito forte, muito importante, acrescenta Zanotto

Contudo, é nos materiais vitrocerâmicos que a atenção dos cientistas está mais concentrada, por conterem partículas cristalinas magnéticas dentro, para hipertermia de câncer, por exemplo. Pode-se implantar um vidro desses numa pessoa que tem um tumor cancerígeno, aí vem com um campo magnético externo alternado e aquece apenas esse local onde tem aquela partícula, sem danificar o resto dos tecidos. De fato, cancer hyperthermia são vidros especiais – são vitrocerâmicos -, vidros que foram parcialmente cristalizados e as fases cristalinas têm perdas magnéticas interessantes que elevam a temperatura até 42 graus – não mais do que 42 graus, porque senão mata as células boas também. Então tem muita coisa sendo pesquisada e o futuro é promissor, conclui o Prof. Edgar Zanotto.

(Rui Sintra – jornalista)

16 de março de 2018

Antropoceno: Indicadores de aceleração da tendência ao colapso socioambiental

Em mais uma edição do programa Ciência às 19 Horas, ocorrida no dia 14 de junho, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP), o Prof. Luiz César Marques Filho, docente e pesquisador do Departamento de História da Universidade Estadual de Campinas (UNICAMP), discorreu sobre o tema Antropoceno: Indicadores de aceleração da tendência ao colapso socioambiental.

De fato, existe uma relação causal entre a engrenagem socioeconômica expansiva, que moldou nossas sociedades desde o século XVI, e a tendência ao colapso ambiental. Essa engrenagem, que, desde o século XIX, designamos pelo termo capitalismo, está ocasionando a falência das estruturas de sustentação e da funcionalidade dos ecossistemas, segundo o palestrante.

Sem relação com os temores apocalípticos de outrora, a tendência a um colapso ambiental vem sendo evidenciada pelas ciências e pelas humanidades desde os anos 1960, um colapso que difere dos das civilizações passadas por não ser nem local, nem apenas civilizacional. Ele é um colapso global que ocorre no nível mais amplo da biosfera, da qual as sociedades humanas, tanto quanto as demais espécies, dependem existencialmente.

O que se observa, em nossos dias, é uma aceleração generalizada dessa tendência. Jan Zalasiewicz e outros estudiosos adotam o termo A Grande Aceleração, ao argumentarem em favor da adoção do ano de 1950 como data de referência para o início de uma nova época geológica – o Antropoceno. A singularidade dos dias que correm é o que se poderia talvez chamar de aceleração da Grande Aceleração.

Hoje, a escala de tempo em que se medem mudanças relevantes nas coordenadas ambientais já não é mais o decênio, mas o ano. Assim, por exemplo, em novembro de 2015, mais 25 espécies animais e vegetais foram declaradas criticamente ameaçadas, possivelmente extintas pela nova Lista Vermelha da União para a Conservação da Natureza (UICN). Também o desmatamento vem se acelerando nas florestas tropicais e boreais, sendo que só entre 2000 e 2012 se perderam 2,3 milhões de km2 de florestas, conforme mostra o Global Forest Watch. Houve em 2015 um aumento de 18% nos incêndios florestais no Maranhão e o maior número de incêndios em 17 anos de monitoramento no estado do Amazonas, pelo Inpe.

No que se refere ao aquecimento global, 2015 marcou o momento em que as temperaturas médias superficiais do planeta ultrapassaram 1º C em relação à média dos anos 1850-1900. Quebrar recordes de temperatura tornou-se agora a norma.

O ano de 2015 foi o mais quente dos registros históricos, batendo o recorde de 2014 e 2016 deverá bater o recorde de 2015, com as temperaturas médias globais da superfície do planeta atingindo 1,1º C em relação ao mesmo período de base. Em fevereiro de 2016, a extensão do gelo no Ártico registrou a menor extensão invernal registrada e a estação de degelo da Groenlândia começou, já em abril, dois meses mais cedo, estabelecendo outro recorde, com temperaturas típicas de julho. Em março de 2015, a temperatura no norte da Antártica atingiu 17,5º C, outro recorde histórico.

Em entrevista exclusiva à Assessoria de Comunicação do IFSC/USP, Luiz César Marques Filho aponta que as emissões de gases de efeito estufa continuam desde 2013 no patamar de 32 gigatoneladas anuais. Níveis de emissão de gases de efeito estufa, nesse patama,r conduzirão a um aquecimento médio global superior a 2º C, talvez já por volta de 2036, como calcula Michael Mann. No Mediterrâneo, na região central do Brasil e nos EUA, esse limite pode ser cruzado já em 2030, segundo estudo de Sonia Seneviratne e colegas, publicado na Nature, em 2016.

Em 2015, o motor do aquecimento global – as concentrações atmosféricas de gases de efeito estufa – bateu outro recorde. No último ano, as concentrações de dióxido de carbono aumentaram 3,06 partes por milhão (ppm), a maior taxa de incremento anual nos 56 anos dos registros da National Oceanic and Atmospheric Administration (Noaa) dos Estados Unidos. Nos anos 1960, o incremento médio anual das concentrações atmosféricas de CO2 era de 1 ppm; no primeiro decênio do século XXI, ele era de 2 ppm. Ultrapassou-se agora 3 ppm e há projeções de que esse aumento anual será de 5 ppm em 2026. Mais grave ainda, as concentrações atmosféricas de metano – um gás cujo potencial de aquecimento global é 86 vezes maior que o do CO2 num horizonte de 20 anos – aumentaram no último ano, atingindo níveis acima de 1900 partes por bilhão (ppb) sobre a maior parte do Oceano Ártico em fevereiro de 2016.

Está-se batendo recordes também de retração das geleiras de altitudes, de degradação dos solos, de escassez dos recursos hídricos (superficiais e subterrâneos), de acidificação, eutrofização e poluição por plástico dos oceanos, de elevação do nível do mar, de sobrepesca e de branqueamento de corais. A terceira grande crise de branqueamento (após as de 1997-1998 e de 2010), iniciada em 2014 e que ainda se mantém em ação, revelou-se a pior delas. Ela deve afetar 38% dos corais no mundo todo e já afetou 93% dos recifes de corais da Grande Barreira dos Corais mais da metade dos quais gravemente.

Em 2015, bateu-se, enfim, os recordes de desigualdade social, a causa primeira de todas as crises socioambientais, com a maior taxa de apropriação da riqueza global pelos ricos e ultrarricos, os chamados Ultra high-net-worth individuals (UHNWI). Em 2010, os 388 indivíduos mais ricos do mundo detinham uma riqueza equivalente à de metade da humanidade. Em 2014, eles eram 85 e são, em 2015, somente 62 indivíduos. Durante o mesmo período, a metade de baixo da humanidade perdeu mais de um trilhão de dólares, uma queda de 38%, segundo a Oxfam. O 1% mais rico possui agora mais que os demais 99%.

Se cumprido, o Acordo de Paris conduzirá a aumentos estimados entre 2,7º C e 3,5º C até 2100, em relação ao período pré-industrial. Sua ambição de manter o aquecimento global tão perto quanto possível de 1,5º C não reflete nem o estado da ciência, nem nossa dinâmica econômica expansiva. Na realidade, as energias renováveis não estão substituindo os combustíveis fósseis, estando apenas contribuindo para saciar a insaciável voracidade energética do capitalismo global. Prova disso é que o consumo global de gás e de petróleo continua a aumentar. No primeiro caso, ele foi de 75,3 bilhões de pés cúbicos (Bcf/d) em 2015, deve ser de 76,8 Bcf/d em 2016 e de 77,3 Bcf/d em 2017. No segundo caso, ele deve passar de 93,7 milhões de barris diários em 2015 para 94,4 milhões em 2016 e para 96,1 em 2017, segundo dados e projeções do U.S. Energy Information Administration (EIA) em seu Outlook de 12/IV/2016.

Em termos mais gerais, a compreensão de que a economia é um subsistema da ecologia não está avançando no tabuleiro político global. Nenhum país ou região coloca suas metas de minimização dos impactos ambientais acima de suas metas de crescimento econômico. Constata-se, assim, que a interação entre capitalismo e colapso ambiental – essas duas faces de uma mesma moeda – está se intensificando. Sabe-se agora, mais que nunca, que não se pode conservar um sem sofrer as consequências do outro.

De forma resumida, o palestrante convidado justifica a responsabilidade do capitalismo como causa principal para a degradação dos ecossistemas, porque, segundo ele, o tipo de organização sócio-econômica que é própria do capitalismo é uma organização por definição expansiva. Os mercados, para que mantenham suas taxas de rentabilidade, a expectativa é que se expandam Isso é um fenômeno histórico que ocorreu desde a implantação ou consolidação do capital industrial, na Europa… A busca de mercados, entre outros fatores, leva a que a reprodução do capital seja sempre expansiva. Como vivemos num mundo limitado, num mundo finito, essa dinâmica tende a se chocar, cedo ou tarde, com essa finitude dos recursos naturais. Além disso, a escala de interferência econômica humana nos ecossistemas é hoje de tal ordem que ela interfere, desorganizando esses ecossistemas. Então, nós temos dois fenômenos que correm paralelo: de um lado, uma tendência à escassez de recursos naturais – que talvez não seja o problema maior -, mas por outro lado assiste-se a uma desorganização desses ecossistemas, que levam efetivamente a efeitos em cascata, sublinha o pesquisador.

Para Luiz César Marques Filho, trata-se de uma degradação global, em todos os sentidos – das florestas, do solo, dos recursos hídricos -, sobretudo um verdadeiro colapso da biodiversidade, tanto em terra quanto nos oceanos. Então, essa é a situação em que nós nos encontramos e existe, efetivamente, um vetor de expansão que tende a se tornar mais destrutivo quanto mais dificuldades ele encontra em se expandir.

Então, como inverter essa aceleração da degradação ambiental, sem comprometer a base de sustentação do crescimento econômico e social, da forma como a compreendemos? Para o pesquisador, a solução seria como criar um modo perpétuo. Não é possível. Não vejo como seja possível manter esse modelo, indefinidamente, de maneira a simplesmente apostar num aperfeiçoamento tecnológico e numa mudança de procedimentos do tipo economia circular. Futuramente, isso tudo é muito importante, mas ela também tem limites. São os chamados efeitos de rebote. Você consegue criar um impacto menor por unidade do PIB. Mas como esse PIB cresce, mesmo essa vantagem que você obteve num certo momento, acaba por se anular porque a escala vai aumentando. Um dos elementos, claro, é a população. Mas eu gostaria de frisar que a população é, na verdade, a meu ver, a variável menos importante no momento, já que o mais consistente é a afluência e a destrutividade da tecnologia de que se vale esse aumento da população, complementa Luiz César..

Contudo, no meio dessas constatações relativas ao designado socioambiental, ainda existem personalidades, nomeadamente oriundas do meio acadêmico, que discordam, afirmando, por exemplo, que o aquecimento global é uma farsa, não passando de pretextos para a implantação de determinados vetores políticos, econômicos, etc. Para o nosso entrevistado, se examinarmos qual a relação de forças entre essas duas correntes de opinião, observa-se que 97% da comunidade científica (e não apenas 97%, mas também os cientistas mais qualificados em quaisquer que sejam os critérios que se utilize para avaliá-los) são unânimes em dizer que os desequilíbrios, em geral, da biosfera e os desequilíbrios climáticos têm origem antrópica. São resultados da atividade humana. A ciência é uma coisa que não funciona na base da unanimidade. Ela funciona na base de consenso, que é muito diferente de unanimidade. Então, sempre haverá vozes discordantes em relação a isso. Entretanto, essas manifestações, essas opiniões não têm mais nenhum peso no âmbito das instituições e do conjunto da pesquisa científica, hoje em dia. As grandes publicações (Science, Nature, etc.) são absolutamente receptivas e unânimes, em relação a isso. Ninguém que discorde frontalmente desse consenso terá condições de publicar sua opinião numa publicação de prestígio como essas que mencionei, remata Luiz César Marques Filho.

Estamos a caminho de um holocausto, de uma hecatombe? No entender de nosso entrevistado, existe uma tendência a um colapso ambiental, restando saber o que significa um colapso. Um colapso não é um abismo no qual você cai. Colapso é uma mudança de estado de certo sistema (Terra, biosfera…) para um outro. Existe um conjunto de instabilidades que levam a um ruptura e à passagem para um outro estado e que se recompõe a uma outra instabilidade. Qual vai ser a distância que separa um estado do outro? Qual vai ser a velocidade de uma passagem para outra? Quais serão os impactos imediatos sobre as sociedades humanas? Nós não sabemos. Mas, é claro que estamos passando de um estado para outro e esse estado vindouro é… total!!! Chances??? 99,9% de chances de que esses impactos sejam mais adversos do que aqueles que foram criados pelo Holoceno, por essa época geológica que começou com o final da última glaciação. Então, aquilo que nós chamamos hoje de Antropoceno, é muito fortemente provável que seja uma época muito mais desfavorável à organização das sociedades humanas e de outras espécies, do que foram esses doze mil anos que viram nascer a civilização, conclui o palestrante.

(Rui Sintra – jornalista).

16 de março de 2018

Ondas gravitacionais existem: A grande descoberta do observatório LIGO

Em 14 de setembro de 2015, às 06:50:45 (horário de Brasília), os dois detectores do Observatório de Ondas Gravitacionais por Interferometria Laser (sigla LIGO em inglês), observaram, simultaneamente, um sinal de ondas gravitacionais: esse sinal variou em frequência de 35 Hz até 250 Hz, com uma amplitude de deformação máxima de 1.0 x 10^(-21). Ele coincide com a forma de onda prevista pela relatividade geral para uma fusão de um par de buracos negros espiralando um em direção ao outro, seguida do ressoar do buraco negro resultante.

A fusão ocorreu a uma distância de ~ 1.3 bilhões de anos-luz. As massas dos buracos negros iniciais eram de 29 e 36 massas solares e a massa do buraco negro resultante foi de 62 massas solares. A energia irradiada na forma de ondas gravitacionais foi equivalente a 3 massas solares.

Esta observação demonstra a existência de sistemas binários de buracos negros de massas estelares. Esta é a primeira detecção direta de ondas gravitacionais e a primeira observação de uma fusão de uma binária de buracos negros.

Resumidamente, este foi o tema abordado pelo Prof. Dr. Odylio Denys Aguiar, pesquisador da Divisão de Astrofísica – Instituto Nacional de Pesquisas Espaciais (INPE), palestrante convidado de mais uma edição do programa “Ciência às 19 Horas”, que ocorreu no dia 24 de maio passado, no Auditório “Prof. Sérgio Mascarenhas” (IFSC/USP).

A comunidade científica já tinha indícios muito fortes de que essas ondas existiam, por observações indiretas realizadas na década de 1970. O Radiotelescópio de Arecibo (Porto Rico) captou os sinais de um Pulsar que estava em órbita com outras estrelas de nêutrons (essas estrelas têm uma massa 40% maior do que a do sol compactada num diâmetro de vinte quilômetros), e através disso se consegue, atualmente, obter informações da órbita desse sistema.

Segundo o palestrante, eles descobriram, com precisão, a variação de período de órbita. A única explicação que podia ocorrer seria a de emissão de ondas gravitacionais. Esse sistema perdia energia por causa das ondas gravitacionais. Não é uma prova direta, porque as ondas não foram detectadas. Foi um efeito na emissão das ondas. Mas, em setembro de 2015, realmente foi feita, de forma confirmada, a primeira detecção de ondas gravitacionais, graças ao desenvolvimento de uma tecnologia fantástica, que teve a precisão como palavra-chave e um investimento estimado em cerca de um bilhão de dólares. Então, foi muita gente brilhante envolvida, entre engenheiros, técnicos, etc., comenta nosso entrevistado.

Há cem anos, Einstein não acreditava que essas ondas pudessem ser detectadas, porque ele não contava com duas coisas: a primeira, o avanço da tecnologia; e, a segunda, o fato de ele não imaginar que no universo existiam coisas, como buracos negros. Então, Einstein fez cálculos em laboratório para saber de que forma é que se poderiam detectar ondas produzidas em laboratório. Com base nas contas que fez, acreditou que as ondas jamais poderiam ser detectadas. Então, a tecnologia, por um lado, avançou tremendamente, enquanto que, por outro lado, a perspectiva de ondas produzidas no universo por eventos cataclísmicos (como os buracos negros detectados que foram da ordem de trinta vezes a massa do sol) não existia.

Embora muitos astrofísicos já tivessem dado os buracos negros como existentes, o certo é que a comprovação de sua existência só ficou comprovada através da detecção de ondas gravitacionais: O que se confirmou foi a existência de buracos negros em pares, orbitando um em torno do outro. Isso a astrofísica ainda não havia confirmado. Agora está confirmado, pontua Odylio Aguiar.

A detecção demorou três décadas de trabalho intenso e de muita persistência dos profissionais do LIGO, um esforço que começou com a proposta de Weber, para detecção de ondas no início da década de 1960. Ele propôs isso na Physical Review Letters, em 1960 (nessa época era Physical Review), conforme explica o nosso entrevistado: Depois disso, alguns grupos de pesquisadores perceberam que poderiam utilizar outra técnica – a de laser. E houve um investimento (da Caltech, por exemplo) pesado nessa técnica. Os que propuseram a técnica de laser estão na ativa até hoje. O Rainer Weiss, por exemplo, propôs a técnica de interferometria a laser, na década de 1960, independente de outras propostas. Então, hoje tem gente brilhante que está nessa área há muito tempo. A detecção, inclusive, foi feita por equipes separadas. Tinham várias equipes nessa colaboração LIGO, que envolveu mais de mil e trezentas pessoas, analisando dados sem contatos umas com as outras. Então, quando chegavam resultados, eles analisavam se batiam certo. O sinal ajudou, porque foi um sinal muito forte. O sinal detectado foi vinte e quatro vezes maior do que o nível de ruído do aparelho. Então, era bem forte. E, por causa disso, ele foi descoberto três minutos depois.

Fala-se que, com a detecção das ondas gravitacionais, é inaugurada uma nova era na área de cosmologia e astrofísica e essa afirmação é corroborada pelo Prof. Odylio: Sim. Esse evento observado não poderia ser analisado em uma onda eletromagnética. Não se confirmou nenhum sinal eletromagnético a essa distância de 1,3 milhões de anos-luz. Isso porque são dois buracos negros que não emitem luz. Então, é um evento silencioso, do ponto de vista ótico/eletromagnético. Mas, ele produziu uma deformação fantástica no espaço-tempo, ao converter uma energia equivalente a três massas do sol, em sua origem. O espaço-tempo, sendo deformado e propagando as ondas gravitacionais, é como se fosse um som que se propaga no vácuo. Mas o espaço-tempo é uma espécie de meio de propagação. Então, de certa forma, você tem aí um som do evento e agora analisaremos o universo, não apenas olhando o que está acontecendo, mas também ouvindo. E isso é uma nova astronomia. É uma astronomia de ondas gravitacionais que vai causar uma revolução enorme no conhecimento que temos sobre o universo. Será algo semelhante à revolução que os telescópios causaram com Galileu, há quatrocentos anos. Quando Galileu apontou para o céu, ele viu luas e fases, tendo concluído que os planetas deveriam orbitar em torno do sol. Então isso causa uma revolução no conhecimento. E todo o desenvolvimento da astronomia veio a partir dos telescópios. Agora, o interferômetro de laser abre outra gama de desenvolvimento para, inclusive, desbravar o conhecimento do universo, de outra forma.

Nosso convidado termina esta entrevista salientando que grande parte das pessoas tem interesse em saber sobre o universo onde vivemos e tudo aquilo que nos rodeia. Então, naturalmente, só isso já justifica toda a curiosidade. Mas, muitas coisas que vão ser descobertas deverão revolucionar as invenções. O conhecimento da física, por exemplo, provavelmente vai ser revolucionado, porque temos questões, como, por exemplo, a energia escura e a matéria escura, que não conseguimos resolver porque nos faltam observações, faltam-nos fatos.

Agora, talvez se consiga obter esses fatos, escutando o universo e entendendo melhor os fenômenos que ocorrem nele.

(Entrevista: Tatiana Zanon – Texto: Thierry Santos – estagiário de jornalismo – Edição: Rui Sintra – jornalista)

16 de março de 2018

A Mecânica quântica através de exemplos simples

A Mecânica quântica através de exemplos simples, foi o título da palestra realizada no final da tarde do dia 12 de abril, no Auditório Prof. Sergio Mascarenhas (IFSC/USP), um evento inserido no programa Ciência às 19 Horas, tendo-se contado com a presença o Prof. Amir O. Caldeira, docente e pesquisador do Instituto de Física Gleb Wataghin / UNICAMP.

A partir de experimentos que apresentavam resultados surpreendentes no contexto da mecânica de Newton e do eletromagnetismo de Maxwell, os pesquisadores do começo do século passado se viram obrigados a formular hipóteses revolucionárias que culminaram com a elaboração de uma nova física capaz de descrever os estranhos fenômenos que ocorriam na escala atômica; a mecânica quântica.

Esta teoria, com a sua nova conceituação sobre a matéria e os seus intrigantes postulados, gerou debates não só no âmbito das ciências exatas, mas também no das outras áreas do conhecimento, provocando assim uma grande revolução intelectual no século XX.

Nesta apresentação, o palestrante introduziu, através de exemplos simples (na realidade, fictícios), alguns fenômenos quânticos de forma acessível a uma audiência de não especialistas, tendo o convidado sublinhado a estranheza desses fenômenos através de conceitos que são familiares no nosso cotidiano, isolando assim qualquer dificuldade proveniente do conhecimento técnico necessário para o entendimento de experimentos mais realistas.

Mas, de que forma é que se consegue entender a mecânica quântica sem se utilizar conceitos acadêmicos e/ou científicos? Na opinião de Amir Caldeira, em geral, quando um docente ou pesquisador encara um texto de divulgação em qualquer área da física, principalmente em mecânica quântica (que é algo meio fora do nosso dia-a-dia), é muito difícil passar para o público leigo o quão inusitada é a área e é nesse momento que se inicia uma explicação sempre recheada de jargões científicos. Aí, você fala, explica o fenômeno e a pessoa não consegue dar conta de quão estranho ele é. Em minha opinião, é preciso buscar alguma coisa que as pessoas entendam e que faça parte do seu dia-a-dia, explica nosso convidado.

De fato, quando esse diálogo surge, Amir Caldeira explica que, no seu caso, ele cria situações, como se fossem pequenos jogos, simples brincadeiras, até utilizando cores: Eu ilustro com o seguinte exemplo : consideremos que um objeto emita som e seja vermelho. Se for medir o som desse objeto, você constatará que ele é sonoro e, se observar sua cor, ele é vermelho. Isso é simples. Mas, na mecânica quântica isso pode não acontecer. Quando você faz uma medida, você pode perder completamente a informação que tem sobre a outra. Então, se você viu que o objeto é vermelho e depois constatou que ele é sonoro, em uma próxima medida de cor este mesmo objeto pode se revelar azul. Por outro lado, se eu falo do momento magnético de um objeto na direção X ou Z, ninguém entende, porque não faz parte do dia-a-dia das pessoas e quase ninguém sabe o que é um momento magnético. As pessoas não têm conhecimento dos termos físicos. Eu notei isso com um médico amigo meu. Ele estava surpreso, porque havia lido uma reportagem num jornal sobre o problema da dilatação do tempo na teoria da relatividade. Mas como que o tempo não é uma coisa absoluta? A pessoa pode viajar no espaço, voltar e estar mais novo do que o próprio filho. Isso choca! Daí eu quis passar para esse amigo meu algumas coisas de mecânica quântica e ele não se surpreendia. Ele era médico e tinha feito química no vestibular. Então ele tinha algum conhecimento em química. Eu falava: ‘Lembra o que você aprendeu em química? Aqueles níveis atômicos?’. Daí ele dizia: ‘Lembro, lembro…’.E eu acrescentava : “Pois é! Não é estranho? “. Não o chocou, mas o tempo dilatando o havia chocado. É nessa hora que você tem que buscar exatamente o termo correto e trazer para o cotidiano da pessoa um determinado fenômeno e como esse mesmo fenômeno seria lá no microcosmo. Aí, então, você pode se chocar , sublinha o pesquisador.

Para o palestrante, é extremamente importante que as pessoas consigam compreender a mecânica quântica e os fenômenos nela envolvidos e isso por dois motivos: o primeiro, para que se desmitifique o tema. Já que ele é inusitado e que seus efeitos são estranhos, as pessoas tendem a relacioná-lo com esoterismo e coisas do tipo, o que para Amir Caldeira é perigoso. Em segundo lugar, a ideia de levar ao público esta palestra é mostrar que, apesar de apresentar esses efeitos estranhos, tudo isso é algo que se mede no laboratório: Toda a mecânica quântica é fundamentalmente ligada à teoria de medir. Isso é fundamental na mecânica quântica. Então não é uma coisa esotérica. É uma coisa muito concreta e a sua estranheza só surge devido ao fato de não conseguirmos descrevê-la com termos não conflitantes porque só sabemos, por exemplo, o que é partícula ou onda. Na hora de juntar essas duas coisas, fica meio complicado. Mas essa é uma das razões pelas quais você deve mostrar que a mecânica quântica tem consequências reais. Isso que você está usando depende de dispositivos que envolvem física quântica. Quando você fala de um computador, um LED usado em TV, ou um CD Player, você está falando de objetos que dependem dela. É sempre bom lembrar que o laser, já tão popular em inúmeras aplicações, é algo que não existiria sem a mecânica quântica. Então, a nossa tecnologia high-tech depende fortemente dessa disciplina, enfatiza Amir Caldeira, acrescentando que é fundamental uma pessoa saber que aquilo que ela usa no cotidiano é mecânica quântica. “Agora, como a mecânica quântica tem desdobramentos fora do cotidiano, a minha ideia é passar o que é isso, o quão estranho é – e que é estranho mesmo -, mas explicar que a natureza funciona desse jeito.

A origem da palestra de Amir Caldeira surgiu há algum tempo, quando o pesquisador deu uma palestra para introduzir o conceito de informação quântica para pessoas que atuam em sociologia, psicologia e em várias outras áreas. Mas, para falar de informação quântica, que é algo muito novo e que está começando a engatinhar, o palestrante tinha que explicar um pouco de mecânica quântica. Então, a ideia foi introduzir esta área que é muito mais complicada para então conectá-la à teoria de informação e finalmente mostrar como determinados efeitos quânticos bastante inusitados podem ter desdobramentos surpreendentes nesta área.

(Rui Sintra – jornalista)

16 de março de 2018

24 maneiras de morrer com um buraco negro

O Programa Ciência às 19 Horas regressou no passado dia 08 de março, pelas 19 horas, para mais uma temporada, esta relativa ao ano 2016. Coube ao Prof. Dr. Rodrigo Nemmen – docente e pesquisador do IAG/USP – apresentar a palestra intitulada 24 maneiras de morrer com um buraco negro, um evento que lotou por completo o Auditório Prof. Sérgio Mascarenhas (IFSC/USP).

Nesta palestra, foram enfatizados os motivos pelos quais os buracos negros são tão fascinantes e por que são tão perigosos e têm um poder tão destrutivo. De fato, existem várias maneiras de se ser morto/a por um buraco negro, algumas delas de forma bem bizarra, tendo o palestrante incidido sua atenção em sete perigos.

Um buraco negro é uma região do espaço, na qual nada escapa, resultante de uma deformação no espaço-tempo, consequência da chamada Teoria da Relatividade Geral, que foi formulada precisamente há cem anos e três meses. De acordo com Einstein, que escreveu um manual de instruções sobre a gravidade, toda massa do universo curva o tecido do espaço ao seu redor. A gravidade é, justamente, essa curvatura.

Ao pedirmos ao Prof. Nemmen que nos desse uma definição mais palpável dessa curvatura, ele preferiu optar por apresentar analogias: A primeira analogia imediata é você imaginar que esse palco cósmico do espaço – ou seja, esse teatro onde os astros se movem -, na ausência de qualquer massa (planeta, estrela…), pode ser análogo ao estado de um trampolim sem ter alguém em cima. Então, esse espaço cósmico é plano. É como se fosse um trampolim, quando você não tem nenhuma pessoa em cima dele. Agora, no momento em que você coloca um astro, um planeta, ou qualquer coisa que tenha massa, nesse espaço, o tecido do espaço se deforma. Isso é análogo ao exemplo de quando alguém sobe num trampolim, salienta o palestrante. Contudo, segundo nosso entrevistado, essa analogia – e qualquer outra – irá esbarrar em limitações. Porque você vai pensar: Mas, para onde está curvando o espaço? Ele não está curvando para nenhum lugar. Na verdade, se isso fosse medido, a curvatura mostraria que suas regras começariam a falhar. Porque, o que ela vai lhe dizer é que a geometria euclidiana funciona no espaço sem massa. Funciona no trampolim, sem ninguém. Agora, se você começar a aplicar as regras de Euclides ou o teorema de Pitágoras no espaço deformado ao redor de uma estrela, ou de um buraco negro, melhor jogar tudo no lixo, porque vai ser inútil.

Existe um forte poder destrutivo dos buracos negros, um tema que foi amplamente abordado na palestra do Prof. Rodrigo Nemmen. Contudo, nosso convidado teve oportunidade de nos falar um pouco sobre isso antes de sua apresentação. Eu vou falar desses vários poderes no decurso de minha palestra. Vou falar com mais detalhes. Mas, por exemplo, o poder gravitacional dos buracos negros é a origem de toda essa destruição; porque toda a gravidade atinge todos os seus extremos mais destrutivos do Universo, perto de um buraco negro. Então, a gravidade é o grande agente destrutivo. Por exemplo, a maneira mais imediata de você morrer com um buraco negro é cair lá dentro, já que quando você cruza a superfície do buraco negro, a gravidade vai aprisionar você lá para sempre e imediatamente você vai colapsar para o centro do buraco negro e ser esmagado, sublinha Nemmer.

Algumas pessoas chamam os buracos negros de átomos gravitacionais, porque eles são criaturas puramente compostas de gravidade. Não possuem uma estrutura complicada como a da Terra, por exemplo, que tem várias camadas. Nemmen sublinha que a gravidade dos buracos negros é tão intensa, que ela faz toda a composição de um buraco negro colapsar para um ponto no centro dele. Então, toda a massa dele está nesse ponto central, que é protegido por uma superfície chamada Horizonte de Eventos. Quando se cruza esse Horizonte de Eventos, segundo Nemmen (…) é melhor você assinar um testamento antes (…) cai-se imediatamente no centro do buraco negro e tudo será esmagado pela gravidade dele, que é o núcleo, que chamamos de Singularidade.

Como os buracos negros distorcem as noções de realidade e espaço-tempo? As noções de espaço e tempo de todas as pessoas que estão na Terra são baseadas em um ambiente relativamente seguro, que é o do nosso planeta. É um ambiente em que a geometria euclidiana é válida e onde é muito segura. Aqui, o espaço e tempo estão bem definidos. Agora, quando nos deslocamos para perto de um buraco negro, ele literalmente irá distorcer as nossas noções de espaço e tempo, conforme explica nosso convidado: Se você ficar aqui na Terra, medindo o passar do tempo no seu relógio, e se nesse exato momento eu fizer uma viagem para perto de um buraco negro e ficar um tempo lá – sem cair – e voltar para a Terra, você vai ver que se passou muito mais tempo no seu relógio, do que no meu (isso depende de como eu circundei o buraco negro). Por exemplo, se eu ficar muito perto da superfície de um buraco negro durante três horas, sem cruzar a superfície e voltar, no seu relógio terão passado alguns anos. O que você percebeu como passagem de tempo de alguns anos, no meu relógio foram apenas algumas horas. Esse é um exemplo de como eles distorcem nossa concepção de espaço e tempo. Mas tudo isso sai do manual de instruções de gravidade escrito pelo Einstein, no qual espaço e tempo dependem do ponto de vista. Espaço e tempo são relativos. Espaço e tempo são elásticos e essa elasticidade que ilustrei é exacerbada pelos buracos negros.

Dentre os exemplos de como morrer com um buraco negro, Nemmen ilustra um em particular – a Espaguetificação: Se você tiver o azar de cair em um buraco negro, a atração gravitacional que os seus pés sentirão será muito maior do que aquela que a sua cabeça sentirá. A força gravitacional será muito mais forte nos seus pés, do que em sua cabeça. Então, na prática, você será espichado, porque os seus pés vão começar a cair mais rápido do que a sua cabeça, então você será espichado e virar um espaguete, comenta com humor nosso entrevistado.

Mas, afinal, o que ainda falta descobrir sobre os buracos negros? Para nosso entrevistado, aquilo que mais o apaixona é poder fazer uma fotografia de um buraco negro. Geralmente, essas criaturas cósmicas estão bem longe: estima-se que a mais próxima esteja a cerca de mil anos de distância. É um buraco negro estelar e tem uma massa dez vezes maior que a massa do sol. Por outro lado, um dos buracos negros mais massivos e que se encontra próximo do planeta Terra está no centro da nossa galáxia e chama-se Sagitário A-estrela: Esse “cara” tem quatro milhões de vezes a massa do sol concentrada e colapsada dentro do Horizonte de Eventos. Queremos fazer uma imagem do buraco negro, porque nunca fizemos isso antes. Dentro do Horizonte de Eventos – se Einstein estiver correto -, nunca teremos acesso a ela. É outro universo (literalmente) dentro do buraco negro. O que gostaríamos de fazer com essa foto é testar se Einstein estava certo no que concerne às propriedades do buraco negro e ao redor dele. Esse capítulo da enciclopédia da gravidade ainda está em aberto. Então, é isso que queremos explicar, fazendo uma fotografia de um buraco negro: parece ficção científica, conclui nosso entrevistado.

(Rui Sintra – jornalista)
16 de março de 2018

Falando sobre meditação

O Instituto de Física de São Carlos (IFSC/USP) recebeu no dia 13 de novembro, pelas 19 horas, no Auditório Prof. Sérgio Mascarenhas, a última edição de 2015 do programa Ciência às 19 Horas, com a presença da Dra. Elisa Harumi Kozasa, docente e pesquisadora do Instituto do Cérebro – Hospital Israelita Albert Einstein, que abordou o tema Pesquisas em meditação.

A palestrante falou sobre o fato de, nos últimos anos, ter havido um crescente aumento do interesse do público em geral e acadêmico sobre meditação, bem como yoga, tai chi e outras práticas, tendo sublinhado, também, algumas das principais pesquisas sobre os efeitos e a fisiologia da meditação, incluindo aquelas que utilizam a técnica de neuroimagem funcional.

Embora seja comumente associada a diversas filosofias religiosas orientais, o certo é que a meditação é uma prática milenar praticada e desenvolvida ao longo do tempo por diversos povos e culturas, não só num contexto meramente espiritual, mas, principalmente, como uma ferramenta para o desenvolvimento pessoal do indivíduo, favorecendo o equilíbrio tão necessário entre corpo e mente. Em diversos estudos desenvolvidos no Instituto do Cérebro, no Hospital Israelita Albert Einstein e publicados em importantes revistas internacionais, como a NeuroImage, constatou-se que pessoas que realizam um teste de atenção sustentada durante um exame de ressonância magnética funcional, e que não meditam com regularidade, precisam ativar mais áreas cerebrais do que pessoas que meditam regularmente para obter a mesma performance. Isso pode significar que essas pessoas possam eventualmente ter um cérebro mais eficiente nesse tipo de teste de atenção.

Já em outro estudo publicado na Plos One, foi possível classificar, com uma precisão de quase 95%, se um cérebro, pela sua estrutura, pertencia a uma pessoa que meditava com regularidade ou não. Em um editorial publicado na Evidence-Based Complementary and Alternative Medicine, que teve a colaboração da Dra. Elisa Kozasa e de sua equipe, foi apresentada uma panorâmica de práticas como o ioga e a meditação e suas contribuições na área da reabilitação.

Em entrevista concedida à Assessoria de Comunicação do IFSC/USP, a Profa. Dra. Elisa Harumi Kozasa – uma das pioneiras em pesquisas em práticas complementares em nosso país – afirmou que, de fato, existem alguns estudos indicando diferenças na composição estrutural de cérebros em pessoas que fazem meditação, como, por exemplo, a espessura do córtex cerebral, em áreas pré-frontais do cérebro e na ínsula, que são áreas basicamente relacionadas à atenção e sensação corporal, além de outros estudos que mostram diferenças funcionais do cérebro também em áreas pré-frontais e em áreas igualmente pertencentes ao sistema límbico, que é o nosso sistema emocional. Teoricamente, existe uma diferença na habilidade do meditador em uma atenção sustentada, na relação emocional e na autoconsciência. A meditação influencia principalmente nesses aspectos (atenção, autoconsciência e regulação emocional). No aspecto da regulação emocional tem algumas questões interessantes que são derivadas desse tópico, como, por exemplo, a capacidade de treinar a compaixão. Isso é bem interessante, porque hoje um dos grandes problemas que vemos na humanidade é uma certa desumanização das relações; existem alguns estudos, por exemplo no Max-Planck-Institut, em ressonância funcional, desenvolvidos pela Dra. Tania Singer, em colaboração com  Matthieu Ricard – um monge e biólogo molecular por formação que, em conjunto com ela, tem estudado a meditação na compaixão e tem obtido dados bem interessantes nesta prática específica de meditação, que tende a gerar uma maior habilidade de perceber ter empatia e de se importar genuinamente com o sofrimento do outro, sublinhou a nossa entrevistada.

Quanto à questão relacionada a se a medicina reconhece, ou não, os benefícios da meditação, Eliza Kozasa salientou que cada vez mais se percebe que os médicos indicam aos seus pacientes a prática da meditação, em especial em áreas específicas, como, por exemplo, em situações cardiovasculares. Por exemplo, existem estudos desde a década de 70, relacionados à meditação transcendental (uma modalidade de meditação), mostrando que há uma redução da hipertensão em pessoas que praticam essa modalidade de meditação. Existem também estudos que indicam que a meditação é bastante interessante para pacientes que têm depressão. Mas, é claro que nesse caso de transtorno mental, devidamente supervisionado pelo psiquiatra ou psicólogo, existem modalidades, inclusive de terapia cognitiva (uma modalidade dentro da psicologia) que, quando associada à meditação do estilo mindfulness (foco total, ou atenção plena) pode ajudar pacientes com depressão, reduzindo seus sintomas, esclarece a pesquisadora.

Nesse contexto, a meditação pode ser interpretada como um tratamento paralelo, integrativo ou complementar. O tratamento integrativo é quando a própria equipe de saúde, como um todo (interdisciplinarmente), determina quais os benefícios o paciente teria se incluísse – além do tratamento convencional com medicamentos etc., – a meditação ou uma terapia cognitiva com meditação, a exemplo de algumas das modalidades que existem hoje, principalmente desenvolvidas e aplicadas no Reino Unido, cujo NIH (o SUS britânico) oferece a Mindfulness-based cognitive therapy [Terapia Cognitiva Baseada em Mindfulness] a pacientes com depressão maior. A meditação ajuda a regular as emoções, mas não o controle delas. Controle não é um termo adequado, porque no controle, a pessoa muitas vezes, reprime emoções ao invés de transformá-las, de lidar com elas ou expressá-las de forma mais adequada. Quando eu uso o termo ‘regular’, é mais no sentido de ela conseguir lidar melhor com a emoção, transformar a emoção em algo mais positivo e expressá-la de forma melhor, acrescenta Elisa.

Contudo, a meditação é algo que ainda não está muito explorado e que, segundo a pesquisadora, ainda existe muito para ser descoberto, nomeadamente como tratamento integrativo ou complementar. Eu acho que estamos apenas no início de tudo. Muitos estudos não têm um controle experimental adequado. Hoje, cada vez mais se tem essa preocupação com o controle experimental adequado, para que esses estudos possam realmente trazer evidências melhores sobre o uso dessa técnica… Estamos falando da medicina, mas, na verdade, a área educacional é uma das que mais se beneficiarão, porque hoje existem escolas que estão introduzindo práticas meditativas para crianças e adolescentes, no sentido de ajudar esses alunos a desenvolverem não só habilidades informacionais, como também habilidades sociais e comportamentais, que vão interligar-se com aquilo que falei atrás sobre humanização, enfatiza nossa entrevistada.

Por outro lado, e concluindo, a meditação tem-se mostrado muito eficiente na regulação da conhecida TDAH (Transtorno de Déficit de Atenção e Hiperatividade), havendo igualmente diversos estudos sobre essa área. Neste ano, inclusive, publicamos um estudo sobre a TDAH em adultos, algo que é mais grave do que em crianças, já que esse transtorno se encontra instalado há muito mais tempo no indivíduo. Em geral, muitas pessoas após a adolescência não manifestam mais sintomas (não tão gravemente), e temos, de fato, um estudo com adultos que têm TDAH, pacientes que vieram da psiquiatria da USP e que foram lá e receberam o treinamento em meditação do tipo ‘mindfulnes’, em um programa que foi adaptado para pacientes com TDAH, com um instrutor muito experiente. Então, tivemos um resultado muito bom em relação à habilidade de manter a atenção sustentada e o controle de pulsos. Aliás, esses dois são os piores problemas de quem tem TDAH, ou seja, não conseguir manter a atenção e também não conseguir controlar os pulsos, conclui nossa entrevistada.

A Dra. Elisa Harumi Kozasa é pesquisadora e docente do Instituto Israelita de Ensino e Pesquisa Albert Einstein e Fellow do Mind and Life Institute. Possui graduação em Ciências Biológicas pela Universidade de São Paulo (1989), pós-doutorado (2012), doutorado (2002), e mestrado (1999) pelo Departamento de Psicobiologia da Universidade Federal de São Paulo (Capes 7), onde é professora afiliada. Suas principais pesquisas abordam a neurofisiologia de estados de consciência, como a meditação, através da neuroimagem funcional, e a avaliação de intervenções que envolvem treinamento de habilidades cognitivas e comportamentais e que promovem uma melhor qualidade de vida e bem-estar.

Nestas áreas participou dos diálogos entre pesquisadores e o Dalai Lama, na interface entre efeitos de práticas contemplativas para a saúde, em 2006 e 2011, possuindo colaborações internacionais em andamento com pesquisadores do MD Anderson Cancer Center e Harvard Medical School.

(Rui Sintra – jornalista)

16 de março de 2018

Ouvindo as ondas de rádio do Universo: O Projeto LLAMA

Em mais uma edição do programa “Ciência às 19 Horas”, o Instituto de Física de São Carlos (IFSC/USP) recebeu no dia 20 de outubro, no Auditório Prof. Sérgio Mascarenhas, o Prof. Dr. Jacques Lépine, docente e pesquisador do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG/USP), que apresentou a palestra Ouvindo as ondas de rádio do Universo: O Projeto LLAMA.

O mote foi dado através do prólogo, considerando que, durante séculos, os cientistas aprenderam muito sobre o Universo, observando os corpos celestes: primeiramente a olho nú e, posteriormente, com telescópios. A luz visível que os astros enviam contém informações muito preciosas, mas, no entanto, os desenvolvimentos tecnológicos verificados nas últimas décadas permitiram estudar o Universo através de outros tipos de radiação emitida pelos corpos celestes – raios gamma, raios X, radiação infravermelha e ondas de rádio.

Desde a década de 1930, os radiotelescópios têm ajudado os cientistas a desvendar mistérios do cosmos através das ondas de rádio, que seriam indecifráveis por outros métodos. Nos próximos anos, deve-se esperar muitas outras surpresas com o Projeto LLAMA (Large Latin American Millimeter Array), que está sendo desenvolvido por cientistas do Brasil e da Argentina, visando a instalação de um radiotelescópio com uma antena de 12m de diâmetro, nos Andes argentinos, a 4800 m de altitude, para estudar o Universo em ondas de rádio milimétricas e sub-milimétricas.

O projeto encontra-se em andamento e a instalação deve ser completada em 2016. Apesar de trabalhar a maior parte do tempo como um único radiotelescópio, o projeto LLAMA também realizará experimentos ditos de interferometria, com outros radiotelescópios. O radiotelescópio visa atender uma comunidade ampla, com objetivos científicos diversificados, tais como física solar, mapeamento de nuvens moleculares, estrutura da Galáxia, Astrometria e Cosmologia.

Neste âmbito, uma das primeiras questões que tivemos oportunidade de colocar ao Prof. Jacques Lépine, um pouco antes de ele dissertar sobre o tema proposto, foi relativa a que tipo de informações é que os astros podem nos fornecer, além daquelas que se referem às suas próprias composições químicas, como, por exemplo, oxigênio, carbono, ferro. De fato, além do enumerado, outras informações poderão ser coletadas, como as proporções, massas e temperaturas, ou seja, consegue-se, através dessas informações, descobrir condições físicas e químicas que podem determinar, inclusive, a idade dos astros. Existem várias teorias e observações que, juntas, podem determinar a idade de um astro, sendo que quando temos vários métodos, essa determinação pode ser muito fiel. Por exemplo, sabemos que o sol tem 4,6 bilhões de anos e esse conhecimento, esse cálculo, poderá ser feito também em estrelas recém-nascidas e em agrupamentos de estrelas. Como nascem juntas, essas estrelas têm maior massa, evoluem rapidamente e desaparecem. Contudo, conseguimos descobrir a idade desse agrupamento, olhando o conjunto de estrelas, elucida Jacques Lépine.

Contudo, parece contraditório quando se constata que as estrelas que têm maior massa são aquelas que desaparecem primeiro, já que se pode pensar que, pelo fato de terem maior massa, elas têm mais combustível e, por isso, deveriam durar mais tempo. Jacques Lépine é enfático na justificativa: Se elas têm mais massa, o combustível que está lá dentro sofre uma pressão maior e a velocidade com que as reações nucleares acontecem é enorme: e isso mais do que compensa para que aconteça o inevitável. Então, em pouco tempo, o astro evolui até terminar a sua vida útil.

Quanto aos mistérios que os radiotelescópios têm desvendado, através das ondas de rádio captadas, o certo é que toda a parte de gás que existe nas galáxias é muito mais conhecida através das ondas de rádio, do que propriamente através das observações. Segundo o pesquisador, através das ondas de rádio consegue-se descobrir todo o gás hidrogênio neutro que se encontra espalhado em nossa galáxia e que normalmente não emite luz visível. Por exemplo, quando temos nuvens densas, onde se formam estrelas, conseguimos saber a composição e temperatura dessas nuvens, através das ondas de rádio, pontua o Prof. Lépine, acrescentando que as ondas de rádio são uma espécie de complemento ao trabalho dos telescópios. Hoje, somos capazes de observar muitas regiões do espectro. Temos satélites de Raios-X, satélites de ultravioleta e infravermelho, assim podemos observar todo o visível do chão.

Quanto ao denominado projeto LLAMA (Large Latin American Millimeter Array) , ele compreende a construção de um radiotelescópio em um lugar de grande altitude – cerca de 4.800 metros de altitude -, situado nos Andes argentinos, com a grande vantagem de estar em um lugar de pouca atmosfera – grande parte da atmosfera terrestre ficou para baixo -, podendo-se fazer observações nos comprimentos de ondas muito curtas (milimétricas) e frequências muito altas.

Então, dentro desse espírito de complementar o que se conhece em diferentes comprimentos de ondas, está-se explorando uma região que é nova, ou seja, um lugar em que ninguém fazia observações em frequências tão altas. E há muita coisa que só aparece ali e dá para fazer experiências observando com telescópios distintos, em diversos lugares do planeta, observando juntos e obtendo uma resolução angular absolutamente incrível. Imagine algo com o tamanho de um alfinete a 10 mil km… É mais ou menos isso que atingiremos, se conseguirmos fazer essa interferometria no comprimento de onda de 1 milímetro. Nosso radiotelescópio vai ser capaz de observar em 1 milímetro. Existem outros que também estão sendo montados com receptores para essas frequências, e as primeiras experiências em distâncias pequenas já foram feitas para essas interferometrias (1 milímetro). Mas, quando conseguirmos grandes distâncias, ficaremos insuperáveis, em termos de resolução angular. Quero dizer que isso é outro tipo de enxergar um planeta em torno de uma estrela, sublinha o pesquisador. Hoje, sabe-se que existem planetas, mas não se consegue ter muita informação sobre eles, sabendo-se apenas que existem, porque quando passam na frente de uma estrela têm uma diminuição na quantidade de luz.

Neste momento, segundo o Prof. Lépine, o que falta descobrir no Universo é a evidência de vida em outro lugar. Até agora não tem evidência. Acho que vida inteligente não progrediu em outros lugares, enfatiza o cientista, com algum humor, acrescentando: Eu acho que existe vida e não só vida microscópica. Se olharmos o passado da Terra, durante milhões de anos existiram as trilobitas e amonitas, e só depois é que os dinossauros se desenvolveram. Se conseguirmos descobrir alguma evidência de vida – até com a ajuda dos radiotelescópios -, como, por exemplo, as alterações que a vida pode produzir na atmosfera, já ficarei feliz, conclui nosso convidado.

(Rui Sintra – jornalista)

16 de março de 2018

Como a física pôde estudar os restos mortais dos primeiros imperadores do Brasil

Inserida na programação da SIFSC-2015 – Semana Integrada do Instituto de Física de São Carlos, ocorreu no dia 29 de setembro, cerca das 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP), mais uma edição do programa Ciência às 19 Horas, que na circunstância trouxe a Profa. Dra. Márcia de Almeida Rizzutto, docente e pesquisadora do Instituto de Física da Universidade de São Paulo, que apresentou a palestra intitulada Primeiros imperadores do Brasil: a física pôde estudá-los!

A apresentação de Márcia Rizzutto deu ênfase ao fato de, em 2012, ter sido realizada uma pesquisa multidisciplinar nos restos mortais do Imperador D. Pedro I e de suas esposas – D. Leopoldina e D. Amélia -, que se encontram depositados na Capela Imperial do Monumento à Independência, em São Paulo. Como é do conhecimento público, D. Pedro I é uma das principais personalidades da história do Brasil, tendo sido, durante sua liderança, o principal responsável pela proclamação da independência do Brasil de Portugal, em 1822, fundando assim o Império do Brasil no mesmo ano.

Este trabalho de arqueologia multidisciplinar envolveu vários grupos de pesquisadores com metodologias de análises complementares, um trabalho complexo que também utilizou vários estudos físico-químicos para entender os materiais e as condições de conservação, ou não, dos restos mortais dos imperadores do Brasil. Particularmente, o Instituto de Física da Universidade de São Paulo, através do grupo de física aplicada com aceleradores, auxiliou na caracterização dos materiais dos objetos existentes nos restos mortais dos imperadores.

Nesta palestra, Márcia Rizzutto mostrou como as análises por metodologias físicas permitiram compreender melhor a composição química dos objetos (metais, ossos, tecidos, etc.), associados aos remanescentes humanos, bem como as degradações ocorridas devido à contaminação sofrida no ambiente em que os materiais foram encontrados.

De fato, esse trabalho iniciou-se a partir de um projeto de mestrado em Arqueologia da historiadora Valdirene Ambiel, cuja proposta foi estudar os remanescentes humanos dos imperadores e de suas esposas. Ela fez esse projeto dentro do Museu de Arqueologia e Etnologia da USP, inserido no sistema de pós-graduação, obviamente com todas as autorizações junto ao IPHAN e aos descendentes da família imperial. A ideia foi questionar quais técnicas – físicas, químicas, biofísicas, de geociência – seriam utilizadas e como poderíamos estudar esses objetos para conseguir tirar, ou obter, a maior quantidade de informações possíveis.

Devido às técnicas, houve parcerias com cerca de dez instituições e de vários pesquisadores que auxiliaram no trabalho. O projeto foi gerado no MAE – Museu de Arqueologia e Etnologia, da Universidade de São Paulo, e teve a participação do IPEM – Instituto de Pesos e Medidas, para que se pudessem fazer todas as coletas de gases. Não sabíamos quais seriam as condições que encontraríamos ao abrir esses corpos, então houve uma preocupação muito grande com contaminação. Foi feito um pedido para que fosse realizada uma cromatografia gasosa, para que pudéssemos identificar se havia algum perigo nesse sentido. Depois, o pessoal da Microbiologia da USP fez toda uma coleta para crescer fungos e bactérias, com o intuito de analisar quais danos esses organismos poderiam causar, para que, depois, pudéssemos fazer as análises. Então, nesse inventário, foram discutidas todas as possibilidades, que incluíram a coleta e abertura dos caixões, porque havia questionamentos sobre os corpos, principalmente sobre o de D. Pedro. Fizemos um cronograma com algumas questões sobre as análises que seriam feitas caso os corpos estivessem em determinadas condições, etc, conta Márcia Rizzutto.

Em um primeiro momento, a ideia foi fazer a radiografia, porque sabia-se da existência das ossadas e haviam questionamentos sobre as doenças e causas da morte da Dona Leopoldina e do próprio D. Pedro. Tanto para a pesquisadora, como para seus colegas, foi muito interessante, porque a Faculdade de Medicina absorveu a ideia e conseguiu-se fazer as tomografias, que foram executadas pela Faculdade de Medicina. Os corpos foram retirados do mausoléu durante o período da noite, prolongando-se o trabalho por toda a madrugada, com todo um sistema complexo e sob sigilo absoluto, no sentido de salvaguardar eventuais sensacionalismos da mídia. Fomos até o Hospital Universitário, pegamos os três corpos, fizemos as tomografias e trouxemos os corpos de volta. Mas a Faculdade de Medicina se empenhou em fazer e auxiliar as análises. Muitas das informações obtidas com as tomografias serão usadas pela Valdirene em seu projeto de doutorado, já que agora ela também está mais vinculada à Faculdade de Medicina. Esse trabalho foi realizado durante o ano de 2012 e terminou em 2013. Agora ela está no meio do doutorado, então foi um rico material para o mestrado, no qual Valdirene focou bastante na parte histórica e arqueológica, comenta Márcia Rizzutto.

Este trabalho revelou, por exemplo, que D. Pedro I fraturou ao longo de sua vida quatro costelas do lado esquerdo, consequência de dois acidentes — uma queda de cavalo e quebra de carruagem. Isso teria prejudicado um de seus pulmões e, consequentemente, agravado uma tuberculose que causou sua morte aos 36 anos, em 1834.

(Rui Sintra – jornalista)

16 de março de 2018

Somos especiais – não somos?

Somos a única espécie a estudar as outras, a modificar seu ambiente, a conquistar outros – até mesmo fora do planeta, por isso nossa capacidade cognitiva é sem igual. Por trás dessa capacidade cognitiva está um cérebro que, até recentemente, era considerado literalmente extraordinário: uma exceção às regras. Sete vezes maior do que esperado para o tamanho do corpo, custando 25% da energia que o sustenta (apesar de representar apenas 2% da massa corporal) e contendo o maior córtex cerebral em proporção ao cérebro; o cérebro humano parece de fato ser especial – sobretudo por ter alcançado seu tamanho atual em apenas 1.5 milhões de anos na evolução. Inúmeros dados colocam o cérebro humano em seu devido lugar: como um cérebro grande de primata, mas ainda assim, apenas mais um primata. O que explica nossa capacidade cognitiva ímpar seria um número de neurônios no córtex cerebral igualmente ímpar, inacessível a outras espécies e atingido na evolução humana devido a uma invenção exclusivamente humana: a cozinha!

Foi com base no resumo acima que o IFSC/USP recebeu, no dia 17 de agosto, a Profª. Drª Suzana Herculano-Houzel, docente e pesquisadora do Instituto de Ciências Biomédicas – Universidade Federal do Rio de Janeiro (UFRJ), que apresentou a palestra Somos especiais – não somos? Dezesseis bilhões de neurônios e o impacto da cozinha na evolução humana, integrada no ciclo Ciência às 19 Horas, que comemorou a centésima palestra do citado programa.

Suzana Herculano-Houzel é uma das mais conceituadas e notáveis neurocientistas do Brasil, amplamente conhecida no exterior. Criadora, em 2000, do site O Cérebro Nosso de Cada Dia, a paixão de Suzana Houzel por pensar no lado “cerebral” em tudo aquilo que a rodeia fez com que começasse, em 2006, a ter uma coluna periódica no jornal A Folha de São Paulo. O entusiasmo inebriante com que encara a neurociência e a paulatina descoberta dos caminhos e segredos que estão intimamente ligados ao cérebro humano, fez com que a cientista, inclusive, escrevesse seis livros até agora, a saber: O Cérebro Nosso de Cada Dia (Vieira & Lent, 2002); Sexo, Drogas, Rock and Roll… & Chocolate (Vieira & Lent, 2003); O Cérebro em Transformação (Objetiva, 2005); Por que o Bocejo É Contagioso? (Jorge Zahar Editor, 2007); Fique de Bem com seu Cérebro (Sextante, 2007) e Pílulas de Neurociência para uma Vida Melhor (Sextante, 2009).

Carioca de gema, Suzana Houzel dirige o Laboratório de Neuroanatomia Comparada, na Universidade Federal do Rio de Janeiro (UFRJ) e, além de fazer divulgação científica, é ainda musicista nas horas vagas. Formou-se em Biologia Modalidade Genética pela UFRJ (1992), tendo feito o mestrado pela universidade americana Case Western Reserve (1995), doutorado na França, pela Pierre et Marie Curie (1998), e pós-doutorado na Alemanha, pelo Instituto Max Planck (1999), todos em neurociências. Exerce o cargo de professora adjunta na UFRJ, desde 2002. Entrevistar Suzana Herculano-Houzel transforma-se rapidamente numa conversa entre amigos, tal é a descontração, alegria contagiante e informalidade transmitidas pela cientista que, quase sempre, ostenta um sorriso largo, um olhar que complementa a maior parte de suas frases e não raros rasgos de um humor quase britânico.

Quando confrontamos a cientista com a afirmação contida no resumo de sua palestra, de que o cérebro humano é sete vezes maior do que aquilo que se esperaria para o tamanho do corpo, ela é enfática ao afirmar que em geral, na natureza, quanto maior é o animal, maior é o cérebro, sendo isso uma constante suficiente para que se consiga expressar essa relação, matematicamente. Ou seja, de fato consegue-se predizer que para um animal, com um tamanho corporal X, qual será o tamanho esperado de seu cérebro. Fazendo essa relação para vários mamíferos, sejam eles de que tipo for, descobre-se que o humano está muito acima da reta, conforme explica a cientista: Isso quer dizer que, devido ao tamanho do corpo que a gente tem, supostamente deveríamos ter um cérebro grande demais. Acontece que, quando você faz essa mesma relação apenas para os primatas e, sobretudo, quando você retira os grandes primatas da relação, você vê algo complemente diferente, ou seja, que o cérebro humano tem o tamanho que você esperaria que ele tivesse, para o tamanho do corpo que a gente tem, como primatas.

Assim, o que está evidente é que os orangotangos são os grandes primatas que se afastaram dessa relação entre tamanho do corpo e tamanho do cérebro que vale para um primata e a explicação para isso é que eles, os grandes primatas, estão no limite do que conseguem sustentar metabolicamente, com o que comem diariamente. Eles não têm o cérebro grande o suficiente para o corpo que apresentam. Ou, ao contrário: talvez eles tenham um corpo grande demais para o cérebro que possuem. Mas, quando se considera que eles já passam perto do que se supõe que seja o número máximo de horas por dia comendo, muito provavelmente eles apresentam um cérebro que não consegue atingir o tamanho que eles supostamente teriam para o tamanho do corpo que os grandes primatas têm – ou seja, eles saíram da reta.

Já na constatação de que o cérebro humano consome 25% da energia produzida pelo corpo humano, a cientista elucida: Em média, se você medir pelo consumo de oxigênio quanta energia o nosso corpo custa para se manter vivo, dá em torno de duas mil calorias – embora possa existir uma certa variação. Através do consumo de glicose e oxigênio, só o cérebro custa cerca de quinhentas quilocalorias por dia, ou seja, ¼ do total. Assim sendo, 25% da energia que o seu corpo consome é, na verdade, consumida apenas pelo seu cérebro, o que é um fato impressionante, tendo em atenção que, em termos de massa, ele só representa 2% do corpo. Mas, em consumo energético, ele é 25%. Ele custa supostamente doze vezes mais do que deveria custar. Só que, quando você faz a conta por número de neurônios, você descobre que o custo energético de um cérebro – não importa se é de um primata ou de roedor – é simplesmente proporcional ao número de neurônios que tem naquele cérebro. E na hora que você faz as contas, descobre que o cérebro humano custa apenas o tanto de energia que ele deveria custar para o número de neurônios, pontua a Profª Suzana Houzel.

Embora se conheça muito sobre o cérebro, o certo é que tem muita coisa ainda faltando descobrir, principalmente no que diz respeito ao fato de ainda não entendermos como é que tudo funciona junto. Já se tem uma ideia sobre o padrão de conexões, exceto como é exatamente o funcionamento bem coordenado das várias partes do cérebro e, ao mesmo tempo, como disso surge essa coisa coesa e única, que dá pelo nome de, ser humano.

Suzana Houzel está escrevendo mais um livro, onde a base de sustentação é a afirmação de que se a unidade do funcionamento do cérebro é o conjunto de neurônios, quanto mais neurônios você tem, maior deverá ser a sua capacidade de processar informação. Sobre essa equação, a cientista diz: Optar por um número, nessa capacidade, é outra história. Mas, em princípio, se continuarmos com a teoria mais genérica que diz que quanto mais neurônios você tem, mais unidades de processamento você tem e mais capacidade de processamento de informação você tem, é, comparativamente, como colocar mais chips no seu computador. Agora, o que é importante – e eu tomo cuidado de chamar de capacidade cognitiva -, é que isso não se traduz instantaneamente em habilidade cognitiva. Capacidade é quando você consegue e tem os meios de fazer algo, enquanto que habilidade é quando você, de fato, consegue fazer algo. E quando se fala nas habilidades extraordinárias do ser humano, estamos falando do ser humano que cursou escola, universidade, que tem uma profissão, que teve experiências que desenvolveram as suas capacidades… Porque, quando nascemos, não temos nada disso. Você tem capacidades, mas habilidades ainda não. Aí tem uma outra história sobre transmissão cultural de tecnologias… de desenvolvimento de tecnologias que, claro, dependem de você ter capacidade para fazer isso. Enfim, a história fica mais complicada, pontua Suzana Houzel.

Vale à pena ser cientista no Brasil?

Suzana Houzel é conhecida pela sua frontalidade e sinceridade quando o assunto é o apoio à pesquisa que se faz no Brasil. Na opinião dela, não vale a pena desenvolver ciência no Brasil, até porque quem escolhe seguir essa carreira não é levado a sério, inclusive antes mesmo de ser cientista. Motivo principal – os professores não são valorizados. Para a nossa entrevistada, o Brasil não tem a cultura de valorizar o conhecimento, de valorizar a pessoa que transmite conhecimento, e muito menos a pessoa que gera o conhecimento. O cientista brasileiro tem que ser mágico e malabarista, porque tem que adquirir várias habilidades que nenhum cientista no mundo imagina que vai precisar. Você tem que ser agente de viagem, contador, importador, especialista em informática, bombeiro hidráulico e eletricista, só para dar conta de manter um laboratório funcionando, porque a infraestrutura no Brasil é muito precária, lamenta Suzana, que acrescenta que o grande segredo para que as coisas andem para frente é a paixão que o cientista tem pela sua profissão, pela ciência.

Por outro lado, Suzana Houzel afirma que o público – a sociedade – tem ainda uma fantasia relativamente ao conceito de que o cientista deve ser um sacerdote e que não precisa ganhar dinheiro. É feio um cientista pensar em ganhar dinheiro no Brasil. Porquê? Se você é médico, você não faz o que gosta? Se você é engenheiro, não escolheu fazer o que você gosta? Então qual é a diferença? Porque o pobre do cientista carrega essa cruz? Na Europa, por exemplo, já existe uma valorização muito maior do cientista, do professor… Veja aqui no nosso país, o quanto é difícil você encontrar uma pessoa que, hoje, escolha seguir uma carreira de professor. Você se torna professor porque não conseguiu outra coisa, até porque o salário é terrível. Eu tenho chamado a atenção dos jovens para isso. Vários colegas meus me detestam por isso, mas os jovens precisam saber que, se você quer ser cientista, tem que saber que quando se formar e conseguir o seu primeiro emprego como jovem recém-graduado, ganhará mil e duzentos reais de bolsa – não é salário!!! -, sem direitos, enquanto seus colegas que se formaram em engenharia química ganham, no mínimo, seis mil reais por mês. Se um biólogo ou biomédico se tornar perito da polícia, o salário de entrada é seis mil reais. Então, abrir mão de alguma coisa para se sujeitar a uma bolsa de mil e duzentos reais por dois anos de mestrado, depois a uma bolsa de dois mil reais pelos próximos quatro anos do doutorado e depois a uma bolsa de quatro mil e cem reais para mais quatro anos de pós-doutorado, enquanto você já tem seis anos de formado? Isso é interessante para quem? Eu acho que a gente começou a ver os sinais de uma tomada de consciência, porque está ficando cada vez mais difícil conseguir estagiários em iniciação científica para os laboratórios. E os que começam no estágio tendem a abandonar muito rápido, enfatiza nossa entrevistada.

Em paralelo a esse cenário descrito por Suzana Houzel, tem ainda a inevitável fuga de excelentes mentes para o exterior, que, segundo a cientista, ironicamente o governo, através do programa Ciência sem Fronteiras, tem estimulado. Eu sou contra esse programa: a forma como ele foi implementado está desviando recursos da pós-graduação e fazendo a coisa do jeito errado, mandando o aluno de graduação para o exterior, ao invés de importar jovens cientistas pós-graduandos e pós-graduados. Mas, enfim, a parte que me diverte é a ironia de que o governo, ao pagar para enviar esses jovenzinhos de graduação para o exterior, aqueles que levam essa oportunidade a sério, aproveitando-a de verdade, estão descobrindo como a coisa é diferente lá fora. Vão voltar para cá, olhar a realidade e se dar conta de que, se quiserem fazer ciência, têm que ir embora deste país o mais rápido possível, afirma Suzana Houzel. Para a nossa entrevistada, o potencial está aqui, no Brasil, com jovens cientistas com enorme disposição, muita criatividade e grande jogo de cintura. Os poucos brasileiros que chegam ao exterior e que conseguem alcançar e produzir alguma coisa são super bem vistos como pessoas que conseguiram dar a volta por cima, apesar das adversidades, e como pessoas criativas que veem problemas diferentes, que olham para um problema já procurando alguma solução… Quem consegue dar certo, acaba sendo bem valorizado, lá fora é claro!, comenta Suzana Houzel, acrescentando que ficar no Brasil está cada vez mais complicado, difícil, desestimulante e cada vez mais frustrante. Eu voltei ao Brasil com idealismo, com vontade de fazer a diferença e de fazer alguma coisa inovadora, mas o estímulo para continuar no Brasil é cada vez menor. Chega em um ponto onde eu sou obrigada a me obrigar a pensar que não é para eu continuar aqui… não de qualquer jeito.

Para os jovens estudantes, a Profª Suzana Houzel deixa uma mensagem: O mais importante é que eles se deem à oportunidade de descobrir do que realmente gostam. Quando comecei a fazer biologia, há 25 anos, fazer ciência já era uma má ideia. Mas, ainda assim, os meus pais me apoiavam e diziam: “Se é disso que você realmente gosta, vai em frente, porque sempre tem lugar para quem é realmente bom”. E a maneira de você ser realmente bom é, sobretudo, fazer o que realmente gosta. Esse lado continua e acho que vai sempre continuar sendo verdade. O cientista tem que ser alguém que é apaixonado pelo que faz, por causa do próprio “fazer ciência”. Então, há que se ser extremamente motivado para dar conta disso. O primeiro desafio para o aspirante a cientista é justamente descobrir do que realmente gosta. Achou? Aí o passo dois é descobrir os meios de viabilizar isso, conclui nossa entrevistada.

(Rui Sintra – jornalista)

Fale conosco
Instituto de Física de São Carlos - IFSC Universidade de São Paulo - USP
Programa Ciência às 19 horas
Obrigado pela mensagem! Assim que possível entraremos em contato..