All posts by: scinfor

Sobre scinfor

27 de maio de 2018

A caminho de Marte

Exploração espacial é uma área cheia de incertezas, tão difícil quanto a escolha de uma profissão. Nesta palestra, o físico brasileiro Ivair Gontijo fará um relato da sua trajetória do interior de Minas Gerais até o JPL, um dos mais sofisticados laboratórios da NASA.

Durante a missão MSL, ele foi o responsável pela construção dos transmissores e receptores do radar usado na descida triunfal do Curiosity no planeta vermelho.

Muitas fotos e vídeos mostrarão detalhes fascinantes dos bastidores do projeto, lançamento e operação do mais complexo veículo robótico já enviado para outro mundo.

Serão abordados também os próximos passos na exploração de Marte.

A missão Mars2020 está em fase de implementação e irá mandar para Marte um novo veículo para coletar amostras com possíveis traços de material orgânico e procurar evidências de vida.

Estaremos, assim, dando os próximos passos em nosso caminho para colocarmos seres humanos no planeta Marte.

A caminho de Marte
play-sharp-fill

A caminho de Marte

12 de abril de 2018

A Amazonia vista do espaço e do chão – pesquisador do IPAM e astronauta da NASA partilham experiências

Na busca por um destino digno e saudável para a espaçonave chamada Terra, dois cientistas e um astronauta pedalaram mil e cem quilômetros pela Transamazônica, entre os estados do Pará e Amazonas, para viver, analisar e disseminar diversas realidades daquele ecossistema brasileiro.

Este é o Projeto Transamazônica + 25, que celebra os 25 anos da primeira viagem de Osvaldo Stella por aquela região e que agora combina conhecimento científico com um olhar documental para estudar as mudanças sofridas pela paisagem e populações locais.

O relato de Osvaldo Stella Martins (Engenheiro Mecânico, PhD em Ecologia e Recursos Naturais – IPAM- Instituto de Pesquisa Ambiental da Amazônia), transformado em uma palestra que ocorreu no dia 02 de abril do corrente ano, no superlotado Auditório Prof. Sérgio Mascarenhas (IFSC/USP), em mais uma edição do programa Ciência às 19 Horas, foi enriquecido pelos depoimentos do astronauta-chefe da NASA, Capitão da Marinha dos Estados Unidos da América, Chris Cassidy, veterano de dois voos espaciais e que volta à Estação Espacial Internacional no próximo ano para mais uma missão.

A primeira missão espacial de Cassidy ocorreu em 2009, com duração de duas semanas. Ele confessa que por ter sido sua primeira vez no espaço, toda sua atenção e concentração estiveram voltadas para as particularidades da missão, quase sem tempo para observar e analisar as múltiplas metamorfoses e características do planeta, com especial foco na região amazônica.

Já na sua segunda missão, ocorrida em 2013, onde permaneceu seis meses na Estação Espacial Internacional, Cassidy teve mais tempo para observar a Terra: De fato, me apercebi como nosso planeta é frágil e como a Amazônia se divide nitidamente em áreas distintas: um verde exuberante entrecortado por um azul que representa a água cristalina, enquanto várias áreas despontam cinzentas e de alguma forma inférteis graças aos impactos negativos provocados pelo homem.

Na entrevista que ambos concederam à Assessoria de Comunicação do IFSC, Cassidy confirmou que irá regressar em 2019 à Estação Espacial Internacional para mais uma missão e que seu olhar vai certamente incidir com mais atenção na Amazônia, para detectar minuciosamente as agressões perpetradas pelo homem e tentar registrar as suas graves feridas.

Clique nas imagens abaixo para assistir às entrevistas de Osvaldo Stella Martins e Chris Cassidy.

(Rui Sintra – jornalista)

Assista as entrevistas

Chris Cassady

Osvaldo Stella Martins

26 de março de 2018

Daniel Vanzella – “Relatividade Geral: entortando nossa visão do universo”

Recordar o legado de Albert Einstein exatamente no dia em que o famoso físico teórico alemão completaria 139 anos de idade.

Foi através desta efeméride que no passado dia 14 de março o Auditório “Prof. Sergio Mascarenhas” lotou sua capacidade para ouvir a palestra proferida pelo docente e pesquisador do IFSC/USP, Prof. Dr. Daniel Vanzella, uma apresentação integrada no programa “Ciência às 19 Horas”; excepcionalmente, esta edição do programa se enquadrou dentro de uma outra iniciativa promovida pelo Instituto de Física de São Carlos, denominada “1st. Einstein Day”, que teve também o intuito de homenagear aquele que foi responsável pelo desenvolvimento da teoria da relatividade geral, um dos pilares da física moderna.

“Relatividade Geral: entortando nossa visão do Universo” foi o tema explanado por Daniel Vanzella, tendo como base inicial o fato de que há mais de cem anos, Albert Einstein apresentava ao mundo sua nova teoria da gravidade – a Relatividade Geral – e, com ela, a mais quotidiana e antiga das interações fundamentais ganhou uma interpretação profunda e até mesmo fantástica.

Em sua palestra, Daniel Vanzella fez uma rápida incursão pelas bases conceituais dessa teoria, conduzindo o espectador através de ideias que, às vezes, pareciam romper os limites da ficção.

Daniel Vanzella é um daqueles pesquisadores que não precisa muita coisa para prender a atenção de quem o escuta. A paixão e o conhecimento que transmite rapidamente contagiam quem com ele debate ou questiona pormenores relacionados com a Física, principalmente com o tema que apresentou no dia 14 de março – Relatividade Geral.

Vale a pena conferir a entrevista feita com Daniel Vanzella, após sua palestra (clique na imagem para assistir o vídeo).

video
play-sharp-fill
19 de março de 2018

Recital-Palestra: Divertimentos – Descobertas: Estudos Criativos para o Desenvolvimento Musical

O dia 28 de novembro de 2017 ficou marcado pela última edição de 2017 do programa Ciência às 19 Horas, com uma programação mais alinhada com conceitos culturais. Dessa forma, o Auditório Prof. Sérgio Mascarenhas recebeu o Recital-Palestra: Divertimentos – Descobertas: Estudos Criativos para o Desenvolvimento Musical, com as participações de Heloisa Fernandes (piano) e Toninho Carrasqueira (Flauta), um evento que incluiu o lançamento do livro com o mesmo título do evento, obra recentemente publicada pela EDUSP.

Esses dois artistas, consagrados internacionalmente, compartilharam com o público sua sensibilidade e técnica refinadas, apresentando um repertório de composições onde tradição e modernidade dialogam e abrem espaço para a criação espontânea, a improvisação e a inspiração do momento, propostas no livro. O livro, da autoria de Toninho Carrasqueira, é o resultadfo de uma vida inteira dedicada à música e à docência, refletindo um novo olhar que amplia os horizontes dos estudantes de música. Aprender melhor, de forma lúdica, criando estudos próprios e exercícios específicos para que o músico se sinta impelido de compor melhor suas npróprias obras, são alguns dos temas abordados na publicação, que apela a um novo olhar, a novas formas de criatividade, tudo focado para um melhor entendimento das estruturas da linguagem musical, num espaço dedicado à música brasileira que ainda sofre com algum tipo de preconceito.

Clique na imagem abaixo para assistir à curta entrevista feita pela Assessoria de Comunicação do IFSC/USP aos dois artistas.

video
play-sharp-fill

(Rui Sintra – jornalista)

19 de março de 2018

Prof. Rodrigo Nemmen fala sobre a ciência do filme Interestelar

O filme de ficção científica intitulado Interstelar foi o mote principal para a realização da edição do mês de outubro do programa Ciência às 19 Horas, que ocorreu no dia 24 de outubro, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP), com a presença do palestrante convidado – Prof. Dr. Rodrigo Nemmen – docente e pesquisador no Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG/USP), que dissertou sobre o tema A Ciência do Filme Interestelar, um evento que incluiu a exibição do longa no mesmo dia, entre as 15h45 e 18h35.

O filme retrata um futuro não muito longínquo do presente, no qual a civilização humana está à beira do colapso. Devido à propagação incontrolável de pestes agrícolas, há uma grande escassez de alimentos e alterações na composição da atmosfera, ameaçando levar a humanidade à extinção dentro de poucas gerações. Neste contexto, é organizada uma viagem interplanetária em busca de um planeta potencialmente habitável e no qual seja possível reconstruir a civilização. Fazendo uso de um misterioso wormhole que surgiu no sistema solar e que constitui um portal para outra galáxia, a expedição viaja até um sistema planetário com vários candidatos, circundando um buraco negro supermassivo, denominado Gargantua.

Um dos planetas visitados, o planeta de Miller, possui muita água no estado líquido e orbita muito perto do buraco negro. Neste planeta os astronautas observam efeitos curiosos de gravitação, como ondas gigantes e fenómenos de Relatividade Geral, como grandes dilatações do tempo (uma hora no planeta corresponde a sete anos na Terra).

Tendo em conta que o revisor científico do filme foi Kip Thorne, uma das maiores referências científicas internacionais na área da gravitação e ganhador do Prêmio Nobel da Física – 2017, foi bastante interessante verificar onde estão instaladas as fronteiras entre realidade e a ficção neste filme, que aborda a existência de um buraco de minhoca (wormhole) que possibilita uma viagem intergalática, um fenômeno previsto teoricamente, mas jamais observado na prática. Esse fenômeno foi descrito primeiro por Albert Einstein e Nathan Rosen em 1935 e devido a isso seja oficialmente chamado de ponte de Einstein-Rosen. Segundo a teoria elaborada pelos dois físicos, buraco de minhoca é uma deformação do espaço-tempo que funcionaria como um atalho espacial.

Assim, o Prof. Nemmen revelou que os incríveis eventos fictícios do filme, assim como os efeitos especiais inéditos, são baseados em áreas fascinantes da ciência, falando também sobre buracos negros, viagens interestelares, planetas fora do sistema solar, etc., descrevendo as leis que governam o nosso universo e os fenômenos assombrosos que estas leis tornam possíveis.

Em entrevista à Assessoria de Comunicação do IFSC/USP, o pesquisador falou sobre o que, no filme, corresponde e não corresponde minimamente á realidade científica, tendo discorrido sobre dilatações do tempo, buracos de minhoca, dimensões espaciais, se será – ou não – possível fazer viagens interestelares no futuro, viagens no tempo, etc..

Clique na imagem abaixo para assistir à entrevista.

video
play-sharp-fill

(Rui Sintra – jornalista)

19 de março de 2018

A supercondutividade e as propriedades emergentes: porque o todo não é apenas a soma de suas partes

O Prof. Eduardo Miranda (Instituto de Física  Gleb Wataghin, Universidade Estadual de Campinas – UNICAMP ) foi o palestrante convidado de mais uma edição do programa Ciência às 19 Horas – um evento organizado mensalmente pelo IFSC/USP e aberto à sociedade -, que ocorreu no dia 26 de setembro, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP).

O tema abordado pelo palestrante – A supercondutividade e as propriedades emergentes: porque o todo não é apenas a soma de suas partes – deu uma ideia real de que conhecemos materiais que apresentam uma vasta gama de propriedades surpreendentes, como os cristais líquidos que formam as telas de computadores, supercondutores que conduzem eletricidade sem resistência elétrica, superfluidos que escorrem por tubos sem viscosidade e muitos outros.

Para Eduardo Miranda, todos esses exemplos têm uma coisa em comum: só acontecem quando juntamos um número muito grande de átomos ou moléculas. Fenômenos que só aparecem quando há um número muito grande de constituintes são conhecidos como propriedades emergentes.

A pergunta que muitos pesquisadores se fazem é: Como entidades simples, como átomos, podem se juntar e dar origem a fenômenos tão intrigantes e complexos? É possível entender uma propriedade emergente, sabendo-se apenas como dois átomos interagem entre si? Como partir do microscópico e chegar ao macroscópico?

O palestrante pretendeu, nesta palestra, dar uma ideia dos raciocínios de que lançam mão os físicos para entender a complexidade da natureza a partir das leis simples que regem as interações entre elétrons, núcleos, átomos e moléculas.

Antes de sua palestra, Eduardo Miranda concedeu uma pequena entrevista abordando a temática.

video
play-sharp-fill

(Rui Sintra – jornalista)

18 de março de 2018

O que mais vem do céu além da luz das estrelas?

O planeta Terra é continuamente bombardeado por “raios cósmicos”, que, em sua maioria, são núcleos de átomos que chegam de todas as direções do céu.

Ao entrar na atmosfera, cada um deles interage com um átomo do ar, produzindo novas partículas, que, por sua vez, também reagirão dando origem a outras, em uma cascata de reações. Ao conjunto das partículas descendo até o solo damos o nome de “chuveiro atmosférico”.

Nós não nos damos conta de que estamos sendo atravessados por partículas desses chuveiros e não percebemos nenhum efeito.

É como fazer o “Raio X” de um dente: não sentimos nada.

Alguns raios cósmicos chegam à Terra com energias muito altas, da ordem da energia de uma bola de tênis sacada por um jogador profissional, concentrada em uma partícula subatômica. Os raios cósmicos mais energéticos são justamente os mais raros. Apenas um deles, em média, chega ao topo da atmosfera em um quilômetro quadrado em um ano.

Justamente por isso, é tão difícil medi-los. Para observá-los, necessitamos de detectores gigantescos como aqueles do Observatório Pierre Auger, instalado nos pampas argentinos, e do qual o Brasil participa ativamente.

Nesta palestra, mostra-se o papel do Observatório Pierre Auger na tentativa de conhecer a identidade desses raios cósmicos ultraenergéticos, de onde eles vêm, como foram produzidos e como interagem.

O que mais vem do céu além da luz das estrelas?
play-sharp-fill

O que mais vem do céu além da luz das estrelas?

16 de março de 2018

Garatéa-L – a missão lunar brasileira

O Prof. Lucas Fonseca foi o palestrante convidado em mais uma edição do programa Ciência às 19 Horas, promovido pelo Instituto de Física de São Carlos (IFSC/USP), evento que ocorreu no dia 22 de agosto, no Auditório Prof. Sérgio Mascarenhas.

Lucas Fonseca é CEO da empresa de consultoria Airvantis e Diretor da Missão Garatéa, um projeto que pretende enviar, pela primeira vez na história, uma sonda brasileira para sobrevoar a órbita lunar e coletar dados sobre a superfície, conduzindo experimentos científicos pioneiros com micróbios, moléculas e até células humanas. A ideia é a equipe beneficiar da recente revolução dos designados nanossatélites, mais conhecidos como cubesats, uma aposta que colocará o Brasil entre os pares na exploração espacial.

Aquela que será a primeira missão lunar brasileira está sendo desenvolvida em conjunto com cientistas do INPE (Instituto Nacional de Pesquisas Espaciais), ITA (Instituto Tecnológico de Aeronáutica), da USP, LNLS (Laboratório Nacional de Luz Síncrotron), Instituto Mauá de Tecnologia e da PUC-RS (Pontifícia Universidade Católica do Rio Grande do Sul).

Abordando o tema Garatéa-L – a missão lunar brasileira, Lucas Fonseca – que foi aluno da Escola de Engenharia de São Carlos (EESC/USP) – aproveitou sua palestra para falar também de seu trabalho na Agência Espacial Europeia e de sua participação – como único brasileiro – na missão Rosetta, que em 2014 logrou pousar, de forma inédita, uma sonda no cometa 67P.

Numa pequena entrevista, Lucas Fonseca explicou os projetos:

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Prof Nicholas Suntzeff fala sobre o universo

O Prof. Nicholas Suntzeff (Distinguished professor da Texas A&M University – EUA) foi o palestrante convidado em mais uma edição do programa Ciência às 19 Horas, que ocorreu no dia 20 de junho, no Auditório Prof. Sérgio Mascarenhas, do Instituto de Física de São Carlos (IFSC/USP), uma apresentação que foi subordinada ao tema – O Universo.

Mundialmente conhecido por ter criado, em 1994, junto com Brian Schmidt, o programa de observação de supernovas distantes, observações essas que quatro anos mais tarde mostraram que a expansão do universo é acelerada, dando origem ao conceito de Energia Escura (Schmidt e Adam Riess receberam o Prêmio Nobel de 2011), Suntzeff concedeu uma entrevista exclusiva à Assessoria de Comunicação do IFSC/USP, antes de sua palestra, onde falou de sua teoria, do Universo, como um todo, e da interação que teve com os alunos do Instituto nesta sua passagem pelo Brasil e pelo IFSC.

Assista à entrevista, clicando na imagem abaixo.

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Da deriva continental às placas tectônicas: de que forma trabalham o planeta e a ciência

O conhecimento sobre como nosso planeta funciona e como nossa vida é afetada por este funcionamento dinâmico e cada vez melhor caracterizado e compreendido, foi a base da palestra que a Profª Draª Maria Cristina Motta de Toledo (EACH/USP) apresentou em mais uma edição do programa “Ciência às 19 Horas”, evento ocorrido no dia 16 de maio e que abordou o tema “Da deriva continental às placas tectônicas: como trabalham o planeta e a ciência”. Nessa palestra, a oradora abordou não apenas o que se conhece hoje acerca das placas tectônicas, seus movimentos, seus efeitos e conexões com outros processos da Natureza, mas de como esse conhecimento foi adquirido, por meio de uma longa evolução de observações, reflexões e discussões, utilizando o método científico.

A teoria da Tectônica de Placas tem sido cada vez mais divulgada nos meios de comunicação e verifica-se um interesse crescente com relação aos detalhes dos processos dinâmicos envolvidos e também com relação às razões pelas quais esta teoria se encontra tão fortemente estabelecida.

Convidada a falar um pouco sobre este tema, mesmo antes de sua apresentação, Maria Cristina Motta de Toledo referiu que a teoria da Tectônica de Placas tem sido cada vez mais divulgada nos meios de comunicação e verifica-se um interesse crescente com relação aos detalhes dos processos dinâmicos envolvidos e também com relação às razões pelas quais esta teoria encontra-se tão fortemente estabelecida. O movimento constante das placas tectônicas de nosso planeta tem impactos diretos sobre a vida que existe nele, e não só ao nível humano. A dinâmica interna de nosso planeta, o movimento quase constante dessas placas tectônicas é que provoca os terremotos e tsunamis e, com eles, algumas mudanças climáticas, a formação de recursos minerais e o crescimento de cadeias montanhosas, entre outros fatores.

Clique na figura abaixo para acessar a pequena entrevista concedida pela Profª Drª Maria Cristina Motta de Toledo antes de sua palestra.

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Medicina personalizada em Oncologia: a contribuição da genética para o tratamento do câncer

“Medicina personalizada em Oncologia: a contribuição da genética para o tratamento do câncer”

“Medicina personalizada em Oncologia: a contribuição da genética para o tratamento do câncer” foi o tema abordado em mais uma edição do programa “Ciência às 19 Horas”, organizado pelo IFSC/USP, e que ocorreu no último dia 25 de Abril, no Auditório “Prof. Sérgio Mascarenhas”, com a participação da Dra. Anamaria A. Camargo (PhD), Coordenadora do Centro de Oncologia Molecular do Instituto Sírio-Libanês de Ensino e Pesquisa – Hospital Sírio-Libanês (SP).

Em sua apresentação, Anamaria Camargo abordou o fato de o Câncer ser, de fato, um nome usado para definir mais de 100 doenças distintas, que tem em comum o crescimento descontrolado das células de um determinado tecido, situação que afeta os tecidos adjacentes e distantes formando as metástases.

Recordamos que o câncer é a segunda principal causa de morte no mundo e foi responsável por 8.8 milhões de mortes em 2015.

Um pouco antes de sua apresentação, Anamaria Camargo conversou com a Assessoria de Comunicação do IFSC/USP e fez uma espécie de resumo do tema que se mantém, infelizmente, atual.

Para assistir a essa pequena entrevista, clique na imagem abaixo:

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Estamos sozinhos no Universo?

Uma das perguntas mais antigas que a humanidade se faz é: Estamos sozinhos no Universo? Na tentativa de responder a essa e outras questões extremamente complexas da natureza, como a origem da vida, foi criado um novo campo de pesquisa, a Astrobiologia, a qual reúne pesquisadores de diferentes áreas, trabalhando em colaboração.

Os cientistas, atuando como exploradores modernos, vasculham a vida em nosso planeta, desde as profundezas oceânicas até o alto das montanhas, procurando entender como ela surgiu, evoluiu e, em muitos casos, extinguiu-se, com o passar dos bilhões de anos de história da Terra. E hoje, esse esforço se estende para além da Terra, para os planetas e luas do Sistema Solar e mesmo para planetas muito distantes, orbitando outras estrelas de nossa Galáxia. Talvez consigamos encontrar indícios de vida extraterrestre, talvez não, mas o importante é que, no caminho, estamos compreendendo melhor os processos naturais que permitiram que um fenômeno tão complexo, como a vida, tenha surgido e evoluído em nosso Universo.

Das pesquisas e das inúmeras perguntas que se fazem – muitas delas sem resposta, principalmente de como surgiu a vida no nosso planeta e como é que tudo começou e como conseguimos chegar a este estágio, partimos para outro questionamento, que é, exatamente, se estamos sozinhos neste vastíssimo Universo. Mas, a pergunta relacionada com o estarmos sós nesta imensidade é no aspecto da vida inteligente, ou da vida em seu âmbito mais primário? Existem respostas concretas, ou tudo ainda é muito nebuloso, por vezes considerado tabú?

A astrobiologia pode dar respostas mais concretas sobre estes questionamentos?

Assista à entrevista com o Prof. Dr. Douglas Galante, pesquisador no Laboratório Nacional de Luz Síncroton (LNLS), realizada pouco antes de sua palestra intitulada Astrobiologia: estudando a vida no Universo, no dia 21 de março de 2017, no Auditório Professor Sérgio Mascarenhas (IFSC/USP), no Programa Ciência às 19 Horas.

Clique na imagem para assistir à entrevista.

video
play-sharp-fill

(Rui Sintra – jornalista)

16 de março de 2018

Das margens para o centro: A história da segunda revolução quântica

Na última palestra de 2016, inserida no programa Ciência às 19 Horas, coube ao Prof. Dr. Olival Freire Jr., docente e pesquisador da Universidade Federal da Bahia (UFBA) dissertar sobre o tema Das margens para o centro: A história da segunda revolução quântica. O título desta palestra foi propositalmente enigmático, remetendo para aquilo que alguns chamam de 2ª revolução quântica, que, na verdade, é um conjunto de conceitos e técnicas que se tornaram disponíveis nos anos 60, 70 do século XX, em contraposição com a primeira revolução que aconteceu no início desse mesmo século.

Essa 2ª revolução quântica, que teve enormes impactos na ciência e que promete outros ainda maiores, promete uma alteração no modo de processamento na área de informação quântica. De fato, segundo o palestrante, são apenas promessas. Essa área de informação quântica é hoje uma área da física muito quente, já que aconteceram atividades que foram desenvolvidas às margens da física. Não eram atividades, nem pesquisas muito bem valorizadas ou consideradas: eram pesquisas que trabalhavam com teorias chamadas heterodoxas, que na física podem representar o final da carreira de um jovem físico – se ele se dedicar excessivamente a trabalhos desse tipo, por exemplo.

A ideia de margem e centro é muito usual na ciência, para distinguir o que é mainstream, como explica Olival Jr: O que significa aquela agenda de pesquisa que é perfeitamente bem valorizada numa comunidade científica e o que é que são os temas que não são muito bem considerados, por razões diversas? Procuro sempre argumentar que parte dos conceitos essenciais do que chamamos de 2ª revolução quântica foi formulada num contexto de controvérsias, num contexto em que alguns desses proponentes eram muito mal considerados na comunidade dos físicos, na comunidade científica. Hoje, são altamente bem considerados, recebem premiações e tudo mais. Mas, por que o meu interesse nisso? Não é propriamente um interesse de trazer à luz alguém que foi valorizado na sua trajetória, embora isso seja importante, mas acima de tudo também valorizar e destacar, na ciência, aqueles que, no seu devido tempo, não tiveram destaque. Mas, o meu principal interesse é mostrar que esse é um bom caso para a gente compreender o quão complexa é a atividade científica. Então, ele, para mim, serve como um bom argumento contra qualquer visão simplista do que seja a atividade científica. O que é que eu chamo de atividade simplista? Tipicamente você pensa Não! Ciência é você fazer os dados experimentais, a partir daí extrair uma teoria e por aí afora. Não é assim. Ciência envolve muita conjectura, muita imaginação. Ciência tem uma atividade com uma dimensão social: o modo como você, jovem estudante, se relaciona com os seus colegas, o modo como você entra numa controvérsia. Então, o desenvolvimento da história da ciência, portanto, é um fenômeno tão complexo quanto os fenômenos complexos que a própria ciência estuda, enfatiza o pesquisador.

Quando se fala em renovação da pesquisa sobre os fundamentos da física quântica, isso tem muito a ver com a pergunta anterior, ou seja – e uma vez mais -, das margens para o centro. O palestrante gosta de citar um tema que, tipicamente, estava nos fundamentos da teoria quântica e que, por altura dos anos 50, era considerado um tema morto na ciência, um tema do qual ninguém iria extrair nada interessante. Então, qual era o tema? O tema era o seguinte: será que você pode alterar/modificar a teoria quântica, introduzindo mais variáveis? Essas variáveis são chamadas de variáveis escondidas – que para o palestrante é um nome péssimo, mas que se consagrou na literatura: escondidas em relação às que já são usadas pela teoria.

Será que você pode introduzir essas variáveis adicionais e, mesmo assim, preservar o poder preditivo da teoria quântica? E se você introduzir, isso trará alguma informação nova? Esse tipo de tema era completamente fora do escopo da física, na altura da década de 50. Poucas pessoas brilhantes se preocupavam com isso, sendo que o mais notável deles era Einstein. Na década de 50, outro notável também se dedicou a isso – David Bohm. Certamente, esse era considerado um tema de filosofia. Portanto, um tema fora da física. E foi justamente em torno desse tema que surgiu, quinze anos depois, o chamado Teorema de Bell, um teorema que estabeleceu com precisão quais alterações poderiam ser feitas na teoria quântica, sem a comprometer, e quais alterações que, ao serem feitas, colidissem com a própria teoria quântica. E o Teorema trouxe uma surpresa fenomenal. A surpresa é que, na altura em que ele começou a ser compreendido, no final dos anos 60, se percebeu que não existia um único teste já feito que permitisse fazer aquele contraste previsto pelo Teorema. Então você teve, a partir do início dos anos 70, uma série de experimentos que continuam ainda hoje… esses experimentos todos confirmaram as predições da teoria quântica e, portanto, invalidaram o tipo de teoria modificada que o próprio Bell tinha expectativa… mas o resultado de todo esse processo foi a consolidação, entre os físicos, de um novo fenômeno físico, chamado Emaranhamento Quântico. E é exatamente o Emaranhamento Quântico que é uma das propriedades centrais hoje, na pesquisa em informação quântica. É uma revolução nesse sentido… de uma posição marginal para uma posição muito importante na agenda de pesquisa dos físicos, sublinha Olival Jr..

No resumo de sua palestra, o Prof. Olival Freire Jr. optou por mencionar a frase revolução quântica, em vez de ter escolhido atualização, ou mesmo mudança. Para o palestrante, essa escolha teve o intuito de provocar, mas provocar no sentido delicado. Profissionalmente, eu sou historiador da ciência, mas graças à minha formação em física, ensino essa disciplina, mas meu doutorado foi de história da ciência e, portanto, eu trabalho sistematicamente nessa vertente. Portanto, como historiador da ciência, uso com muito cuidado o termo revolução científica, mesmo para me referir a revolução que todo mundo acha que foi uma revolução lá do Galileu, do Newton… A história da ciência mostra que teve muitos elementos de continuidade entre a física do final do período medieval e a física do Galileu. O problema não foi tão revolucionário quanto pensamos. Então, eu profissionalmente me contenho. Mas eu precisava atrair um pouco a atenção. Mas aí você vai ver que no resumo, eu disse que o termo “revolução quântica” não é meu, mas sim de um grande físico que tem relação com o Instituto de Física de São Carlos, que é o Alain Aspect, que é colaborador do Prof. Vanderlei Bagnato.

Nesse caminho, Olival Freire Jr, está convicto que a divulgação científica se transformou numa atividade, não sem antes ter apresentado uma explicação: a atividade científica tem uma história maior do que se imagina,  ganhou muita força nos últimos 40, 50 anos: Mas, já que falei do Galileu e do Newton, quero dizer que com toda a abertura que se teve no século dezessete para se pensar num universo maior, num universo infinito, ali já começaram as atividades de divulgação científica. E alguns desses divulgadores são grandes filósofos, grandes escritores. O Fontenelle foi um deles, mas um que eu gosto de citar é Voltaire. Voltaire tem uma explicação do que é a física newtoniana, que está traduzida em português. Ele sai da França e vai para a Inglaterra e se encanta com a liberdade que tinha nesse país. E com a mecânica newtoniana, ele ainda escreve uma obra. Pouco depois, todo o projeto da Enciclopédia, os chamados enciclopedistas – Encyclopédie -, dirigida pelo Jean le Rond d’Alembert, é um projeto de divulgação científica. Então, eu acho que, desde quando a ciência se tornou algo mais complexo ou pelo menos do século dezessete em diante, fazer com que o mundo da cultura, o mundo da arte, da literatura, o mundo do cidadão comum, compreenda o que se passa na ciência, quais são as ideias que estão presentes nela, na técnica, se tornou um desafio importante. Nos últimos 50 anos, aí eu diria particularmente depois da 2ª Guerra Mundial – porque acho que a 2ª Guerra Mundial mudou drasticamente a relação da ciência com a sociedade -, com a produção particularmente da bomba atômica, mas não só (a produção do radar também é um produto da 2ª Guerra), tudo isso colocou na ordem do dia a ideia de que a cidadania hoje requer que você tenha algum grau de informação sobre a ciência. E isso que eu estou dizendo não é uma ideia minha, mas de alguém que foi um dos reitores da Universidade de Harvard, um químico chamado James Conant, continua o palestrante, acrescentando que Conant, após a 2ª Guerra, participou do projeto Manhattan.

Quando acabou a 2ª Guerra, Conant passou a organizar cursos que eu chamaria de divulgação científica, mas eram cursos de história e filosofia da ciência, para os graduandos da Universidade de Harvard. Então, é nesse sentido que a divulgação científica  é muito importante. No caso do Brasil, e também no resto do mundo, ela tem uma responsabilidade adicional. É que parte da ciência tem que ser financiada por recursos públicos. Se o público não entende o papel da ciência, o impacto da ciência na sociedade, o financiamento da ciência vira uma coisa de mecenas ilustrados. Nós temos exemplos importantes em que, no caso dos EUA, aquele super collider, aquele acelerador, que em 1993 o congresso americano tomou a medida de fechar porque não era importante. Aquilo ali, provavelmente, vai passar para a história, porque a obra já estava bem adiantada e ficou lá, abandonada. Também se discute que destino dar àquela obra fenomenal. Então, eu acho que a divulgação científica também tem essa dimensão. Se nós queremos que a atividade científica tenha continuidade no nosso país,é preciso que haja recursos públicos.Veja, eu estou em São Paulo e poderia falar do meu estado, que também não compreende muito bem o papel da ciência, mas recentemente nós tivemos um importante político em São Paulo que pôs em dúvida a importância das pesquisas financiadas pela FAPESP. Então, quando eu digo que a sociedade precisa compreender o papel da ciência, é porque, a sociedade, compreendendo, nossos representantes (no judiciário, no mundo político) também vão entender mais. E nesse sentido eu acho que vocês, aqui na USP de São Carlos, têm tido um papel muito importante de vanguarda nesse esforço de divulgação científica, conclui Olival Freire Jr.

(Rui Sintra – jornalista)

16 de março de 2018

Entre o melhor e o pior

A edição do passado dia 25 de outubro do programa Ciência às 19 Horas foi diferente do que é habitual, não só pelo destaque conferido ao palestrante convidado, o Prof. Fabio Jatene, que na circunstância apresentou o tema Implantação de novas tecnologias no país e no cenário econômico mundial, como também pela homenagem que foi feita a seu pai, o famoso e saudoso Adib Domingos Jatene (Xapuri, Acre, 4 de junho de 1929 — São Paulo, 14 de novembro de 2014), médico (cirurgião torácico), professor universitário, inventor e cientista brasileiro.

Antes mesmo da palestra, coube ao Prof. Sérgio Mascarenhas (IFSC/USP) iniciar o pequeno período dedicado à lembrança da vida e obra de Adib Jatene, tendo sido acompanhado pelo Diretor do IFSC/USP, Prof. Tito José Bonagamba, pela futura Reitora da UFSCar, Profª Vera Hoffmann, e pelo Dr. Roberto Verzola, médico cardiologista e docente do Departamento de Ciências Fisiológicas – Laboratório de Fisiologia do Exercício (UFSCar), entre outros convidados.

Depois de ter recordado a vida e obra de Adib Jatene, o Prof. Sérgio Mascarenhas e o Diretor do IFSC/USP entregaram a seu filho, Prof. Fabio Jatene, uma placa de homenagem em reconhecimento à obra do famoso cirurgião torácico.

Filho de imigrantes árabes, Adib Jatene formou-se em medicina na Universidade de São Paulo, onde viria a se tornar professor. Conhecido e respeitado internacionalmente, além das dezenas de inovações no meio médico, como o inventor de uma cirurgia do coração que leva seu nome para tratamento da transposição das grandes artérias em recém-nascidos, e do primeiro coração-pulmão artificial do Hospital das Clínicas .

Jatene foi secretário estadual de Saúde no governo de Paulo Maluf e duas vezes ministro da Saúde durante o Governo Collor e, a última delas, no governo de Fernando Henrique Cardoso. Foi membro da Academia Nacional de Medicina e foi agraciado com o Prêmio Anísio Teixeira, em 1991.

Já no que diz respeito à palestra proferida pelo filho do homenageado – Prof. Fabio Biscegli Jatene -, falar de tecnologia é sempre um assunto complexo, caso se decida falar de todos os campos da atividade, e muito mais complexo quando se abordam áreas específicas, como é o caso da medicina. Existem áreas que tiveram e têm ainda um desenvolvimento extraordinário, como, por exemplo, a aviação comercial, agricultura e petróleo, entre muitas outras, mas em outras áreas esses avanços não ocorreram nem ocorrem na mesma proporção.

Para quem ainda não o conheça suficientemente, o Prof. Fabio Jatene é Professor Titular de Cirurgia Torácica da Faculdade de Medicina da Universidade de São Paulo (FMUSP), Diretor do Serviço de Cirurgia Torácica do Instituto do Coração (InCor) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HCFMUSP), e Vice-presidente da Sociedade Brasileira de Cirurgia Torácica, com especialização em Cirurgia Torácica e Cirurgia Cardiovascular. É autor de 219 artigos científicos em revistas científicas nacionais (176) e internacionais (43), foi editor de 7 livros e manuais na área e autor de 52 capítulos em livros nacionais (43) e internacionais (9), tendo recebido 18 prêmios ao longo de sua carreira

Na área profissional do Prof. Fabio Jatene – que concedeu à Assessoria de Comunicação do IFSC/USP uma pequena entrevista antes de iniciar sua palestra -, que é a cirurgia do coração – cirurgia torácica e cardiovascular –, é um fato que a grande maioria dos equipamentos dotados de um maior avanço tecnológico está disponível, observando-se, assim, uma certa heterogeneidade nessa área do conhecimento, a par de outras. Não digo que não é possível que se desenvolvam, no Brasil, equipamentos de ponta que necessitamos para a nossa missão, para a nossa profissão, mas o que acontece é para que você consiga desenvolver e utilizar esses equipamentos existe uma série de requisitos: precisam ser de boa qualidade, o mercado precisa ser atrativo, até porque, se assim não for, os empresários e as restantes pessoas interessadas em desenvolver e comercializar esses equipamentos acabam por se afastar. E nesta condição, ficamos defasados em relação a todo esse processo. Estamos avançando, mas é preciso reconhecer que esses passos ainda são muito tímidos, salienta o cirurgião.

Para Jatene, o fato de não termos tecnologia própria na área médica é um obstáculo até para que se possam diminuir os custos decorrentes de intervenções cirúrgicas, neste caso concreto na área cardiovascular, o que, para nosso entrevistado, causa algum constrangimento em prestar esse tipo de serviço. Esse foi um dos motivos que levou o InCor a desenvolver, nos últimos anos, um projeto chamado Inova-InCor, que é a tentativa de se avançar tecnologicamente na área da cardiopneumologia, que congrega os dois principais focos do Instituto.

E essa é uma iniciativa que não é restrita ao InCor, mas a outras áreas que também têm desenvolvido iniciativas semelhantes. Existe a Agência USP de Inovação, com a qual colaboro, que tem trabalhado fortemente nisso. Mas a ideia do Inova-InCor é criar possibilidades para dentro de nosso ambiente nas várias áreas relacionadas ao Instituto, para que possamos ter avanços significativos na área tecnológica, comenta nosso entrevistado, que acrescenta: Há um enorme interesse, tanto interno – no Instituto -, como em companhias e centros de desenvolvimento externos, no fomento de parcerias com o intuito de auxiliar ao desenvolvimento de equipamentos e projetos mais avançados. E isso é muito interessante! Nós iremos ter agora, neste mês de novembro, um simpósio com a participação do Instituto e de representantes do governo da Coreia do Sul, através de algumas de suas indústrias, com o intuito de ajudar a desenvolver tecnologia exatamente dentro da área médica e principalmente dentro da área da cardiopneumologia . A ideia é que essa parceria seja uma via de mão-dupla. Eles têm muita tecnologia e nós temos necessidade dela; mas, também temos algo para mostrar para eles – nossa experiência. A ideia é incorporar interesses. Como nós temos uma população muito numerosa, tudo isso talvez possa interessar a eles, até porque a nossa mão-de-obra é altamente especializada.

A despeito do atraso verificado, o Brasil tem agora a consciência do que aconteceu anteriormente e do que precisa acontecer a partir de agora e, a partir daqui, tentar tirar esse atraso da melhor maneira. Fabio Jatene é enfático ao afirmar que é importante que se tenha consciência que não só o InCor, como os outros institutos, estão com essas iniciativas de inovação e avanços tecnológicos voltados para suas áreas de atuação, em todas as áreas conhecimento. O ponto positivo desse grande processo é que hoje temos consciência da importância em se poder avançar, sublinha Jatene.

Comparativamente ao que se passa no exterior, o atual estado da arte na cirurgia torácica no Brasil pode ser dividido em duas partes Em relação à possibilidade de assistência, ao atendimento, o Brasil está praticamente no mesmo nível que ocorre no exterior e isso é confirmado pelo Prof. Fabio Jatene. Temos os mais modernos equipamentos, temos as técnicas desenvolvidas e temos os profissionais altamente capacitados para empregá-las.

Contudo, o que chama a atenção, na parte assistencial, é que o Brasil tem – da mesma forma que no assunto abordado acima, relacionado com o desenvolvimento tecnológico – diferentes possibilidades de oferecimento dessa tecnologia a toda a população. Por exemplo, existem hospitais que são considerados entre os melhores do mundo e, por outro lado, existem hospitais com uma qualidade bastante precária, ou seja, existem dificuldades de conseguir dar o melhor a todos que necessitam. Para o Prof. Fabio Jatene, essa situação pode ser resumida através de uma frase simples: “Nós temos o melhor no Brasil? Temos! Para todos? Ainda não!…”

(Rui Sintra – jornalista)

16 de março de 2018

Somos um holograma? Como assim?

O tempo e o espaço parecem fluidos, suaves e contínuos. Isso é verdade ou será apenas uma ilusão? Ninguém sabe, mas podemos especular. Uma possibilidade bem radical estudada por vários físicos é que nosso Universo – percebido como uma realidade tridimensional – é na verdade um holograma.

Este é um breve resumo da palestra que o Prof. Pedro Vieira* proferiu no passado dia 04 de outubro, em mais uma edição do programa Ciência às 19 Horas, subordinada ao tema Somos um holograma?.

Mas, como podemos ser um holograma?

Muitas vezes, na nossa intuição, algo nos parece suave e contínuo, como um líquido, mas, de fato, nem tudo é assim, explica o pesquisador convidado. Um líquido, como a água, parece à primeira vista, suave, que se deixa escorrer pela mão, até por vezes de forma poética, mas na realidade e ao contrário do que se possa supor de imediato, ele está cheio de moléculas: portanto, não é nada contínuo e suave. Por vezes, também algo que à distância parece suave, na verdade, quando é visto mais perto é totalmente diferente. E, se com o líquido podemos observar que ele é uma ilusão em termos de suavidade, podemos questionar se com o espaço, com o Universo, acontece a mesma coisa. Será que o espaço é suave, que eu posso me deslocar até qualquer ponto, ou que eu posso embalar minha mão tranquilamente? Parece suave esse movimento que acabamos de descrever Não será apenas uma mera ilusão?

O certo é que, na natureza, ainda não encontramos nada suave. Por exemplo, uma mesa não é suave, pois ela está cheia de moléculas. Então, será que o espaço é a primeira coisa que é suave? Não sabemos!!! O certo é que o espaço está cheio de moléculas. Contudo, existe outra hipótese, que é o próprio espaço ser uma ilusão, que ele não existe, que nós mesmos somos todos uma ilusão, podendo ser, inclusive, um holograma. A ideia é, através do pensamento, entender qual é a natureza do espaço-tempo, colocando perguntas teóricas e inventando experiências imaginárias, sendo que uma delas consiste em imaginar tentar ver qual é a quantidade de bagunça que existe em uma determinada região do espaço-tempo, comenta Pedro Vieira.

Imaginemo-nos, por exemplo, numa sala cheia de bagunça – mesas, cadeiras, camas, roupas, tapetes, etc. -, tudo em desordem. Se tivermos uma sala duas vezes maior, imediatamente somos induzidos a dizer que a bagunça vai ser duas vezes maior, ou seja, vai ter duas mesas, uma série enorme de cadeiras, várias camas e tapetes, ou seja, tudo multiplicado por dois. Contudo, não é bem assim, segundo o palestrante. Quando estudamos o espaço-tempo e quando colocamos a questão se esse espaço duplicado também duplica a bagunça, a designada desordem, chegamos à conclusão que isso não é verdade, ou seja, a bagunça não é proporcional ao volume do espaço, mas sim à sua área – e isso é uma surpresa.

Segundo nosso entrevistado, se observarmos uma casa, do lado de fora, chegamos à conclusão de que se a duplicarmos, de fato a bagunça existente dentro dela é proporcional à área das paredes e não ao volume. Na verdade, a casa está vazia, contudo as paredes estão carregadas de coisas e se duplicarmos o tamanho das paredes, aí sim, as bagunças existentes nas paredes duplicam também. Pedro Vieira acrescenta que se traduzirmos essa ideia para o tema do espaço-tempo, talvez não exista nada dentro dele e talvez toda a informação esteja em uma membrana, em um holograma que estaria no fim desse espaço-tempo. É uma ideia bem radical, mas é a melhor que temos até agora, afirma Pedro Vieira. Esta linha de raciocínio vai exatamente ao encontro dos designados buracos-negros, colocando-nos questões, como, por exemplo, o que são eles e como poderemos estudar e encontrar a quantidade de desordem que existe dentro deles. Para o palestrante tudo isso são experiências de pensamento: a desordem aumenta sempre, de igual forma como quando você quebra um copo, ou um prato e os pedaços não se unem mais. Comparativamente, se enchermos uma sala com uma quantidade enorme de bagunça, de objetos, em determinado momento a sala fica tão cheia que forma buracos-negros: claro que isto que acabo de dizer é uma experiência de pensamento.

Se juntarmos essas ideias explanadas pelo Prof. Pedro Vieira, iremos concluir que o buraco-negro é o local onde existe mais bagunça. Quando um buraco-negro é formado, ele não se desfaz mais. A questão dos buracos-negros é mais simples do que estudar um ambiente, como uma sala ou o interior de uma casa. Para os físicos, estudar um buraco-negro é algo que se consegue fazer com alguma facilidade. Esta experiência do pensamento leva-nos à conclusão que a desordem de um buraco-negro é proporcional à área do mesmo não ao seu volume. Assim, se é verdade que um buraco-negro tem mais bagunça que o interior de uma casa ou de uma sala, então o que está dentro delas é real, ou seja, não existe nada dentro delas, pois toda a informação está localizada nas paredes. Essa é a ideia de holograma, que é uma imagem que parece tridimensional, mas que na verdade é apenas bidimensional, conclui o pesquisador.

*Pedro Vieira é pesquisador do ICTP South American Institute for Fundamental Research – ICTP/SAIFR, IFT/UNESP – Perimeter Institute for Theoretical Physics, Ontario, Canadá.

(Rui Sintra – jornalista)

16 de março de 2018

Energia renovável como se apresenta o panorama nacional

O Brasil é um dos países no mundo com a maior porção de energia elétrica renovável, só que completamente concentrada no modal hidrelétrico, ou seja, construída e instalada muito longe dos centros de consumo, provocando, por isso, um problema muito grande no que diz respeito à transmissão.

Este foi o resumo que o Prof. James Waterhouse fez à Assessoria de Comunicação sobre o tema intitulado Energia renovável: um panorama nacional, palestra que o pesquisador apresentou na última edição do programa Ciência às 19 Horas, ocorrida no dia 20 de setembro, no Auditório “Prof. Sérgio Mascarenhas” (IFSC/USP).

E, o problema salientado no início desta nossa matéria deve-se, em primeiro lugar, à distância das hidrelétricas dos centros de consumo. Com exceção de Furnas, que se localiza no estado de Minas Gerais, as restantes localizam-se na bacia amazônica ou no Paraná e os consumidores estão a mais de mil quilômetros de distância, como, por exemplo, Rio de Janeiro e São Paulo. Desta forma, segundo Waterhouse, tem que se utilizar muitas linhas de transmissão, o que tem causado sérios problemas para o país, desde há longo tempo. Embora a geração de energia seja enviada através de novas hidrelétricas, cuja transmissão também foi ampliada, o certo é que ela está ainda aquém da necessidade nacional. “Temos tido muitos problemas com transmissão nos últimos vinte anos, no Brasil, além de termos outro problema muito grave, que é o endividamento do setor elétrico, que hoje é todo estatal”, comenta Waterhouse.

Segundo explicou o palestrante, o setor estatal é controlado pela presidência da república, que fez um decreto para a redução da tarifa energética, só que esse decreto acarretou num endividamento recorde de todas as empresas que não conseguiram cumprir metas de custo: por lei, elas foram obrigadas a vender a energia mais barata e acumularam dívidas. “Só a Eletrobrás, que é uma das faces dessa história – ou a principal face -, tem uma dívida de mais ou menos 45 bilhões de reais. Então, não tem como não quebrar e se quebra, quebra o país. Energia todo mundo consome. Precisamos de energia. O sistema Eletrobrás, se não fosse estatal, estava falido, basicamente”, enfatiza o palestrante. Dessa forma, a dívida de 45 bilhões terá que ser recuperada e quem vai pagar essa dívida, basicamente, é o consumidor, que vai reverter todos esses erros. Contudo, nesse intrincado processo de redução do endividamento, as empresas começaram a contingenciar investimentos. “O primeiro investimento comprometido foi a expansão de linhas de transmissão, e, na sequência, o processo de manutenção das linhas. As linhas de transmissão são ativos e de grande durabilidade – trinta e cinco ou quarenta anos de durabilidade -, então você tem que renovar, fazer uma manutenção compatível, só que sem dinheiro não existe manutenção”, lamenta Waterhouse.

Em face desses problemas, o que todas as concessionárias fizeram foi realizar um mínimo de manutenção possível nas linhas, porque não tinham dinheiro. Na opinião de nosso entrevistado, todo ativo de transmissão enfrenta dois problemas, sendo que o primeiro se concentra na idade de grande parte dos ativos nacionais de transmissão, que foram feitos durante a época do governo militar, tendo-se atingido exatamente o momento de reformá-los e trocar tudo. “Foi exatamente nessa hora que o recurso foi contingenciado. Então, as empresas de distribuição, todas as concessionárias, pouparam recursos, fazendo a mínima manutenção possível aquém da necessidade. Só que, como veio uma recessão brutal (a maior recessão do país), o consumo de energia, que crescia a 6% ao ano, diminuiu. Hoje temos uma sobre-oferta de energia da ordem de 5% e, no processo de retomada de crescimento, com 2% ou 2,5% que o país volte a crescer, esse excedente de energia passa imediatamente a virar déficit e as linhas vão ser imediatamente sobrecarregadas. Num futuro próximo haverá um risco – que não é desprezível – de termos um ativo bastante depreciado, sem a devida manutenção e com aumento de consumo muito grande”, sublinha James Waterhouse.

Na opinião de nosso entrevistado, há probabilidade do país ter vários colapsos. De vez em quando, uma queimada no Tocantins derruba o sistema elétrico nacional, já para não falar de outros acontecimentos e isso provavelmente irá ficar mais frequente, porque, segundo Waterhouse, não houve investimento necessário. “Neste panorama, temos geração de energia, só que se o nosso consumo voltar a aumentar, mesmo a nossa energia elétrica já contratada para construção – como Belo Monte, Jirau, etc. -, logo ficará aquém da necessidade. Além disso, nós temos o problema de transmissão”, sublinha Waterhouse, acrescentando que, num futuro breve, dependendo da taxa de crescimento do Brasil, a energia vai ser um risco para o crescimento. “Particularmente, em alguns locais do Brasil, principalmente no centro-oeste, o problema já é real. O Brasil, no centro-oeste, cresce a uma taxa grande porque aí a crise não foi muito sentida. O centro-oeste vive de plantação de grãos, de commodities agrícolas – que estão cada dia mais valorizadas -, e ele não depende de mercado externo – ele exporta”. Na opinião do entrevistado, o centro-oeste está vindo do lado contrário da crise. “Ele está crescendo. Só que, onde tem grãos, vai a proteína animal, vai o frango, vai boi, vai tudo. E onde vai proteína animal, vão as abatedoras e as processadoras. E onde vão as processadoras, vão as indústrias que dão apoio, que fazem equipamentos, máquinas etc. Cada uma dessas indústrias tem um consumo de energia cada vez maior, nessa cadeia. E por que que o centro-oeste não está conseguindo aumentar a taxa de industrialização no passo que teria o potencial de fazer? Porque, primeiro está faltando energia, não tem segurança energética. A rede de distribuição no centro-oeste é muito aquém da necessidade. A geração de energia também é muito aquém da necessidade e a expansão é muito rápida, e as concessionários do centro-oeste estão altamente endividadas e não têm nenhuma capacidade de resolver o problema a curto prazo. Então, o centro-oeste está pagando um preço muito maior pela falta de um planejamento bem-feito. Só que o centro-oeste precisa crescer e precisa se industrializar, porque ele está longe dos mercados de consumo. Se você não processar localmente esse material para exportar, vai ser difícil porque você tem mil e quinhentos quilômetros de logística e ela é muito cara: além disso, a logística no Brasil é de péssima qualidade”, acrescenta Waterhouse.

O pesquisador enfatiza que a única chance de manter o centro-oeste competitivo é processando localmente todos esses itens, aumentando o consumo local de grãos na cadeia de proteína e processando isso localmente. Só que, para isso, é necessário haver energia e segurança energética – algo que ainda não se conseguiu. “Tudo isso mostra o seguinte: que existe uma enorme janela de oportunidades para, principalmente, os modais renováveis de geração distribuída, todos os modais renováveis. Geração distribuída no centro-oeste já se usa e é o local do Brasil que mais tem geração distribuída, só que através de geradores a diesel, que são altamente poluentes e extremamente caros. Só que o centro-oeste, por outro lado, é muito rico em recursos naturais, então você tem um sol abundante, com poucas nuvens; você tem um excedente de biomassa que apodrece e não é utilizado; e você tem outros recursos naturais. Só o sol e a biomassa já poderiam produzir mais energia que o centro-oeste precisa. Então, é uma questão de levar a tecnologia.

Para James Waterhouse, o centro-oeste é um grande centro de consumo e é, no Brasil, onde a energia alternativa tem a maior chance de nascer em massa, porque existe uma demanda muito grande, quer não só em nível residencial, como industrial. E, a energia alternativa já é competitiva com a energia da rede, sendo, inclusive, muito mais barata – vejamos, por exemplo, a energia solar, que gera em qualquer lugar que se queira. “Você gera, sem necessidade da transmissão e sem necessidade da rede de distribuição. Você gera in loco. Só que ela tem um contra: o sol só está aí durante o dia. Quem tem consumo à noite, ou durante o dia todo, tem que ter duas opções, uma delas é ter bateria de reserva, e a outra é usar a linha. Ou seja, você gera um excedente de energia para a linha e depois você pega de volta, através de um mecanismo de compensação que já foi regulamentado pelo governo. Só que se você não tem uma linha compatível, que é o caso do centro-oeste, como eu vou armazenar? Usar baterias? Elas ainda são muito caras e não tem custo-benefício. Então, eu consigo ter energia, mas é mais barato o diesel do que ter as baterias e as placas solares. Então, para esses casos, a biomassa começa a fazer sentido”.

Contudo, ainda existem outras opções alternativas, como é o caso da utilização da biomassa, da energia eólica, que no Brasil é grande e tem aumentado e vai continuar aumentando, e, por fim, um novo modal que não se fala, mas que vai começar brevemente a ser falado no Brasil, que é a energia hidrocinética. “A energia hidrocinética é como se fosse uma turbina eólica, só que mergulhada dentro do rio. Ela pega a correnteza. No Brasil ainda não existe, mas está começando a nascer através de uma série de iniciativas. Eu participo de uma iniciativa para fazer já um primeiro gerador de 100 kilowatts, que já é uma potência apreciável, para colocar em Tucuruí [Pará] e aproveitar boa parte do que não se aproveita hoje. Então, o nosso potencial hidrocinético é enorme, é tão grande quanto o potencial eólico, só que por enquanto ele é completamente inexplorado. E a tecnologia de hidrocinética já foi desenvolvida em outros países, porque eles usam isso, por exemplo, através das marés ou em bacias, girando o gerador para um lado ou para o outro, e isso tem funcionado em boa parte do mundo”, explica Waterhouse.

Contudo, essa tecnologia que se utiliza no oceano, através de suas correntezas, não é a mesma que se usa para os rios. Existem várias diferenças e a tecnologia utilizada nos rios brasileiros ainda não está madura, já que existem inúmeros pormenores a considerar, como, por exemplo, tocos que podem danificar as pás, ou peixes excessivamente grandes que poderão entrar nas hélices e prejudicar o funcionamento do sistema. Por outro lado, a maior parte das energias alternativas também apresentam alguns problemas complexos, como é o caso das intermitências de geração de energia. Na energia eólica, qual é a solução se o vento parar de soprar? Ou na energia solar, já que só tem sol durante parte do dia? “Quer dizer, tanto a opção de energia solar quanto a eólica têm uma grande intermitência. A biomassa, como se pode acumular, você tira a intermitência, só que no Brasil nós não usamos biomassa em pequena escala. Só usamos em grandes centrais, que são as usinas de cogeração de cana. Então, nós poderíamos usar isso para complementar a energia solar na geração distribuída e é essa é a visão que eu tenho, uma visão um pouco mais holística da simbiose de todos esses processos”, afirma Waterhouse..

O Brasil já tem uma participação grande da energia eólica na matriz, que só vai aumentar. “Para cada ponto de crescimento do PIB, temos dois ou três pontos de crescimento de demanda energética. Então, parte desse crescimento, dessa demanda, será necessariamente feita por energia renovável distribuída. As casas vão começar a ter sua própria geração, as indústrias vão começar a ter a sua própria geração, porque isso significa duas coisas: em primeiro lugar, segurança energética e, em segundo plano, redução de custo. Porque a tarifa está muito cara, com um sistema obsoleto e tudo mais. Temos uma tarifa hoje, por kilowatt/hora, extremamente cara. E a energia renovável já é mais barata que a tarifa. Se é mais barata, então ela tende a crescer de uma forma explosiva. Quanto mais barata, mais rápido vai ser o crescimento. Então, devemos passar por uma expansão enorme dos modais de energia renovável”, complementa o pesquisador.

James Waterhouse prevê que em cerca de cinco anos, o Brasil possa ter um crescimento expressivo disso tudo. Hoje, a energia distribuída é quase nada. Em cinco anos, ela vai ser alguma coisa relevante na matriz. Hoje, ela nem aparece nas estatísticas. A energia renovável aparece, através da eólica, mas ela é concentrada. A energia distribuída, que é a energia da solar ou da biomassa localizada, nem aparece. “É ridículo. E em cinco anos ela vai aparecer de uma forma expressiva nessa matriz energética brasileira. E aí aparecem as consequências positivas disso na empregabilidade, porque o número de empregos e a qualidade dos empregos gerados serão fantásticos, exatamente porque estaremos mexendo com várias tecnologias e não apenas com uma só. E todas essas tecnologias precisarão de técnicos de bom nível. Por exemplo, a energia hidráulica precisa de dez engenheiros para projetar a usina, cerca de vinte mil operários para construí-la num prazo aproximado de quatro anos, e depois uma pessoa apenas para apertar o botão. Então, ela tem um perfil de geração de empregos continuados e de boa qualidade”, conclui nosso entrevistado.

(Rui Sintra – jornalista)

16 de março de 2018

Vidro: 6.000 anos de maravilhas e mitos

Edgar Dutra Zanotto, docente e pesquisador do Departamento de Engenharia de Materiais – DEMa – Centro de Ensino, Pesquisa e Tecnologia de Materiais Vítreos (CeRTEV), da Universidade Federal de São Carlos (UFSCar), foi o palestrante convidado de mais uma edição do programa Ciência às 19 Horas, que ocorreu no dia 23 de agosto de 2016, pelas 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP).

Em sua apresentação – dinâmica e muito interessante -, intitulada Vidro: 6.000 anos de maravilhas e mitos, Zanotto abordou diversos assuntos relacionados com o vidro, tendo colocado algumas questões curiosas, como, por exemplo, se os vidros de catedrais medievais escorrem, ou se é possível quebrar um vidro no grito. O palestrante descreveu, ainda, como o vidro foi descoberto há cerca de 6.000 anos, tendo ilustrado como ele é produzido e as suas principais propriedades físico-químicas e, na sequência, mostrado algumas aplicações conhecidas, como o Gorilla Glass, dos telefones celulares, e outras menos convencionais, como vidros para uso em medicina e odontologia, vidros que absorvem calor, vidros para visão noturna e vidros para tacos de golfe! No final de sua apresentação, o palestrante levantou um pouco o véu sobre as causas das imagens sacras que apareceram misteriosamente numa janela de vidro em Ferraz de Vasconcelos (SP), bem como vídeos (em Inglês) sobre o famoso tenor italiano Enrico Caruso e a cantora norte-americana Ella Fitzgerald, que quebravam vidros de janelas e taças de vinho com a própria voz!

Na verdade – e indo diretamente ao encontro do tema desta edição do programa Ciência às 19 Horas -, o vidro foi descoberto acidentalmente há aproximadamente seis mil anos, sendo um dos materiais mais antigos que se conhece, isto, claro, em relação ao vidro artificial, porque também existem vidros naturais produzidos na natureza, sendo que esses sempre existiram. No entanto, segundo Edgar Zanotto, só aproximadamente nos últimos cem anos é que a ciência e a tecnologia do vidro começaram a atuar de forma incisiva e exploratória. Apesar de ser um material que tem seis mil anos, só nos últimos cem anos é que os cientistas começaram a se interessar e a tentar entender e a controlar as propriedades do vidro. E o interessante é que, aqui no Brasil, essa ciência tem quarenta anos e começou exatamente no Instituto de Física da USP, com o Prof. Aldo Aldo Craievich, conforme explica Zanotto: O primeiro artigo científico publicado por um autor vinculado a uma instituição brasileira é de autoria desse renomado pesquisador, que chegou a dar aulas aqui no IFSC/USP, há muitos anos: foi em 1975, numa revista chamada Physics and Chemistry of Glasses, que, por sinal, está comemorando cem anos, sendo a publicação mais antiga dedicada exclusivamente a vidros. E o professor Aldo publicou, então, o artigo em 1975. Eu me formei em 1976 e fui contratado pela engenharia de materiais, como uma espécie de auxiliar de ensino, sem mestrado, sem nada, para montar essa área de vidros no Brasil. E só tinha o professor Aldo e fiz um mestrado aqui na física, por conta dessa coincidência, esclarece nosso convidado.

No que respeita às principais pesquisas que estão sendo feitas no mudo, nesta área, talvez a principal seja tentar entender o genoma dos vidros, a influência de sua estrutura, em nível molecular, as propriedades ópticas, térmicas, mecânicas, eletrônicas, químicas, biológicas etc. Segundo Edgar Zanotto, existe um grande esforço dos pesquisadores nesse assunto, tentando entender os efeitos da estrutura, nas propriedades, para, a partir daí, poderem controlar as estruturas visando desenvolver vidros com certas propriedades e aplicações, algo que, segundo o palestrante, é bastante complexo. É usada muita dinâmica molecular, métodos DFT calculations e muita simulação, porque o acesso experimental, na escala atômica, ainda é restrito, apesar de existirem microscópios eletrônicos de altíssima resolução, difração de nêutrons, difração de Raios-X; mas essas técnicas são muito melhor adaptadas a materiais cristalinos. Os vidros, pelas suas estruturas totalmente desordenadas, dificultam a análise, elucida Zanotto. Outro tipo de pesquisa, na qual a equipe de Edgar Zanotto, na UFSCar, está profundamente envolvida, é cristalizar controladamente os vidros. Os vidros são materiais totalmente desordenados, são líquidos que foram congelados. Eles têm uma tendência à cristalização se forem aquecidos. Então, é possível aquecer controladamente os vidros a determinadas temperaturas e mudar a estrutura de amorfa desordenada para cristalina. Com isso, as propriedades mudam radicalmente e consegue-se formar alguns materiais chamados vitrocerâmicos, que não são vidros, nem são cerâmicas: são materiais cristalinos, obtidos através do controle da cristalização de vidros. Eu trabalho muito nessa área, principalmente no entendimento dos processos de nucleação de cristais, do crescimento dos cristais, de sua organização, da cristalização da combinação desses dois fenômenos, da cinética difusional, em como os átomos se difundem em função da temperatura, se rearranjam, etc. Enfim, tudo isso tem muito trabalho, tanto de cunho eminentemente teórico, como fundamental, quanto, ainda, de cunho aplicado, visando desenvolver esses vidros cerâmicos para uma série enorme de aplicações.

O designado Gorilla Glass é uma das principais inovações surgidas com as pesquisas desenvolvidas em vidro, um material que resiste a oito toneladas por centímetro quadrado. É um material que demorou entre cinco e seis anos para ser desenvolvido pelos pesquisadores, com muito esforço, com muita gente controlando inúmeros detalhes para se chegar até ao produto final. O Gorilla Glass já está sendo usado nos carros top de linha, substituindo, de forma inacreditável, um vidro de 7,8 milímetros de espessura por um de 1 milímetro, com mais resistência e muito menos peso. Outra pesquisa que está sendo desenvolvida pelos pesquisadores é relacionada com biovidros. São vidros que são implantados no corpo humano para substituir ossos e dentes. Eles se ligam automaticamente aos ossos e às cartilagens, sublinha Zanotto. Essa é uma área que começou em 1970. No último congresso sobre essa temática estavam quatro mil participantes. Então tem áreas muito quentes, como, por exemplo, baterias no estado sólido. Por exemplo, as baterias do celular, que atualmente duram um dia, agora a meta é que elas durem uma semana e logo mais um mês. São baterias no estado sólido, de alta capacidade de armazenamento e um dos materiais estudados para utilizar como eletrólito é o vidro. São vidros de altíssima condutividade iônica.

As perspectivas para o futuro nesta área estão focadas na reciclagem, algo que é uma característica muito importante. Hoje, fala-se muito em meio ambiente, em carbon footprint etc., atendendo até que o vidro é um material facilmente reciclado, bastando apenas fundir. Quebrou, sujou, não tem importância: você põe numa forma, refunde e dá outra forma. É forever. O vidro não se degrada como os plásticos e mantém todas as propriedades. Você só não pode misturar cores. Mas, havendo um sistema seletivo de coleta de vidro, é possível reciclar e o curso do vidro reciclado é uma pequena fração de um vidro novo – de vidro virgem, e as propriedades são idênticas. Então, reciclagem é uma palavra muito importante em todas as engenharias e o vidro é o material mais reciclável que existe entre todos os materiais. Então, isso é forte. Reciclagem de vidro é muito forte, muito importante, acrescenta Zanotto

Contudo, é nos materiais vitrocerâmicos que a atenção dos cientistas está mais concentrada, por conterem partículas cristalinas magnéticas dentro, para hipertermia de câncer, por exemplo. Pode-se implantar um vidro desses numa pessoa que tem um tumor cancerígeno, aí vem com um campo magnético externo alternado e aquece apenas esse local onde tem aquela partícula, sem danificar o resto dos tecidos. De fato, cancer hyperthermia são vidros especiais – são vitrocerâmicos -, vidros que foram parcialmente cristalizados e as fases cristalinas têm perdas magnéticas interessantes que elevam a temperatura até 42 graus – não mais do que 42 graus, porque senão mata as células boas também. Então tem muita coisa sendo pesquisada e o futuro é promissor, conclui o Prof. Edgar Zanotto.

(Rui Sintra – jornalista)

16 de março de 2018

Antropoceno: Indicadores de aceleração da tendência ao colapso socioambiental

Em mais uma edição do programa Ciência às 19 Horas, ocorrida no dia 14 de junho, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP), o Prof. Luiz César Marques Filho, docente e pesquisador do Departamento de História da Universidade Estadual de Campinas (UNICAMP), discorreu sobre o tema Antropoceno: Indicadores de aceleração da tendência ao colapso socioambiental.

De fato, existe uma relação causal entre a engrenagem socioeconômica expansiva, que moldou nossas sociedades desde o século XVI, e a tendência ao colapso ambiental. Essa engrenagem, que, desde o século XIX, designamos pelo termo capitalismo, está ocasionando a falência das estruturas de sustentação e da funcionalidade dos ecossistemas, segundo o palestrante.

Sem relação com os temores apocalípticos de outrora, a tendência a um colapso ambiental vem sendo evidenciada pelas ciências e pelas humanidades desde os anos 1960, um colapso que difere dos das civilizações passadas por não ser nem local, nem apenas civilizacional. Ele é um colapso global que ocorre no nível mais amplo da biosfera, da qual as sociedades humanas, tanto quanto as demais espécies, dependem existencialmente.

O que se observa, em nossos dias, é uma aceleração generalizada dessa tendência. Jan Zalasiewicz e outros estudiosos adotam o termo A Grande Aceleração, ao argumentarem em favor da adoção do ano de 1950 como data de referência para o início de uma nova época geológica – o Antropoceno. A singularidade dos dias que correm é o que se poderia talvez chamar de aceleração da Grande Aceleração.

Hoje, a escala de tempo em que se medem mudanças relevantes nas coordenadas ambientais já não é mais o decênio, mas o ano. Assim, por exemplo, em novembro de 2015, mais 25 espécies animais e vegetais foram declaradas criticamente ameaçadas, possivelmente extintas pela nova Lista Vermelha da União para a Conservação da Natureza (UICN). Também o desmatamento vem se acelerando nas florestas tropicais e boreais, sendo que só entre 2000 e 2012 se perderam 2,3 milhões de km2 de florestas, conforme mostra o Global Forest Watch. Houve em 2015 um aumento de 18% nos incêndios florestais no Maranhão e o maior número de incêndios em 17 anos de monitoramento no estado do Amazonas, pelo Inpe.

No que se refere ao aquecimento global, 2015 marcou o momento em que as temperaturas médias superficiais do planeta ultrapassaram 1º C em relação à média dos anos 1850-1900. Quebrar recordes de temperatura tornou-se agora a norma.

O ano de 2015 foi o mais quente dos registros históricos, batendo o recorde de 2014 e 2016 deverá bater o recorde de 2015, com as temperaturas médias globais da superfície do planeta atingindo 1,1º C em relação ao mesmo período de base. Em fevereiro de 2016, a extensão do gelo no Ártico registrou a menor extensão invernal registrada e a estação de degelo da Groenlândia começou, já em abril, dois meses mais cedo, estabelecendo outro recorde, com temperaturas típicas de julho. Em março de 2015, a temperatura no norte da Antártica atingiu 17,5º C, outro recorde histórico.

Em entrevista exclusiva à Assessoria de Comunicação do IFSC/USP, Luiz César Marques Filho aponta que as emissões de gases de efeito estufa continuam desde 2013 no patamar de 32 gigatoneladas anuais. Níveis de emissão de gases de efeito estufa, nesse patama,r conduzirão a um aquecimento médio global superior a 2º C, talvez já por volta de 2036, como calcula Michael Mann. No Mediterrâneo, na região central do Brasil e nos EUA, esse limite pode ser cruzado já em 2030, segundo estudo de Sonia Seneviratne e colegas, publicado na Nature, em 2016.

Em 2015, o motor do aquecimento global – as concentrações atmosféricas de gases de efeito estufa – bateu outro recorde. No último ano, as concentrações de dióxido de carbono aumentaram 3,06 partes por milhão (ppm), a maior taxa de incremento anual nos 56 anos dos registros da National Oceanic and Atmospheric Administration (Noaa) dos Estados Unidos. Nos anos 1960, o incremento médio anual das concentrações atmosféricas de CO2 era de 1 ppm; no primeiro decênio do século XXI, ele era de 2 ppm. Ultrapassou-se agora 3 ppm e há projeções de que esse aumento anual será de 5 ppm em 2026. Mais grave ainda, as concentrações atmosféricas de metano – um gás cujo potencial de aquecimento global é 86 vezes maior que o do CO2 num horizonte de 20 anos – aumentaram no último ano, atingindo níveis acima de 1900 partes por bilhão (ppb) sobre a maior parte do Oceano Ártico em fevereiro de 2016.

Está-se batendo recordes também de retração das geleiras de altitudes, de degradação dos solos, de escassez dos recursos hídricos (superficiais e subterrâneos), de acidificação, eutrofização e poluição por plástico dos oceanos, de elevação do nível do mar, de sobrepesca e de branqueamento de corais. A terceira grande crise de branqueamento (após as de 1997-1998 e de 2010), iniciada em 2014 e que ainda se mantém em ação, revelou-se a pior delas. Ela deve afetar 38% dos corais no mundo todo e já afetou 93% dos recifes de corais da Grande Barreira dos Corais mais da metade dos quais gravemente.

Em 2015, bateu-se, enfim, os recordes de desigualdade social, a causa primeira de todas as crises socioambientais, com a maior taxa de apropriação da riqueza global pelos ricos e ultrarricos, os chamados Ultra high-net-worth individuals (UHNWI). Em 2010, os 388 indivíduos mais ricos do mundo detinham uma riqueza equivalente à de metade da humanidade. Em 2014, eles eram 85 e são, em 2015, somente 62 indivíduos. Durante o mesmo período, a metade de baixo da humanidade perdeu mais de um trilhão de dólares, uma queda de 38%, segundo a Oxfam. O 1% mais rico possui agora mais que os demais 99%.

Se cumprido, o Acordo de Paris conduzirá a aumentos estimados entre 2,7º C e 3,5º C até 2100, em relação ao período pré-industrial. Sua ambição de manter o aquecimento global tão perto quanto possível de 1,5º C não reflete nem o estado da ciência, nem nossa dinâmica econômica expansiva. Na realidade, as energias renováveis não estão substituindo os combustíveis fósseis, estando apenas contribuindo para saciar a insaciável voracidade energética do capitalismo global. Prova disso é que o consumo global de gás e de petróleo continua a aumentar. No primeiro caso, ele foi de 75,3 bilhões de pés cúbicos (Bcf/d) em 2015, deve ser de 76,8 Bcf/d em 2016 e de 77,3 Bcf/d em 2017. No segundo caso, ele deve passar de 93,7 milhões de barris diários em 2015 para 94,4 milhões em 2016 e para 96,1 em 2017, segundo dados e projeções do U.S. Energy Information Administration (EIA) em seu Outlook de 12/IV/2016.

Em termos mais gerais, a compreensão de que a economia é um subsistema da ecologia não está avançando no tabuleiro político global. Nenhum país ou região coloca suas metas de minimização dos impactos ambientais acima de suas metas de crescimento econômico. Constata-se, assim, que a interação entre capitalismo e colapso ambiental – essas duas faces de uma mesma moeda – está se intensificando. Sabe-se agora, mais que nunca, que não se pode conservar um sem sofrer as consequências do outro.

De forma resumida, o palestrante convidado justifica a responsabilidade do capitalismo como causa principal para a degradação dos ecossistemas, porque, segundo ele, o tipo de organização sócio-econômica que é própria do capitalismo é uma organização por definição expansiva. Os mercados, para que mantenham suas taxas de rentabilidade, a expectativa é que se expandam Isso é um fenômeno histórico que ocorreu desde a implantação ou consolidação do capital industrial, na Europa… A busca de mercados, entre outros fatores, leva a que a reprodução do capital seja sempre expansiva. Como vivemos num mundo limitado, num mundo finito, essa dinâmica tende a se chocar, cedo ou tarde, com essa finitude dos recursos naturais. Além disso, a escala de interferência econômica humana nos ecossistemas é hoje de tal ordem que ela interfere, desorganizando esses ecossistemas. Então, nós temos dois fenômenos que correm paralelo: de um lado, uma tendência à escassez de recursos naturais – que talvez não seja o problema maior -, mas por outro lado assiste-se a uma desorganização desses ecossistemas, que levam efetivamente a efeitos em cascata, sublinha o pesquisador.

Para Luiz César Marques Filho, trata-se de uma degradação global, em todos os sentidos – das florestas, do solo, dos recursos hídricos -, sobretudo um verdadeiro colapso da biodiversidade, tanto em terra quanto nos oceanos. Então, essa é a situação em que nós nos encontramos e existe, efetivamente, um vetor de expansão que tende a se tornar mais destrutivo quanto mais dificuldades ele encontra em se expandir.

Então, como inverter essa aceleração da degradação ambiental, sem comprometer a base de sustentação do crescimento econômico e social, da forma como a compreendemos? Para o pesquisador, a solução seria como criar um modo perpétuo. Não é possível. Não vejo como seja possível manter esse modelo, indefinidamente, de maneira a simplesmente apostar num aperfeiçoamento tecnológico e numa mudança de procedimentos do tipo economia circular. Futuramente, isso tudo é muito importante, mas ela também tem limites. São os chamados efeitos de rebote. Você consegue criar um impacto menor por unidade do PIB. Mas como esse PIB cresce, mesmo essa vantagem que você obteve num certo momento, acaba por se anular porque a escala vai aumentando. Um dos elementos, claro, é a população. Mas eu gostaria de frisar que a população é, na verdade, a meu ver, a variável menos importante no momento, já que o mais consistente é a afluência e a destrutividade da tecnologia de que se vale esse aumento da população, complementa Luiz César..

Contudo, no meio dessas constatações relativas ao designado socioambiental, ainda existem personalidades, nomeadamente oriundas do meio acadêmico, que discordam, afirmando, por exemplo, que o aquecimento global é uma farsa, não passando de pretextos para a implantação de determinados vetores políticos, econômicos, etc. Para o nosso entrevistado, se examinarmos qual a relação de forças entre essas duas correntes de opinião, observa-se que 97% da comunidade científica (e não apenas 97%, mas também os cientistas mais qualificados em quaisquer que sejam os critérios que se utilize para avaliá-los) são unânimes em dizer que os desequilíbrios, em geral, da biosfera e os desequilíbrios climáticos têm origem antrópica. São resultados da atividade humana. A ciência é uma coisa que não funciona na base da unanimidade. Ela funciona na base de consenso, que é muito diferente de unanimidade. Então, sempre haverá vozes discordantes em relação a isso. Entretanto, essas manifestações, essas opiniões não têm mais nenhum peso no âmbito das instituições e do conjunto da pesquisa científica, hoje em dia. As grandes publicações (Science, Nature, etc.) são absolutamente receptivas e unânimes, em relação a isso. Ninguém que discorde frontalmente desse consenso terá condições de publicar sua opinião numa publicação de prestígio como essas que mencionei, remata Luiz César Marques Filho.

Estamos a caminho de um holocausto, de uma hecatombe? No entender de nosso entrevistado, existe uma tendência a um colapso ambiental, restando saber o que significa um colapso. Um colapso não é um abismo no qual você cai. Colapso é uma mudança de estado de certo sistema (Terra, biosfera…) para um outro. Existe um conjunto de instabilidades que levam a um ruptura e à passagem para um outro estado e que se recompõe a uma outra instabilidade. Qual vai ser a distância que separa um estado do outro? Qual vai ser a velocidade de uma passagem para outra? Quais serão os impactos imediatos sobre as sociedades humanas? Nós não sabemos. Mas, é claro que estamos passando de um estado para outro e esse estado vindouro é… total!!! Chances??? 99,9% de chances de que esses impactos sejam mais adversos do que aqueles que foram criados pelo Holoceno, por essa época geológica que começou com o final da última glaciação. Então, aquilo que nós chamamos hoje de Antropoceno, é muito fortemente provável que seja uma época muito mais desfavorável à organização das sociedades humanas e de outras espécies, do que foram esses doze mil anos que viram nascer a civilização, conclui o palestrante.

(Rui Sintra – jornalista).

16 de março de 2018

Ondas gravitacionais existem: A grande descoberta do observatório LIGO

Em 14 de setembro de 2015, às 06:50:45 (horário de Brasília), os dois detectores do Observatório de Ondas Gravitacionais por Interferometria Laser (sigla LIGO em inglês), observaram, simultaneamente, um sinal de ondas gravitacionais: esse sinal variou em frequência de 35 Hz até 250 Hz, com uma amplitude de deformação máxima de 1.0 x 10^(-21). Ele coincide com a forma de onda prevista pela relatividade geral para uma fusão de um par de buracos negros espiralando um em direção ao outro, seguida do ressoar do buraco negro resultante.

A fusão ocorreu a uma distância de ~ 1.3 bilhões de anos-luz. As massas dos buracos negros iniciais eram de 29 e 36 massas solares e a massa do buraco negro resultante foi de 62 massas solares. A energia irradiada na forma de ondas gravitacionais foi equivalente a 3 massas solares.

Esta observação demonstra a existência de sistemas binários de buracos negros de massas estelares. Esta é a primeira detecção direta de ondas gravitacionais e a primeira observação de uma fusão de uma binária de buracos negros.

Resumidamente, este foi o tema abordado pelo Prof. Dr. Odylio Denys Aguiar, pesquisador da Divisão de Astrofísica – Instituto Nacional de Pesquisas Espaciais (INPE), palestrante convidado de mais uma edição do programa “Ciência às 19 Horas”, que ocorreu no dia 24 de maio passado, no Auditório “Prof. Sérgio Mascarenhas” (IFSC/USP).

A comunidade científica já tinha indícios muito fortes de que essas ondas existiam, por observações indiretas realizadas na década de 1970. O Radiotelescópio de Arecibo (Porto Rico) captou os sinais de um Pulsar que estava em órbita com outras estrelas de nêutrons (essas estrelas têm uma massa 40% maior do que a do sol compactada num diâmetro de vinte quilômetros), e através disso se consegue, atualmente, obter informações da órbita desse sistema.

Segundo o palestrante, eles descobriram, com precisão, a variação de período de órbita. A única explicação que podia ocorrer seria a de emissão de ondas gravitacionais. Esse sistema perdia energia por causa das ondas gravitacionais. Não é uma prova direta, porque as ondas não foram detectadas. Foi um efeito na emissão das ondas. Mas, em setembro de 2015, realmente foi feita, de forma confirmada, a primeira detecção de ondas gravitacionais, graças ao desenvolvimento de uma tecnologia fantástica, que teve a precisão como palavra-chave e um investimento estimado em cerca de um bilhão de dólares. Então, foi muita gente brilhante envolvida, entre engenheiros, técnicos, etc., comenta nosso entrevistado.

Há cem anos, Einstein não acreditava que essas ondas pudessem ser detectadas, porque ele não contava com duas coisas: a primeira, o avanço da tecnologia; e, a segunda, o fato de ele não imaginar que no universo existiam coisas, como buracos negros. Então, Einstein fez cálculos em laboratório para saber de que forma é que se poderiam detectar ondas produzidas em laboratório. Com base nas contas que fez, acreditou que as ondas jamais poderiam ser detectadas. Então, a tecnologia, por um lado, avançou tremendamente, enquanto que, por outro lado, a perspectiva de ondas produzidas no universo por eventos cataclísmicos (como os buracos negros detectados que foram da ordem de trinta vezes a massa do sol) não existia.

Embora muitos astrofísicos já tivessem dado os buracos negros como existentes, o certo é que a comprovação de sua existência só ficou comprovada através da detecção de ondas gravitacionais: O que se confirmou foi a existência de buracos negros em pares, orbitando um em torno do outro. Isso a astrofísica ainda não havia confirmado. Agora está confirmado, pontua Odylio Aguiar.

A detecção demorou três décadas de trabalho intenso e de muita persistência dos profissionais do LIGO, um esforço que começou com a proposta de Weber, para detecção de ondas no início da década de 1960. Ele propôs isso na Physical Review Letters, em 1960 (nessa época era Physical Review), conforme explica o nosso entrevistado: Depois disso, alguns grupos de pesquisadores perceberam que poderiam utilizar outra técnica – a de laser. E houve um investimento (da Caltech, por exemplo) pesado nessa técnica. Os que propuseram a técnica de laser estão na ativa até hoje. O Rainer Weiss, por exemplo, propôs a técnica de interferometria a laser, na década de 1960, independente de outras propostas. Então, hoje tem gente brilhante que está nessa área há muito tempo. A detecção, inclusive, foi feita por equipes separadas. Tinham várias equipes nessa colaboração LIGO, que envolveu mais de mil e trezentas pessoas, analisando dados sem contatos umas com as outras. Então, quando chegavam resultados, eles analisavam se batiam certo. O sinal ajudou, porque foi um sinal muito forte. O sinal detectado foi vinte e quatro vezes maior do que o nível de ruído do aparelho. Então, era bem forte. E, por causa disso, ele foi descoberto três minutos depois.

Fala-se que, com a detecção das ondas gravitacionais, é inaugurada uma nova era na área de cosmologia e astrofísica e essa afirmação é corroborada pelo Prof. Odylio: Sim. Esse evento observado não poderia ser analisado em uma onda eletromagnética. Não se confirmou nenhum sinal eletromagnético a essa distância de 1,3 milhões de anos-luz. Isso porque são dois buracos negros que não emitem luz. Então, é um evento silencioso, do ponto de vista ótico/eletromagnético. Mas, ele produziu uma deformação fantástica no espaço-tempo, ao converter uma energia equivalente a três massas do sol, em sua origem. O espaço-tempo, sendo deformado e propagando as ondas gravitacionais, é como se fosse um som que se propaga no vácuo. Mas o espaço-tempo é uma espécie de meio de propagação. Então, de certa forma, você tem aí um som do evento e agora analisaremos o universo, não apenas olhando o que está acontecendo, mas também ouvindo. E isso é uma nova astronomia. É uma astronomia de ondas gravitacionais que vai causar uma revolução enorme no conhecimento que temos sobre o universo. Será algo semelhante à revolução que os telescópios causaram com Galileu, há quatrocentos anos. Quando Galileu apontou para o céu, ele viu luas e fases, tendo concluído que os planetas deveriam orbitar em torno do sol. Então isso causa uma revolução no conhecimento. E todo o desenvolvimento da astronomia veio a partir dos telescópios. Agora, o interferômetro de laser abre outra gama de desenvolvimento para, inclusive, desbravar o conhecimento do universo, de outra forma.

Nosso convidado termina esta entrevista salientando que grande parte das pessoas tem interesse em saber sobre o universo onde vivemos e tudo aquilo que nos rodeia. Então, naturalmente, só isso já justifica toda a curiosidade. Mas, muitas coisas que vão ser descobertas deverão revolucionar as invenções. O conhecimento da física, por exemplo, provavelmente vai ser revolucionado, porque temos questões, como, por exemplo, a energia escura e a matéria escura, que não conseguimos resolver porque nos faltam observações, faltam-nos fatos.

Agora, talvez se consiga obter esses fatos, escutando o universo e entendendo melhor os fenômenos que ocorrem nele.

(Entrevista: Tatiana Zanon – Texto: Thierry Santos – estagiário de jornalismo – Edição: Rui Sintra – jornalista)