All posts by: scinfor

Sobre scinfor

16 de março de 2018

Projeto Mar sem Fim

Em mais uma edição do programa Ciência às 19 Horas, realizado no dia 17 de agosto no Auditório Prof. Sérgio Mascarenhas, no IFSC-USP, o tema intitulado Projeto Mar sem Fim foi magistralmente apresentado pelo palestrante convidado, o jornalista João Lara Mesquita.

A palestra consistiu na apresentação de algumas viagens realizadas através do Projeto Mar Sem Fim pela costa brasileira, argentina, chilena e antártica, entremeadas com dados a respeito das descobertas que estas viagens proporcionaram. O palestrante mostrou os ecossistemas da costa brasileira, sua ocupação desordenada, os aspectos positivos da legislação ambiental e como os brasileiros, infelizmente, deram as costas ao mar. Finalizando, João Lara Mesquita falou e mostrou aspectos das viagens feitas para a Antártica, a importância daquele continente para o clima mundial, a cadeia da vida marinha em todos os oceanos e o trabalho que os cientistas brasileiros fazem no continente gelado.

Em entrevista à Assessoria de Comunicação do IFSC, João Mesquita explicou o fundamento do projeto, cujo  objetivo é trazer à tona a discussão da questão do ecossistema marítimo. Como jornalista e ambientalista, Mesquita é sagaz ao ponto de detectar que, de cada dez matérias que saem sobre o meio ambiente, sete ou oito são continentais: Eles se esquecem de falar do mar e nós temos todos os motivos para falar do mar. Ele é a placenta que nos deu cria, somos fruto da aventura portuguesa, uma aventura marítima fabulosa. Fico triste de ver como ela é desconhecida no Brasil, como ela é pouco valorizada. Nós temos um litoral vastíssimo e as pessoas não sabem a importância do mar. A maioria das pessoas associa mar com lazer (praia, fim de semana, férias etc). O objetivo deste projeto é, sinteticamente, mostrar que nossos oceanos são muito mais do que isso; são importantíssimos para a vida no planeta Terra: é o ecossistema mais importante que existe e o objetivo do projeto é justamente levantar essa questão na mídia, focar e mostrar essa importância.

Para o palestrante, o litoral brasileiroestá, infelizmente, ao Deus dará: Nós temos uma legislação ambiental que é considerada por muitos especialistas como uma das mais completas do mundo, mas ela é inexequível, pois não há fiscalização, não se sabe quem deve fazer o quê: a legislação ambiental brasileira delega umas vezes para o município, outras para o estado, e muitas das vezes até para a federação, critica Mesquita: E você percebe que não se sabe que o poder público, que está em atuação no litoral brasileiro, não entende o que concerne e o que não concerne ao poder estadual e assim por diante: o estado não permite, o município vai lá e permite, ou seja, há um constante conflito e há um conflito de interesse no litoral a empreendedores que querem construir e devem e podem construir desde que respeitem certas regras – pela fragilidade do ecossistema e por uma série de outras coisas. Isso não é, de forma alguma, observado pelo poder público, não existe multa: quando as pessoas infringem leis, demoram anos para serem cobradas e menos de 1% delas acabam sendo efetivamente cobradas.

Para o palestrante, essa é tônica de sua afirmação que os brasileiros deram as costas ao mar, porque, segundo ele, a população, ao não exigir, apenas demonstra não saber a importância do litoral. O poder público no Brasil só age sobre pressão. Quando houve muita pressão sobre as queimadas na Amazônia, diminuiu, depois a sociedade afrouxa, aumenta de novo. O povo saiu para a rua em Junho último: o poder recuou, mas depois a população relaxou. E se você não sabe a importância dessa faixa do litoral, que depende de 90% da cadeia da vida marinha, se o público não exige, é aí que não acontece mesmo. Eu reivindiquei meu trabalho para isso porque percebi, ao longo dos anos, esta falta de importância, comenta João Lara.

Outra observação feita por João Lara Mesquita foi o trabalho que os cientistas brasileiros estão fazendo na Antártica. De uma forma geral, é um trabalho tido como muito bem feito, é um trabalho que dizem ser um dos melhores que existem nas Américas e é um trabalho que, para nosso entrevistado, é feito com muita abnegação e com poucos recurso. Até muito recentemente, o recurso era praticamente mínimo, próximo do zero. O Brasil tem apenas uma base próxima da Antártica. A Argentina e o Chile possuem cerca de dez bases. Mas, mesmo assim, o trabalho é feito com muita abnegação: Estuda-se o clima, o impacto que a atividade humana pode gerar na Antártica, uma vez que esta é considerada a base do clima. Então, estuda-se, por exemplo, as queimadas da Amazônia, na Antártica, através de tubos que você introduz na neve e ela registra o que aconteceu cem, duzentos, trezentos anos atrás. Estudam também as queimas da Antártica, utilizando este método, onde descobrem cinzas de queimadas, fumaças das queimadas etc.

Dando um exemplo concreto, João Lara refere que os cientistas extraem pequenas quantidades de sangue dos mamíferos marinhos e percebem que existem compostos que não são originados na Antártica, mas que são utilizados na agricultura, farmacologia etc: Então, se no mínimo 5% das pessoas que assistem aos meus documentários ou ouvem minhas palestras pensarem nisto, eu já me sinto feliz. É uma paixão. Nunca haverá um movimento em massa; é de grão em grão, é um gesto que já percebo nas crianças, hoje em dia. Nós não tivemos esse estudo na escola, porém, meus filhos já aprendem que o lixo deve ser guardado e reciclado, por exemplo. Eu sou otimista, acredito que a nova geração conseguirá fazer essa parte, concluiu João Lara Mesquita.

(Rui Sintra – jornalista)

16 de março de 2018

Quem são os robôs e quais são os desafios da robótica?

A edição do Programa Ciência às 19 Horas, referente ao mês de agosto, decorreu no dia 20, pelas 19 horas, no Auditório Prof. Sergio Mascarenhas (IFSC), com a participação da Profª Drª Roseli Francelin Romero, professora titular do ICMC – Instituto de Ciências Matemáticas e da Computação, da USP – São Carlos, que trouxe um tema que atraiu muitos espectadores, na sua maioria jovens: Quem são os robôs? Os desafios da Robótica.

Na sua apresentação, a pesquisadora descreveu os principais passos para a construção de um robô, o que é necessário para serem inteligentes e o que o ser humano pode fazer com eles, tendo trazido para esta palestra o robô do ICMC, que fez as delícias dos mais novos.

De fato, os robôs são máquinas consideradas inteligentes e que são construídas com um propósito bem definido, para realizar alguma tarefa específica, como, por exemplo os carros autônomos – sem motorista -, cuja missão é exatamente que o carro se mova de forma automática, sem o auxílio do ser humano, ou para fazer limpeza de ambiente. No geral, são máquinas com certo grau de inteligência artificial para a realização de uma tarefa pré-determinada.

A Califórnia é um dos grandes centros da robótica mundial e o que se observa nas competições de robótica e nas demonstrações de robôs, é que podemos estar muito perto de um robô poder substituir o ser humano quase totalmente. Para Roseli Romero, é fato que os robôs já substituem o ser humano em algumas tarefas, como, por exemplo, nas grandes montadoras de veículos, onde grande parte do serviço é automatizado por robôs manipuladores, que substituem o ser humano em tarefas repetitivas. Contudo, a pesquisadora não acredita que a tecnologia possa avançar ao nível de uma máquina substituir integralmente o ser humano: É o ser humano que programa os robôs, então eles vão até onde nós queremos. Por outro lado, o robô também possui limitações estruturais, ou seja, as peças que compõem os robôs desgastam-se e, por isso, a máquina tem um determinado tempo de validade, de bom funcionamento. Nós queremos que a inteligência artificial possa se aproximar ainda mais da inteligência natural, mas isso aí é um grande desafio para os pesquisadores da área de inteligência artificial. Então, ainda há muito que descobrir, inclusive sobre nosso próprio cérebro, pontua Roseli

A robótica, ao seu mais alto nível, vai entrar diretamente na sociedade dentro de pouco tempo e irá “invadir” as nossas casas. Assim, segundo uma previsão tecnológica, dentro de alguns anos poderemos ter no nosso lar robôs auxiliando nas tarefas do dia-a-dia, como se fossem parte da família, auxiliando nas tarefas de limpeza, abrindo a porta da rua, servindo cafezinho, água etc.: Num futuro próximo, a existência de robôs caseiros será tão natural como hoje existirem computadores na casa das pessoas, remata a pesquisadora.

No Brasil, a robótica ainda está em desenvolvimento: Existe a iniciativa de criar um centro de robótica da USP de São Carlos, que certamente vai facilitar o desenvolvimento das pesquisas. Foi uma união de vários grupos, um esforço comum de nos unirmos e montarmos esse centro que está em operação desde 2011. Ainda não temos o prédio, mas daqui a dois anos acredito que teremos finalmente o tão sonhado Centro de Robótica, que vai facilitar a integração das pesquisas realizadas no Campus, refere a palestrante.

Contudo, a ideia também é estar disseminando o conhecimento desta área por todo o Brasil e pretendendo-se que essa infraestrutura seja um centro de referência nacional e internacional: Nós temos boas perspectivas, temos projetos em conjunto com várias universidades internacionais, principalmente na Alemanha e EUA, mas, acima de tudo, o que pretendemos é resolver os problemas nacionais inseridos nessa área de conhecimento. Queremos robôs que possam resolver os nossos problemas. E nós estamos formando um pessoal, temos muitos alunos em formação, então acredito que em breve estaremos marcando presença no cenário nacional e internacional, finaliza Roseli Romero.

(Rui Sintra – jornalista)

16 de março de 2018

Prof. James Waterhouse disserta sobre: Dirigíveis na sociedade moderna: uma volta ao passado?

O programa “Ciência às 19 Horas”, promovido mensalmente pelo IFSC, trouxe na sua edição do dia 11 de junho um tema que habitualmente desperta a curiosidade do público: “Dirigíveis na sociedade moderna: uma volta ao passado?”. Magistralmente apresentada pelo Prof. James Rojas Waterhouse, docente da Escola de Engenharia de São Carlos (USP), a palestra sobre dirigíveis trouxe uma explicação de como funciona a tecnologia que é mais leve que o ar e sua reintrodução na atualidade. Falar de dirigíveis é quase a mesma coisa que falar da aviação, já que ambos os temas se diluem num só. Embora seja um assunto que nos remete a um passado que não é muito distante – estamos falando das duas primeiras décadas do século XX -, o certo é que a eventual (re)introdução do novo (velho) dirigível, na versão transporte de carga, poderá revolucionar muitas áreas, como, por exemplo, logística de transportes, movimentação de cargas pesadas, comunicações e vigilância, entre outras.

A história recente nos mostra que, embora envolto em inúmeras experiências fracassadas ao longo dos anos, o dirigível não morreu por completo. Sabendo-se que os primeiros protótipos que cruzaram os céus foram os balões de ar quente, coube ao padre jesuíta português, Bartolomeu de Gusmão, ser um dos pioneiros nesse tipo de aventura, no ano 1709. Com efeito, Gusmão, nascido no Brasil, conseguiu fazer um balão de ar quente, batizado de “Passarola”, e subir nele nos céus.

Já em pleno século XX, o dirigível começou a ser utilizado para o transporte de passageiros, ficando registrada a construção do dirigível LZ 127 Graf Zeppelin, construído em 1928, com os seus 213 metros de comprimento e 5 motores, com capacidade para cerca de sessenta pessoas, entre passageiros e tripulação. O Zeppelin, conforme era conhecido, foi o primeiro objeto voador a dar a volta ao mundo, calculando-se que, durante sua vida útil, tenha transportado perto de 20 mil pessoas.

Em meados da década de 1930, o velho Zeppelin deu lugar ao LZ 129 Hindenburg, considerado o orgulho da engenharia alemã, com os seus 245 m de comprimento e 41,5 m de diâmetro, com capacidade de voar a uma velocidade de 135 km/h, com autonomia de 14 mil quilômetros: o “monstro” da engenharia alemã tinha capacidade para cerca de 100 pessoas. A vida do Hindenburg, bem como a era dos dirigíveis, terminou subitamente no dia 06 de maio de 1937, quando o aparelho explodiu perto do aeroporto de Lakehurst, New Jersey, Estados Unidos, matando todos seus ocupantes. Para James Waterhouse, a explicação para que este projeto fosse abandonado mundialmente teve a ver com a fragilidade e periculosidade dos materiais que constituíam estes modelos: “Naquela época, o gás utilizado nos dirigíveis era o hidrogênio que, como sabemos, é altamente inflamável: se adicionarmos a periculosidade desse gás ao tipo de material que era utilizado na construção dos dirigíveis – também ele altamente inflamável e pesado – achamos a fórmula para o insucesso do projeto. A explosão do Hindenburg teve um impacto extraordinariamente negativo na sociedade. As imagens da explosão e do incêndio que se seguiu foram exibidas em todos os cinemas do mundo, na forma de documentário, e, claro, foi o fim de um sonho, principalmente no capítulo dedicado ao transporte de passageiros”, comenta Waterhouse.

A partir de 1938, trocou-se o hidrogênio por outro gás, não inflamável – o hélio -, que apresentou desde logo um aspecto negativo, que era a perda aproximada de 11% em termos de capacidade de sustentação: foi uma opção adotada para recuperar a imagem do dirigível, mas os dados estavam lançados e o projeto estava condenado, sendo que o golpe de misericórdia foi dado com o aparecimento do avião. Desde então, a utilização do dirigível ficou basicamente reduzida a exibições de propaganda e a passeios turísticos, tornando o projeto economicamente inviável para outros fins.

A evolução científica e tecnológica verificada nas últimas décadas ressuscitou o velho dirigível, dando-lhe novas aplicações e utilizações ao serviço da sociedade: “Com a descoberta e desenvolvimento de novos materiais, mais leves, e com as inovações operadas nos motores e estruturas, também menos pesadas e compactas, o dirigível começa a fazer sentido em múltiplas aplicações, do nosso cotidiano, tornando-se mesmo uma alternativa viável, principalmente para transporte de carga. Os dirigíveis são apenas a ponta do iceberg da tecnologia que é conhecida como “mais leve que o ar”, canalizando-se uma de suas utilizações para o transporte de cargas pesadas. Por exemplo, você tem cargas extremamente pesadas e/ou volumosas, que não podem ser divididas e que precisam ser deslocadas em curtas distâncias, por exemplo, colunas de destilação para refinarias de petróleo, entre um porto e uma usina. Esse transporte precisa de carretas especiais, condicionamento ou mesmo interrupção no trânsito, a escolha de pistas e de estradas que comportem o peso e o volume da carga, a resolução para a transposição de pontes, etc., tudo isso colocando em risco a viabilização de projetos industriais. Então, você tem a possibilidade de utilizar balões de carga amarrados a caminhões e assim “rebocar” essas cargas suspensas”, explica Waterhouse.

Por outro lado, a eventual utilização dos dirigíveis poderá compreender outras situações, como, por exemplo, a vigilância da fronteira brasileira, através de pequenos aeróstatos presos em terra, elevados a dois ou três quilómetros de altura, conseguindo-se assim monitorar, 24 horas por dia, uma faixa ampla de terreno com o mesmo desempenho de um avião, mas sem o custo que ele acarreta para fazer a operação. Outras situações estão já equacionadas – segurança pública, monitoramento militar (no Afeganistão os dirigíveis já estão sendo utilizados para esse fim), busca e salvamento, e inclusive na área das telecomunicações, como explica Waterhouse: “Em vez de termos antenas de celulares implantadas em torres, no meio das cidades, com todos os custos e riscos para a saúde, podia-se retirar a ponta da antena que está no topo da torre e colocá-la num dirigível localizado a 200 metros de altura, preso em terra. Só com essa antena você consegue cobrir uma cidade inteira, sem qualquer consequência ambiental e com custos muito reduzidos”, comenta o pesquisador.

Podia-se pensar na eventualidade dos dirigíveis recuperarem a sua antiga função – transporte de passageiros em longas distâncias -, mas James Waterhouse desmistifica o assunto, alegando que esse projeto não teria sucesso, já que os dirigíveis apenas atingem uma velocidade de 130 Km/hora. Segundo o pesquisador, a melhor opção, nesse capítulo, é usá-los para passeios turísticos, como acontece, por exemplo, na Turquia, aproveitando para dar a conhecer as paisagens e riquezas naturais deslumbrantes que o nosso país possui.

(Rui Sintra – jornalista)

16 de março de 2018

O Nascimento do Universo

Sempre bem humorado, permanentemente disponível, focado na sua áurea de conhecimento: estes são três dos predicados que conseguimos detectar, de forma espontânea, do perfil do Prof. Dr. Héctor Vucetich, docente aposentado e pesquisador da Faculdad de Ciencias Astronómicas e Geofísicas da Universidad Nacional de La Plata – Argentina, palestrante convidado de mais uma sessão do programa Ciência às 19 Horas, evento que ocorreu no dia 21 de maio, pelas 19 Horas, no Auditório Prof. Sérgio Mascarenhas (IFSC), que se encontrava completamente lotado.

O tema proposto para esta edição do programa Ciência às 19 Horas atraiu muita gente interessada em saber um pouco mais sobre os mistérios de tudo aquilo que nos rodeia: a palestra de Vucetich – “O Nascimento do Universo” – abordou as diversas formas como o Homem, desde a Antiguidade, vem tentando conhecer a estrutura e a história do Universo, inclusive influenciado, algumas vezes, por vários mitos cosmológicos, sempre na tentativa de obter mais explicações.

O Prof. Héctor afirma, em seu resumo referente à palestra, que o próprio Homem desenvolveu, na atualidade, seu próprio mito – o Big-Bang -, só que desta vez baseado nas leis da física.

Na Antiguidade, a influência dos deuses sobre tudo o que rodeava o ser humano, dos comportamentos aos seus pensamentos, terá sido o mote para que o Homem tentasse explicar aquilo que, para ele, era de todo inexplicável: e o Universo era um dos cenários onde residia essa influência divina, era o lar do divino. Para Vucetich, a própria cultura Azteca comprova essa influência.

Foi a partir da civilização grega que o Homem iniciou as suas indagações racionais sobre o Universo – sobre o céu: Há fortes indícios que os gregos pensavam que o Universo sempre teria existido da mesma forma como eles o viam, sem qualquer alteração, um conceito que coincide com a filosofia cristã, até porque na Bíblia se pode ler que Deus criou o Universo em sete dias. E aí, claro, começaram a aparecer as perguntas: Mas, quando é que o Universo foi criado? Qual foi a data? “A partir de Galileu, o Homem começou a querer saber a verdadeira história do Universo e, a partir desse momento, começou a descobrir que essa história estava intimamente ligada às leis da física, às leis da natureza, ou seja, indelevelmente ligada a conceitos científicos que passaram a ser estudados em laboratórios”, comenta o pesquisador.

Para Vucetich, o “Big-Bang” se parece mais com um mito científico, até porque, para o palestrante, um mito nada é do que uma história que versa tempos remotos, antigos, cujos protagonistas são sempre individualidades prestigiosas, mas distantes do conceito real. Assim, Vucetich considera que as leis da natureza, que supostamente serão as protagonistas do “Big-Bang”, embora prestigiosas elas são distantes do panorama real: “Considero o “Big-Bang” um mito científico: para outros, talvez seja um mito literário”, refere o palestrante.

Em face de este ponto de vista de Héctor Vucetich, a dúvida permanece: então, de que forma é que o Universo foi formado? Segundo a opinião do pesquisador, o Universo nasceu graças à existência de minúsculas partículas, totalmente insignificantes, que foram se expandindo ao longo de milhares de milhões de anos, até chegarem ao ponto em que as conhecemos hoje, e aí as leis da natureza foram-lhes dando forma. Para Vucetich, isto é o que a teoria moderna e as consequentes observações têm demonstrado até hoje.

Para Héctor Vucetich, como em tudo na vida, todo esse trabalho tem tido êxitos e insucessos: “Os principais êxitos que podemos referir com muita exatidão, já que, para os atingir, a complexidade dos trabalhos foi alta, são os inúmeros fenômenos e acontecimentos espetaculares que se observam diariamente no Universo e que são a base do nosso estudo e da evolução de nosso conhecimento”, pontua Héctor. Por outro lado, o pesquisador refere que o principal fracasso é o fato de os cientistas ainda não terem algo que possa ser observado e testado em laboratório, por forma a aumentar e refinar o conhecimento: “Ainda não conseguimos inventar uma substância com propriedades raras, por forma a escrever e a complementar, até a completar, a descrição do Universo”, salienta o professor. Com a evolução científica e tecnológica, havia indícios de que se pudesse avançar mais no conhecimento do Universo, mas isso não tem ocorrido de forma veloz. Apenas 5% do Universo é conhecido, ou seja, 95% do que nos rodeia está por descobrir, em termos de sua composição, o que, para Vucetich, é um verdadeiro fracasso: “Sim, é um fracasso! Sucesso seria você compreender tudo aquilo que vê, entender e explorar todas as substâncias que, para nós, são completamente misteriosas”, refere Vucetich.

Tendo como uma de suas paixões a vida e morte dos asteroides, não resistimos a abordar esse tema, até com base no que ocorreu há alguns meses atrás, quando um asteroide caiu no Leste da Europa. Afinal, estamos ou não na rota de colisão de asteroides? Existem perigos não revelados? Vucetich sorri e afirma que pequenos asteroides são facilmente detectados e todos eles poderiam ser um perigo para nosso planeta, mas, contudo, o seu número é muito reduzido e cada vez que aparece um é imediatamente monitorada sua trajetória. O perigo maior vem de asteroides chamados “escuros”, que só são detectados quando estão muito perto do nosso planeta: “Esse tipo de asteroide ainda está sendo estudado”, refere Vucetich.

O curioso, neste tema, é que na maior parte das vezes Júpiter protege o nosso planeta desses asteroides que vêm de fora. Júpiter é tão grande, que “suga” grande parte desses asteroides, que acabam por se chocar contra ele. Segundo nosso entrevistado, a probabilidade de um desses asteroides colidir com a Terra é extremamente baixa, o que não quer dizer que não possa acontecer: “É um problema muito complexo que está sendo estudado pela NASA e pela European Space Agency”, completa Héctor Vucetich.

(Rui Sintra – jornalista)

16 de março de 2018

Como funciona o GPS? E o pêndulo?

Docente e pesquisador no Instituto de Física da UFF – Universidade Federal Fluminense, o Prof. Dr. Paulo Murilo de Castro Oliveira foi o convidado de mais uma edição do programa Ciência às 19 horas, que decorreu no dia 09 de abril, no Auditório Prof. Sérgio Mascarenhas (IFSC).

Desta vez, o público presente a esta palestra teve a oportunidade de entender um pouco melhor de que forma é que funciona o famoso GPS, bem como as características do pêndulo e a importância e as particularidades dos relógios atômicos que integram os satélites do sistema GPS, que se encontram altamente sincronizados entre si.

Contudo – e por muito bem sincronizados que estejam esses relógios atômicos -, existem sempre incertezas que estão relacionadas aos resultados de uma medição, por mais precisa que ela possa parecer. Na sua palestra, Paulo Oliveira explicou, com relativa simplicidade, que existem, de fato, dois tipos fundamentais de incertezas, ou de erros, se quisermos chamar assim: os primeiros são os erros sistemáticos, como, por exemplo, aqueles que são derivados de instrumentos que estão mal calibrados, e os segundos – os erros naturais aleatórios -, como, por exemplo, quando se mede a mesma coisa várias vezes seguidas, obtendo-se, de cada vez, um resultado diferente, mesmo que essa medida tenha sido realizada com um equipamento altamente calibrado, dentro de uma determinada faixa, como explicou o pesquisador: Por exemplo, se você medir um determinado tempo com um cronômetro vulgar, daqueles de mão, seja ele analógico ou digital, você terá que considerar o seu tempo de reação, ou seja, o tempo que o seu dedo pressiona o botão do cronômetro, quer para ligá-lo, quer para desligá-lo: se você fizer isso várias vezes, os tempos medidos nunca serão iguais. E isso ocorre não só por causa do tempo de reação humana, como também devido ao próprio aparelho, já que o instrumento também tem um determinado tempo de reação mecânica.

E é aqui que se entra no aspecto relativo à medida do período de tempo de um pêndulo, já que ele pode avaliar a incerteza de uma medição, pois a partir dessa realidade pode-se aumentar a precisão. Por exemplo, se pretendermos medir um intervalo de tempo de 10 dias, podemos fazer essa medição através do número de vezes que o Sol rodar durante esse período: isso dá o número 10. Contudo, aí tem uma incerteza, no valor de 1 dia, já que pode acontecer que essa medição possa ter começado em determinada hora e tenha terminado em outra determinada hora. Desta forma, quando referimos 10 dias, esse tempo pode ser para mais ou para menos, o que não acontece quando esse número é muito maior, como explica o docente da UFF: Se eu usar o Sol para medir um período de mil dias, a incerteza é a mesma, ou seja, de um dia, só que incide num total de mil dias: então, percentualmente, essa incerteza é muito menor.

Na verdade, quando se mede um tempo existe a necessidade de se ter – ou utilizar – algo que nos dê uma periodicidade certa (algo periódico), como um pêndulo ou um relógio normal. No fundo, o que se faz é medir quantas oscilações é que ocorrem quando se pretende medir um determinado período de tempo e, se esse número for enorme, o erro será mais ou menos correspondente a uma oscilação: se o período do instrumento for muito pequeno, aí o erro percentual será mínimo. E é devido a estes fatores que se utilizam relógios atômicos nos satélites do sistema GPS, porque o período dos seus osciladores é muito pequeno.

A complexidade do sistema GPS:

Os satélites com sistemas GPS carregam, como já foi dito acima, relógios atômicos e todos eles estão sincronizados entre si. Contudo, os aparelhos GPS apenas possuem relógios normais, comuns, o que gera alguma confusão para o público leigo: então, como é que se processa o diálogo, a conversa entre o GPS, o satélite e o relógio atômico, por forma a se obter a medição correta, ou seja, a se obter, no aparelho GPS, a medição certa sobre determinado ponto – um endereço, por exemplo? Para o Prof. Paulo Oliveira, essa questão desagua naquilo que ele chama de ideia genial de quem desenvolveu o sistema GPS. De fato, para se localizar um determinado ponto é necessário ter três referências: Se você tiver três satélites, consegue localizar com precisão um determinado ponto na superfície terrestre; mas, para isso acontecer, esses três satélites terão que ter seus relógios atômicos sincronizados entre si, que, por sua vez, deverão estar sincronizados com o relógio normal que se encontra instalado no aparelho GPS. Contudo, esses três relógios atômicos não conseguem ficar sincronizados com o relógio normal, porque este último está atrasado ou adiantado em relação aos primeiros. Então, como é que você acerta o relógio do GPS? Em vez de três satélites, você usa quatro satélites, ficando um deles sempre de reserva. Assim, você poderá usar os satélites 1,2 e 3, ou o 2,3 e 4, o 1,3 e 4, ou ainda o 1,2 e 4, deixando sempre um dos satélites de fora. Aí, você tem sempre quatro trincas possíveis. O aparelho identifica os quatro pontos e calibra sua hora atual, para mais ou para menos, até ao momento em que esses quatro pontos coincidam num único local. Quando isso acontecer, você acerta o relógio do GPS e é nesse momento que ele ficará sincronizado com os relógios atômicos dos satélites, dando, por esse motivo, a localização certa de onde você está, explica o pesquisador.

No futuro, se houver a necessidade de se medirem períodos de tempo ainda com mais precisão do que acontece atualmente, poder-se-á utilizar uma radiação com período ainda mais curto. Assim, em vez de relógios atômicos com radiação Césio, que é a que se usa atualmente, poderá ser implementada uma radiação de nível nuclear, já que ela proporciona um período muito menor. Contudo – e por enquanto -, a precisão oferecida pelos atuais relógios atômicos é mais que suficiente para responder às necessidades tecnológicas de nossa sociedade.

Física: uma ciência experimental ignorada pelo ensino médio brasileiro:

No resumo da palestra do Prof. Dr. Paulo Oliveira, estava uma afirmação algo contundente: o pesquisador afirmava que “A Física é uma ciência experimental que é ignorada no ensino médio”. Quisemos saber se o pesquisador se referia ao fato dos alunos do ensino médio apenas terem a oportunidade (obrigação) de “deglutir” milhares de páginas de livros e de não poderem aplicar aquilo que aprendem na teoria, já que mais de 90% das escolas brasileiras não possuem laboratórios. Para o pesquisador, esse é um dos motivos de sua afirmação, mas não só. Para Paulo Oliveira, – e talvez como consequência disso -, a mentalidade dominante é que a Física e a Matemática são a mesma coisa, já que o que é transmitido ao estudante é que Física é ele saber fazer contas, equações e decifrar fórmulas: Não é! Mas, infelizmente, é assim que acontece no ensino médio, no Brasil, concluiu nosso entrevistado.

(Rui Sintra – jornalista)

16 de março de 2018

Candido Portinari: Do Cafezal à ONU

O dia 19 de março do corrente ano ficou marcado por mais uma edição do programa Ciência às 19 Horas, uma iniciativa que decorreu, como habitualmente, no Auditório Prof. Sergio Mascarenhas, no IFSC, tendo como palestrante o Prof. João Candido Portinari, docente da Pontifica Universidade Católica do Rio de Janeiro e, simultaneamente, fundador e diretor – geral do Projeto Portinari, que desenvolveu o tema intitulado Candido Portinari: Do Cafezal à ONU.

Sair pelo mundo, divulgando o trabalho de um dos maiores artistas plásticos nacionais, não é fácil, tendo em conta, até, que esse périplo já dura há cerca de trinta e quatro consecutivos e que a primeira palestra proferida por João Candido Portinari data de 1980, como explica o palestrante: Na época, eu não tinha as imagens e não tinha sido feito o levantamento da obra; tínhamos poucas coisas e os equipamentos eram antidiluvianos para os parâmetros atuais. Só para se ter uma ideia, eu levava comigo catorze malas, com projetores de slides, torres etc. Eu tinha uma  picape e, então, colocava todo esse equipamento lá e ia dirigindo do Rio de Janeiro a Porto Alegre. E foi assim que percorri o Brasil inteiro dessa forma. Essa foi a primeira face do Projeto Portinari. Não havia outra maneira de conhecer o Projeto se não fosse dessa forma. E, naturalmente, em cada lugar que eu ia, sempre haviam jornalistas interessados em bater um papo para, depois, serem publicadas matérias, e foi assim que as pessoas, o público, passou a ter conhecimento do projeto. A sensação que tenho é de orgulho muito grande, sinto-me orgulhoso, sem falsa modéstia, sabe? Toda a minha equipe faz um trabalho muito grande.

Quando João Candido Portinari fala de sua equipe, sempre se manifesta na sua expressão um semblante sério; isso porque, segundo o nosso entrevistado, o Projeto Portinari esteve algumas vezes em risco – na UTI, como ele próprio afirmou. Principalmente por questões financeiras, sempre João Portinari sempre lutou com muita dificuldade e, por isso, sua equipe nunca teve um número certo de colaboradores, até porque as pessoas sentiam-se inseguras do ponto de vista financeiro:“O máximo de pessoas que eu consegui ter foi o que tenho agora, porque o projeto “Guerra e Paz” tem uma logística muito complexa e exige uma equipe muito maior. Hoje, temos cerca de treze pessoas colaborando, mas tempos houve em que apenas consegui ter seis ou sete. O Projeto Portinari nasceu na universidade e foi criado na universidade – algo raro para projetos culturais. Projetos culturais, no Brasil, por alguma razão que não sei explicar, estão longe das universidades: só que nós não estamos longe delas. Nós nascemos nos departamentos de ciência e tecnologia: por exemplo, eu era da matemática. Então, foi muito importante esse convívio com colegas da física, da informática, da matemática e de outras áreas do conhecimento, porque deu ao Projeto a oportunidade de trazer inovação para sua execução, praticamente na hora em que a inovação estava sendo feita. Quando você está na universidade, você passa o dia todo com os colegas e quando olha para o lado você está sentado ao lado de algum deles e pergunta, “o que você está fazendo?”; e ele responde: “eu descobri uma coisa para tratar imagens, fazer o processamento de imagens...

Contudo, o Projeto Portinari conseguiu beneficiar-se do desenvolvimento da ciência e tecnologia nestes últimos trinta anos e, se fizermos uma pequena reflexão, o certo é que o Projeto tem a mesma idade que a indústria de microcomputadores. Quando tudo começou não existia escâner, base de dados, microcomputador, enfim, era tudo na mão; as fotos que se batiam eram de filme, slides, e então seus responsáveis percorriam o mundo inteiro fotografando a obra do Portinari e o que resultou disso foi o único registro visual colorido da obra dele em slides, que sabemos que são perecíveis e que vão se estragando, irremediavelmente: Ficávamos em pânico ao pensar de como poderíamos preservar aquilo: só que a ciência e tecnologia trouxeram a resposta, que é a digitalização em alta resolução, o tratamento cromático, compactação,… Todas as técnicas de tratamento de imagens foram necessárias. Um dos grandes problemas era como levar a obra do Portinari para todos, em qualquer lugar no mundo, e aí… surge a internet. Como íamos imaginar que ia surgir a internet quando começamos? – refere nosso entervistado.

Desde o início do Projeto Portinari, foram levantadas mais de cinco mil obras, percorreram-se mais de vinte países da Europa, Oriente médio, das três Américas, visitando obras e proprietários, fotografando obras, pegando informações. E, nesse longo caminho conseguiu-se levantar, também, cerca de trinta mil documentos, entre eles, por exemplo, seis mil cartas que Portinari trocou com os grandes expoentes de sua geração, como Manuel Bandeira, Carlos Drummond de Andrade, Oscar Niemeyer, Vila Lobos, Mário de Andrade, e esse fato não é tão conhecido assim: ele, além de pintor, conviveu intensamente com sua geração, com abundantes trocas de ideias e de opiniões sobre os mais variados temas, principalmente relativas a preocupações de âmbito estético, artístico, cultural, social e político: tudo isso estão refletido nessas cartas.

A divulgação dessas cartas vai muito além do que todos nós possamos imaginar, como refere João Portinari: Essa divulgação vai muito além de Portinari, até porque essas cartas nos revelam como era o Brasil nessa época, o que aquela gente pensava a respeito de seu país, quais eram os caminhos estéticos, políticos, sociais, tudo. Então, além das seis mil cartas, existem ainda doze mil periódicos de jornais e revistas, de 1920 até hoje. Fizemos um programa que entrevistou setenta e quatro contemporâneos de Portinari, resultando em cento e trinta horas de gravação que, agora, estudantes e pesquisadores descobriram e estão começando a tirar benefícios disso. Temos também cinco mil obras – não as originais, mas o documento do levantamento -, que se traduzem em todas as informações que conseguimos recolher, mais as imagens, coloridas e em preto e branco. Temos mais de mil e duzentas fotografias de época, monografias, textos avulsos, cartazes,… Temos muitas coisas do que chamamos de “memorabília”. Todo esse acervo foi o responsável pelo grande passo que demos agora, ao lançar o Portal Portinari. Tínhamos o site, mas ele não tinha uma interface muito amigável. Para uma criança da rede escolar, por exemplo, ou para um professor, não era muito amigável. Isso agora é diferente e está fazendo o maior sucesso entre as crianças.

As pessoas dizem que o Brasil não tem memória, que as pessoas não dão valor à cultura. Contudo, o nosso entrevistado desmistifica a frase, salientando que o Projeto Portinari teve a devida solidariedade da sociedade brasileira: Não importa a cor política da pessoa, não importa nada. Nós tivemos essa solidariedade de todos os setores da vida brasileira. Vou dar três exemplos, só para se ver a loucura que foi isso. Uma grande empresa de transportes aéreos, que era a Varig, durante décadas deu as passagens de graça para pesquisador e fotógrafo percorrerem o Brasil inteiro fotografando as obras. Eu duvido que a Airfrance ou a Panamerica fizessem isso em prol da memória de um artista europeu ou americano. Nunca ouvi falar de nada igual. E não somente a Varig fez isso, como também enviou telex para todas as agências Varig do mundo inteiro, pedindo que em cada lugar a agência Varig funcionasse quase como uma sucursal do Projeto Portinari, e identificasse quem tinha obras ou qualquer documento sobre Portinari, mandando organizar a logística das visitas e todo o apoio indispensável. O Ministério das Relações Exteriores mandou uma circular para todas as missões diplomáticas brasileiras no mundo inteiro, pedindo, também, que cada local apoiasse o Projeto. Isso foi valiosíssimos para nós! E o terceiro exemplo veio da maior rede de televisão do país – Rede Globo – que, com o apoio da Fundação Roberto Marinho, fez uma campanha de chamadas nacionais e regionais, em todos os horários, inclusive nobres, que durou quase quatro anos, pedindo que, se qualquer pessoa tivesse qualquer documento sobre Portinari, que entrasse em contato conosco. Os Correios nos deram a caixa-postal 500, um número fácil de lembrar. Essa caixa-postal recebeu mais de três mil cartas do Brasil inteiro. Isso tudo aconteceu há trinta anos. Então, o brasileiro, quando acredita em algo, mobiliza-se; eu acho que todos eles acreditaram no Projeto Portinari, pois estamos falando de um artista muito amado, que diz algo fundo na alma dos brasileiros, pois todos sabem que ele retratou o Brasil, o brasileiro, a alma do país, e de uma maneira muito autêntica, crítica e emocionada de todos os aspectos do país. Eu acho que não se conhece no mundo inteiro nenhum pintor que tenha pintado mais um país do que Portinari pintou o seu. Portinari pintou os temas sociais, os temas históricos, religiosos, o trabalho no campo e na cidade, a infância, os tipos populares, a festa popular, os mitos, a fauna, a flora e a paisagem, ou seja, ele fez um grande retrato de uma nação. Isso é uma coisa que o Brasil agora está começando a ter: uma autoestima muito maior do que tinha no passado, quando achávamos que tudo que vinha de fora era melhor do que o nosso. E agora isso está mudando: estava na hora de mudar…

O Projeto Portinari está aí, para que todos o possam conhecer e transmitir seus valores, principalmente os jovens, e essencialmente nas escolas. João Candido Portinari rematou esta entrevista com uma frase profunda proferida pelo eterno compositor polaco Frédéric François Chopin, que ilustra a sensibilidade e devoção do nosso convidado do Ciências às 19 Horas:

A arte é o espelho da pátria. O país que não preserva seus valores culturais jamais verá a imagem da sua própria alma. Se você não vir a imagem da sua própria alma, você não se conhece e, você não se conhecendo, você não pode ir a lugar nenhum.

 Entrevista: Tatiana Zanon – Edição: Rui Sintra (jornalista)

16 de março de 2018

O Físico Médico: uma atividade profissional onde a Física e Medicina andam juntas

Chegou ao fim a programação estipulada para o ano de 2012 do programa Ciência às 19 Horas. Na última edição, realizada no dia 13 de novembro, que decorreu no Auditório Prof. Sérgio Mascarenhas (IFSC), foi dado destaque ao tema Onde a Física e a Medicina se encontram: Física Médica e Neurofísica, uma palestra apresentada pela Profa. Dra. Gabriella Castellano, docente Grupo de Neurofísica do Instituto de Física Gleb Wataghin (UNICAMP).

Nesta interessante palestra, a convidada incidiu seu olhar sobre a atividade de um físico médico – ainda pouco conhecida entre nós -, bem como o entrelaçamento que existe entre as áreas da Física e da Medicina nesse seu trabalho.

As áreas mais importantes da designada física médica são a radioterapia, medicina nuclear e a radiologia ou radiodiagnóstico, sendo que todas elas envolvem o manuseamento de equipamentos complexos, lidando com radiação ionizante. Daí a necessidade, segundo a palestrante, de se ter um profissional que tenha conhecimento, aptidão e especialização neste tipo de radiação, sabendo como ela interage com os tecidos do corpo humano e que danos e benefícios ela pode causar nas pessoas: esse profissional é o físico médico.

Sempre que uma estrutura hospitalar possua equipamentos desse tipo, torna-se necessária a presença de um físico médico. Atualmente, os hospitais têm investido na compra de equipamentos de radioterapia, que servem, principalmente, para o tratamento de câncer: daí que os físicos médicos sejam considerados uma peça fundamental nesses procedimentos, porque uma vez que o médico diagnostica qual é o tipo de câncer que um paciente tem, prescrevendo um tratamento, quem irá fazer o planejamento desse mesmo tratamento, juntamente com o médico, será o físico médico, cabendo a este sugerir qual será o melhor tipo de terapia que irá ser utilizado para tratar esse tumor, de que forma é que a radiação irá ser canalizada, se haverá riscos de reações adversas, quais os ângulos que deverão ser aplicados na radiação, qual a intensidade dela, etc. E o objetivo é sempre tentar destruir o tumor sem danificar ou comprometer todo o tecido que se encontra em redor dele e que está são. Sobre o enquadramento legal desta atividade profissional, Gabriela Castellano explica que, atualmente, existe uma legislação que obriga os centros de radioterapia a terem, no seu quadro de recursos humanos, a figura do físico médico. Contudo, para outras áreas, como a medicina nuclear e o radiodiagnóstico, ainda não existe legislação, mas está-se caminhando nesse sentido. Na medicina nuclear, o usual é utilizarem-se radiofármacos, que são moléculas que possuem elementos radioativos, e que ao serem ingeridas ou injetadas nos pacientes, essas moléculas emitem radiações internas que podem ser utilizadas para se fazerem imagens de determinadas partes do corpo humano. É óbvio que toda a manipulação desses radiofármacos precisa ser feita por profissionais altamente qualificados e especializados, que possam calcular a dose certa que pode ser administrada em determinado paciente, exatamente para que se possa fazer determinada imagem e não outra coisa qualquer que possa prejudicar esse paciente. Por outro lado, como os radiofármacos geralmente são feitos nos próprios centros de medicina nuclear, existe a necessidade de existirem físicos médicos nesses locais, por forma a que o trabalho deles tenha uma sequência lógica, principalmente na interligação com o pessoal de radiofarmácia.

A formação de um físico médico e sua saída para o mercado de trabalho

A física médica é uma disciplina multidisciplinar, onde o físico tem que ter conhecimentos vários, não só no aspecto da física comum, como também nas áreas de medicina, biologia, química e, inclusive, conhecimentos profundos de matemática e computação, porque esse profissional irá lidar  com softwares extremamente complexos e com algoritmos complicados, principalmente para captura e tratamento de imagens com definições de alto padrão, que nada têm a ver com as usuais imagens da radiologia convencional – os tão conhecidos Raios-X. Há quem questione se este profissional é um físico, ou se é um médico: na verdade, ele é um físico e não um médico, mas trabalha lado-a-lado com os médicos, em parceria estreita com eles. Quanto à formação destes profissionais, a Profa. Gabriela Castellano informa:

Vou dar o exemplo da UNICAMP, onde existe um curso de graduação em física médica, em que o aluno faz a maioria de suas disciplinas dentro da área da física básica, passando depois para disciplinas específicas: biologia, medicina, física aplicada à medicina, física de radioterapia, física de me3dicina nuclear, física de radiologia, etc., tudo isso já canalizado, como se vê, para a área médica. São quatro anos de curso, acrescido de um ano de estágio em um hospital ou clínica, e mais um período de residência em física médica num centro de radioterapia, para depois ingressar definitivamente em um hospital ou centro. Contudo, um dos problemas no Brasil, nesta área, é que existem pouquíssimos centros que oferecem esse tipo de residência na área de física médica, mas há a esperança de que esse panorama possa mudar, já que foi lançado recentemente um edital, tendo em vista a possibilidade de serem oferecidas mais bolsas destinadas à residência; como informação complementar, essas residências têm uma carga horária pesada – cerca de 60 horas semanais –, o que demonstra o quanto um físico médico fica preparado para exercer sua atividade.

No Brasil, a demanda por esses profissionais está crescendo muito, mas ainda existem dois problemas que necessitam ser resolvidos: o primeiro, diz respeito à legislação, porque embora seja importante a ação do trabalho do físico médico, esta profissão tem ainda que ser reconhecida legalmente na área específica da radioterapia e essa falta de reconhecimento faz com que muitas clínicas e hospitais ainda prescindam da contratação desses profissionais, o que, para nossa entrevistada, é um erro. O segundo problema diz respeito aos próprios médicos, que são proprietários ou possuem cargos de administração em hospitais, que ainda não perceberam a importância de ter um físico médico ao seu lado, até para gerir e manusear, de forma correta, equipamentos que são extremamente sensíveis e fidedignos, dependendo deles e dos resultados alcançados o sucesso dos diagnósticos e tratamentos, tendo em vista o bem-estar dos pacientes. Fazendo uma comparação com a realidade norte-americana, nesta área o Brasil ainda está engatinhando.

Nos Estados Unidos, o físico médico é o profissional mais bem pago em todas as áreas da Física Aplicada e tem uma demanda muito grande. Por exemplo, no Brasil existem alguns (poucos) equipamentos de ressonância magnética e outros mais dedicados à medicina nuclear, enquanto que nos Estados Unidos existem largas centenas desses equipamentos que estão distribuídos pelos principais hospitais e clínicas. Por outro lado, no Brasil existe apenas um técnico – designado de Cientista Clínico – cuja sua missão – conjuntamente com os pesquisadores – é desenvolver protocolos específicos em ressonância magnética, principalmente no capítulo de geração de imagens: não só ele é o único no Brasil a fazer esse trabalho, como também ele é o único com essa especialidade abaixo da linha do Equador. Comparativamente, só nos Estados Unidos existem cerca de trinta cientistas clínicos para esse objetivo. Agora, imaginemos quantos equipamentos de ressonância magnética existem nos Estados Unidos e quantos existem no nosso país, sublinha a pesquisadora.

O programa Ciência às 19 Horas regressará em março de 2013 com uma programação ainda mais interessante, não só dedicada à comunidade acadêmica e científica, como também, e principalmente, dirigida à sociedade de São Carlos e região.

(Rui Sintra – Jornalista)

16 de março de 2018

Surpresas do Mundo Quântico: o olhar do Prof. Dr. Luiz Davidovich

Quando usualmente se fala em transistores, lasers e RMN (ressonância magnética nuclear), não há qualquer tipo de dificuldade em identificar essas denominações, pois elas estão intrinsecamente ligadas às extraordinárias descobertas feitas no século XX. Passada que é a primeira década do século XXI, o mundo científico não quer abrandar a verdadeira revolução que iniciou há cerca de cem anos: o que era inovação ontem, está desatualizado hoje. A velocidade com que a ciência avança em todas as áreas do conhecimento é impressionante. Embora a física tenha também contribuído – e bastante – para esse incrível turbilhão tecnológico, o certo é que século XXI traz com ele alguns enigmas que estão ligados ao rápido desenvolvimento científico e na procura por mais e melhor. E um dos exemplos de enigmas na física reside nos efeitos quânticos que, por enquanto, ainda não apresentam todas as respostas para os cientistas.

Para debater conosco este tema e suas particularidades, conversamos com um dos mais eminentes físicos brasileiros, o pesquisador, Prof. Dr. Luiz Davidovich, que, por ocasião da segunda edição da SIFSC – Semana Integrada do Instituto de Física de São Carlos, participou no habitual programa intitulado Ciência às 19 Horas, que ocorreu no dia 16 de outubro, através da palestra subordinada ao tema Surpresas do Mundo Quântico.

 

O fenômeno do Emaranhamento

De fato, existem ainda questões em aberto na física quântica, relacionadas com problemas antigos que foram formulados em 1935 por Einstein, Podolsky e Rosen, através de um famoso artigo científico que resultou do designado Paradoxo de EPR, no qual se levantou um dos problemas mais fundamentais da teoria quântica – saber se a mecânica quântica era uma teoria completa, ou se, pelo contrário, continha variáveis escondidas que tinham a ver com o fenômeno do Emaranhamento. Segundo Davidovich, esse fenômeno tem ocupado as mentes dos físicos durante décadas e provocou inúmeras discussões filosóficas entre os anos de 1935 e 1960.

Só em 1964 é que foi possível dar uma formulação matemática a todos esses debates, através da teoria de John Stewart Bell, que, no meu entender, foi uma das grandes contribuições da física no século XX. O que despertava a curiosidade e atenção dos físicos e filósofos dessa época era o fato de que o fenômeno do Emaranhamento, que Einstein classificou como fantasmagórico, poderia talvez ser explicado pela teoria designada de variáveis escondidas: por outras palavras, o Emaranhamento estava associado a correlações muito fortes entre dois objetos e acreditava-se que talvez uma teoria alternativa de física quântica poderia explicar essas correlações, comenta o pesquisador.

De fato, em 1964 John Bell mostrou que havia experimentos que poderiam diferenciar as previsões da teoria quântica e as previsões dessas teorias alternativas. Os experimentos foram realizados e estabeleceu-se que, de fato, as teorias alternativas não eram adequadas para descrever esse fenômeno. Ganhou-se, nos últimos anos, uma enorme compreensão sobre esse fenômeno do Emaranhamento, mas ainda há questões em aberto, conforme explica Davidovich.

Einstein, Podolsky e Rosen referiam-se ao Emaranhamento entre duas partículas, entre dois corpos. Hoje, são produzidos estados emaranhados de muitas partículas. Por exemplo, em laboratórios na Áustria, são produzidos estados emaranhados de catorze átomos. Como entender a matemática desses estados, como classificar o emaranhamento desses estados? Como ordenar esses estados de acordo com a quantidade de emaranhamento que possuem? Tudo isso é uma questão em aberto na física e na matemática e por isso é interessante verificar que essas questões, tão básicas da física contemporânea, encontram ainda sérios desafios muito fortes.

Também apareceram novas ideias para futuras aplicações, que envolvem a criptografia e o aparecimento dos computadores quânticos, tendo como base os trabalhos vencedores do Prêmio Nobel da Física – 2012, da autoria do francês Serge Haroche e do americano David Wineland, que conseguiram manipular partículas quânticas sem as destruir. Para o Prof. Luiz Davidovich, essa história não está bem contada, pois os media ainda não souberam explicar, de forma correta, esses trabalhos:

De fato, isso de manipular partículas quânticas sem as destruir tem sido noticiado da forma como refere, mas na verdade é um pouco mais complexo do que isso. Quando se detecta um fóton, a maneira usual de fazê-lo implica na destruição dele. A detecção de um fóton faz-se através de um aparelho chamado (logicamente) Fóton-Detector e ele tem a propriedade de absorver o fóton. Sabemos que o fóton estava lá a posteriori através do sinal emitido por esse aparelho, que o detectou e que o destruiu.

No grupo de pesquisa de Serge Haroche utilizaram-se experimentos que permitiram detectar, por exemplo, o número de fótons existentes numa cavidade, sem os destruir. Não é que o estado do sistema fique inalterado, como se fala, mas é uma propriedade do sistema, ou seja, é o número de fótons que fica inalterado. Você detecta esse número de fótons com átomos que passam pela cavidade, e esses átomos “sentem” que os fótons estão lá, mas não os absorvem. Isso é o que se chama de Medida Quântica Não Demolidora, porque ela não destrói, não demole os fótons que estão na cavidade. Contudo, isso não significa que o estado fique inalterado, podendo-se mostrar que esses átomos, que mantêm o número de fótons inalterado, tornam a fase – que é uma propriedade do campo eletromagnético – completamente caótica. Eles alteram a fase do campo, mas não alteram o número de fótons: são propriedades complementares, refere o nosso convidado.

 

Computadores mais velozes e códigos criptográficos inquebráveis (?)

Nesse contexto, conforme explicou Davidovich, o que se chama de Medida Quântica Não Demolidora, em geral, mais não é do que uma medida que não altera a variável que está sendo observada, mas que pode alterar completamente a variável complementar. Pode-se fazer uma Medida Quântica Não Demolidora da velocidade de uma partícula, mas para se fazer isso não se destrói a posição da partícula. Os trabalhos de Haroche e Wineland prevêem, segundo os media, que num futuro próximo possam existir computadores ainda mais velozes e códigos criptográficos inquebráveis. Estas afirmações obrigaram-nos a questionar nosso entrevistado se essa é uma afirmação correta e o que estará para vir depois disso. Enfaticamente, Luiz Davidovich dividiu a questão em duas partes, debruçando-se primeiramente nos códigos inquebráveis ou invioláveis, explicando que a designada criptografia quântica permite a transmissão daquilo a que se chama usualmente de chaves criptográficas: então, o que é uma chave criptográfica?

Quando queremos enviar uma mensagem para uma pessoa amiga que está longe, e queremos codificar essa mensagem, precisamos ter uma chave para fazer isso. E o importante é que ambas as pessoas tenham essa chave – a pessoa que envia a mensagem e a pessoa que vai recebê-la, para decodificá-la. Por isso mesmo, enviar chaves de um lugar para o outro é o ponto crucial dessa operação, referiu Davidovich, exemplificando com o clímax transmitido por qualquer filme de suspense, já que essas chaves podem ser capturadas por um espião, que necessariamente não está interessado nas mensagens propriamente ditas. Assim, se os espiões conseguem as chaves, eles poderão ter acesso a todas as mensagens.

O que a física quântica faz é permitir enviar uma chave, de tal forma que se alguém tentar olhar para ela, imediatamente se descobre que o fez isso. Isso está baseado na propriedade fundamental da física quântica, que diz que você não pode medir o sistema sem alterá-lo. Você pode até fazer medidas que não alteram certa propriedade do sistema, mas vai alterar outra. Então, se uma pessoa tenta descobrir qual a mensagem que está sendo enviada, ela necessariamente modifica essa mensagem. Assim, tanto a pessoa que envia a chave, como aquela que a recebe, podem descobrir que houve uma observação dela e aí a chave deixa de ser confiável, pois comparando ambas elas mostram diferenças, salienta o pesquisador.

Quando perguntamos ao Prof. Luiz Davidovich se isso poderá se tornar uma realidade, o pesquisador respondeu Já é uma realidade. Com efeito, em 2007, as eleições em Genebra (Suíça) foram feitas eletronicamente e os votos foram transportados (para serem contabilizados) através da criptografia quântica. Se alguém quisesse violar um voto que fosse seria descoberto imediatamente. Segundo o nosso entrevistado, esse método está sendo usado também na Áustria e na Suíça para conectar matrizes de bancos às suas filiais, em distâncias curtas, mas esta realidade não fica por aqui.

Hoje, estão sendo feitos experimentos para o envio de chaves quânticas a grandes distâncias. Existe uma cooperação que está sendo realizada entre a China, Europa e Austrália, para fazer tudo isso através de satélites, ou seja, serão usados satélites artificiais para estabelecer chaves quânticas. Fantástico, não é? Então, essa é uma fase da informação quântica que já está sendo implantada, remata Davidovich.

Quanto à computação quântica, que é a segunda parte relacionada à primeira questão que colocamos, segundo o nosso entrevistado ela promete muito, tendo começado a despertar um grande interesse, principalmente em determinadas agências governamentais dos Estados Unidos da América, nomeadamente na NSA – National Security Agency, a partir do momento em que houve uma proposta de um matemático que trabalhava nos laboratórios da ATAT – American Telephone and Telegraph Corporation, que mostrou que alguém que possuísse um computador quântico poderia faturar um número em um espaço de tempo exponencialmente mais rápido do que num computador clássico. Mas, o que é faturar um número? Luiz Davidovich explica.

É decompor em números primos, explica o pesquisador. Por exemplo, 15=5×3. Até aqui, nada de anormal, todo mundo sabe isso. Agora, um número como 3.873.984, fica mais difícil descobrir os fatores primos dele. De fato, nos computadores clássicos, o melhor algoritmo conhecido hoje, para faturar um número, leva um tempo relativamente longo. Por isso mesmo, a faturação de números grandes é a base do método criptográfico muito usado atualmente – método RSA -, extremamente utilizado quando estabelecemos contato com os bancos pela Internet. Assim, quem possuir um computador quântico vai poder quebrar todos os códigos existentes e daí a preocupação da NSA.

A partir desse pressuposto, a NSA implantou uma estratégia muito interessante: ela abriu completamente o tema, sem segredos, e passou a frequentar, através de funcionários altamente capacitados, todas as conferências para as quais eram convidadas pessoas de todo o mundo. Na China, que é onde decorre a maior parte dessas conferências, lá está sempre um funcionário de alto escalão (na maioria das vezes, matemático) devidamente credenciado e identificado pela NSA. A agência americana não quer saber de mais nada a não ser verificar se alguém violou algo, por forma a poder mudar imediatamente seus códigos. Contudo, para fazer com que um computador quântico fature números com mais eficácia de que um computador convencional teria que existir uma máquina com um poder quase inimaginável.

Esse computador imaginário teria que ter 1.000 qbits, colocando esse número num estado emaranhado, o que é algo extremamente difícil, quase impossível. Agora, se vai aparecer o computador quântico baseado nas idéias atuais, para quebrar códigos, eu tenho as minhas dúvidas. Por outro lado, atualmente estão sendo feitas demonstrações muito interessantes de computação quântica, usadas para simular sistemas físicos, e nessas simulações consegue-se fazer coisas extraordinárias, como, por exemplo, simular movimentos de camadas de ar na atmosfera, o que é um tema interessantíssimo para a área de meteorologia, explica o palestrante.

 

Luiz Davidovich versus Serge Haroche

O Prof. Davidovich é amigo pessoal e um dos colaboradores brasileiros mais próximos de Serge Haroche, um dos vencedores do Prêmio Nobel da Física deste ano, e essa colaboração vem de há vinte ou vinte cinco anos. Davidovich desloca-se frequentemente a França, onde participa de conselhos de diversos organismos europeus, e propôs-se a falar um pouco sobre essa relação de trabalho com o pesquisador francês, que remonta ao ano de 1986, quando Luiz Davidovich ainda estava na PUC do Rio de Janeiro.

Foi graças a uma licença sabática que decidi ir para França, onde passei um ano com a equipe de Haroche. Quando cheguei lá, a minha intenção era fazer um experimento sobre um dispositivo chamado micro-maser: o maser é um laser que funciona na região de microondas, na área da luz. O micro-maser é um maser microscópico que funciona com apenas alguns átomos de cada vez, numa cavidade ressonante, e esse micro-maser era algo baseado na transição de dois fótons. Eu achei interessante e comecei a trabalhar na teoria desse micro-maser, uma teoria que, para essa especificação, ainda não tinha sido realizada. Cheguei na França com muita vontade e trabalhei dia e noite, durante fins-de-semana: eu estava cheio de gás. Então, deparei-me com problemas de vária ordem que levaram muito tempo para resolver – inclusive, houve um problema que eu resolvi, imagine, no cinema, em plena exibição de um filme. Então, o que eu fiz foi desenvolver essa teoria e o interessante foi que ela demonstrou que o experimento que estávamos planejando com Haroche tinha que ser modificado e mais tarde comprovou-se tudo isso, na experimentação. Foi fantástica essa experiência, esse trabalho em colaboração com Haroche e sua equipe, que tinham a particularidade de ter um humor deveras refinado, extraordinário, recorda nosso entrevistado, sorrindo.

Depois desse ano na França, Davidovich começou a viajar com freqüência para aquele país, sempre trabalhando junto com Haroche e sua equipe em diversos projetos e idéias, sendo que algumas delas não passaram para a fase experimental por falta de equipamentos, mas que, mesmo assim, estão prontas para isso, como é o caso da teleportação.

De fato, o nosso artigo sobre teleportação foi o primeiro a propor o experimento e, curiosamente, mostrou que dava para fazer a teleportação fazendo uma determinada operação lógica entre átomos e campo, que na verdade mais não era do que uma porta lógica alimentada por computação quântica. Claro que na época não sabíamos isso; apenas chamávamos de porta de fase. Seguidamente, trabalhamos na designada Medida Quântica Não Demolidora, propondo experimentos; no artigo que foi feito com base nesse trabalho conjunto com a equipe de Haroche – que é um dos artigos mais citados –, tivemos a idéia de fazer um experimento que envolveria a produção de um estado do campo eletromagnético análogo ao Gato de Schrodinger, teoria datada de 1935, da autoria do físico Erwin Schrodinger. Nesse experimento seria produzido, numa cavidade, um campo que estaria numa superposição de dois estados, ou seja, uma cavidade acesa e apagada, ao mesmo tempo, uma superposição dessas duas situações. Era uma superposição que você pode interpretar, classicamente, cada uma delas – sabemos o que é uma cavidade acesa e o que é uma cavidade apagada, mas uma cavidade acesa e apagada, ao mesmo tempo, é difícil de imaginar, é impossível imaginar: é como o Gato de Schodinger, que está vivo e morto, ao mesmo tempo. No entanto, isso é uma possibilidade quântica. Na sequência desse artigo, publicamos, em 1996, um outro artigo em que mostramos como é que poderia ser medida essa superposição, mostrando, igualmente, como é que, com o tempo, essa superposição quântica estranha se transforma numa alternativa clássica. Em outras palavras, as propriedades quânticas desaparecem devido ao contato daquele sistema com o ambiente, ou seja, o ambiente destrói as propriedades quânticas. Nós provamos isso, na teoria, explica Davidovich.

Esse experimento foi feito ainda no decurso de 1996 e foi muito badalado na época, exatamente pela propriedade da perda de coerência. Davidovich e Haroche tiveram ainda uma outra cooperação na área de laser, que incidiu sobre uma teoria do laser microscópico.

Foi um trabalho intenso nessa época. Em 1994 transferi-me para a UFRJ e a partir daí dediquei-me exclusivamente á teoria, ao ponto de criar um laboratório – para pasmo da comunidade de físicos. É um laboratório para teóricos, mas com uma interligação fortíssima com a área experimental, que acolhe nomes de grandes pesquisadores. São verdadeiramente fantásticos os resultados obtidos nesse laboratório, com artigos de grande impacto publicados em diversas revistas, como, por exemplo, na Nature ou na Science, recorda o pesquisador.

A colaboração com França deu e continua a dar frutos muito importantes, principalmente para a ciência brasileira. Luiz Davidovich e Serge Haroche orgulham-se de sua amizade e continuam a trocar experiências científicas e a se visitarem mutuamente. Contudo, existem outras colaborações científicas com França, não necessariamente com o grupo de Haroche, que têm contribuído – e muito – para o desenvolvimento da ciência nacional.

E os trabalhos nas universidades brasileiras estão aí, como prova disso.

Rui Sintra – jornalista

16 de março de 2018

Rumo à descoberta do bóson de Higgs

Subordinada ao tema O que é a massa? E o bóson de Higgs, decorreu no dia 18 de setembro, no Auditório Prof. Sergio Mascarenhas, mais uma edição do programa Ciência às 19 Horas, tendo desta vez como palestrante convidado o Prof. Dr. Carlos Garcia Canal, docente do Departamento de Física da Universidad Nacional de La Plata – Argentina.

A palestra apresentou um breve relato das origens de massa e inércia, e, através da evolução de conceitos sobre a constituição da matéria, foi apresentada a argumentação que a massa dos corpos macroscópicos se deve à massa e interações de seus constituintes, ou seja, os átomos, núcleos atômicos e partículas elementares, como quarks e elétrons.

Finalmente, o palestrante lançou a discussão sobre o problema da origem da massa no contexto das teorias atuais que descrevem as interações (forças) entre corpos, como um processo de troca de partículas ditas intermediárias, enfatizando os últimos passos dados rumo à descoberta do bóson de Higgs.

Antes mesmo de começar sua palestra e em conversa informal com a Assessoria de Comunicação do IFSC, Carlos Garcia Canal afirmou que a principal intenção de sua participação no programa Ciência às 19 Horas era tentar partilhar com o público o entendimento que se tem da massa, mas a um nível microscópico, já que existem diferenças nos conceitos tradicionais da mesma em nossa vida cotidiana.

A massa clássica, que é uma medida da inércia que está relacionada com o nosso peso – o peso de um ser humano – sofre modificações conceptuais quando está em causa a relatividade, ou seja, quando a física se coloca perante uma velocidade próxima à velocidade da luz. Por outro lado, a física também está sendo toda ela repensada ao nível da mecânica quântica, já que ela tem uma vigência nos níveis atômico e subatômico. Através da relatividade, aprendemos que a massa e a energia podem se correlacionar; se você dispõe de energia, ela pode ser materializada em partículas quânticas – comenta Garcia Canal.

Para o palestrante, a massa está diretamente relacionada com as interações fundamentais da Natureza – elétrica e magnética -, interações fortes que têm a ver com a composição dos prótons e neutrons do núcleo atômico; e as interações fracas, que estão relacionadas com a desintegração dos núcleos por emissão de elétrons.

Neste momento trabalhamos com uma teoria relativa às partículas que intervêm nas interações e que são desprovidas de massa; mas, na realidade, quer as partículas da matéria, quer as partículas que levam à interação fraca – que são as portadoras da interação fraca -, todas elas têm massa. Então, o conflito entre uma simetria que é a base da compreensão das interações e o fato de que essa simetria não permite a presença de massa é resolvido através de uma situação muito particular, que é a realização de uma simetria incompleta; ou seja, a simetria está presente nas equações e no sistema, mas ela não apresenta nas soluções. É a isto que chamamos de mecanismo de Higgs. Para colocarmos em marcha esse mecanismo precisamos que exista um novo ingrediente da teoria – o bóson de Higgs – refere o palestrante.

No último dia 04 de julho, no acelerador de partículas LHC do laboratório CERN, em Genebra, Suíça, foi descoberto um bóson “compatível” com o bóson de Higgs, que a comunidade científica mundial pensa existir, mas onde não há ainda uma demonstração precisa da sua existência. Este recente evento faz o Prof. Carlos Garcia Canal acreditar que se está muito próximo dessa descoberta, embora o que se tenha descoberto em julho último seja apenas um bóson compatível, mas constituído apenas por uma imagem que necessita ter melhor definição.

É de fato uma imagem entusiasmante, mas temos que conseguir obter, através de vários experimentos, outros dados que confirmem que todas as características desse bóson que foi descoberto coincidam plenamente com as características que devem fazer parte do bóson de Higgs, por forma a completar a teoria – sublinha o pesquisador. Confesso que esta descoberta do dia 04 de julho me entusiasmou muito. Repare que há cerca de um século o homem desconhecia que a matéria tinha elétrons e hoje a vida, como a conhecemos, é inconcebível sem os elétrons. É claro que o bóson de Higgs não irá ter o mesmo papel ou impacto que teve o elétron, até porque se tratam de coisas diferentes; mas vai proporcionar uma compreensão relativa à estrutura da matéria, mais íntima, interessante e detalhada, com um ingrediente que eu acho interessantíssimo, que é o fato do bóson de Higg produzir a massa das partículas por interação e, por isso, o campo de Higgs fazer parte do nosso cotidiano, estar em nosso redor, por toda a parte – conclui o cientista.

Todas as dúvidas sobre a existência do bóson de Higgs poderão ser tiradas até ao final deste ano – ou no máximo até aos primeiros meses de 2013 -, até porque o acelerador de partículas do CERN deveria ter já parado seu funcionamento, por motivos de manutenção, calibração e afinação e isso não aconteceu. A descoberta realizada no dia 04 de julho alterou todo o planejamento e os cientistas estão trabalhando vinte e quatro horas por dia para poderem coletar novas informações que poderão comprovar (ou não) a consistência do famoso bóson de Higgs.

(Rui Sintra – jornalista)

16 de março de 2018

Prof. Dr. Sylvio de Mello (IAG-USP) fala sobre “Planetas extra-solares gigantes e super-terras”

Subordinada ao tema Planetas extra-solares gigantes e super-terras, decorreu no dia 14 de agosto, pelas 19 horas, no Auditório Prof. Sergio Mascarenhas, no IFSC, mais uma palestra integrada no programa Ciência às 19 Horas, tendo como convidado o Prof. Dr. Sylvio Ferraz de Mello, pesquisador e docente do IAG-USP.

Nos momentos que antecederam sua palestra, o Prof. Sylvio trocou algumas idéias com a Assessoria de Comunicação do IFSC sobre a temática que iria ser apresentada e debatida: a paixão demonstrada pelo pesquisador sobre sua especialidade impeliu-nos a colocar uma primeira questão que, à primeira vista, parecia ter uma resposta relativamente fácil, mas que obrigou nosso convidado a fazer um compasso de espera para responder a ela: como é que está o nosso Universo? Ele está estável, equilibrado? A primeira reação do pesquisador foi: (…) essa é a questão mais fácil ou a mais difícil que vão colocar? (…) De fato, para o Prof. Sylvio de Mello, o que se sabe é que o nosso Universo está se expandindo cada vez com maior rapidez, o que traz algumas conseqüências, que não podem ser interpretadas como “perigos”:

Tudo no Universo está-se afastando graças a essa expansão, mas repare, eu estou falando num período de tempo muito grande. Daqui a bilhões de anos, se ainda houver vida na terra, não se enxergará as estrelas como hoje acontece, ver o céu estrelado, etc. Mas isso é uma conseqüência dessa expansão que falei, o que necessariamente não quer dizer perigo. E algo que se expande, necessariamente cria vazios: e é isso que está acontecendo, ou seja, a criação de enormes vazios – pontua nosso convidado.

Entrando diretamente no tema que iria apresentar, um dos aspectos que nos intrigou desde que lemos o resumo de sua palestra, foi a forma como se mede a velocidade com que uma estrela se afasta ou aproxima de nosso planeta, e o exemplo dado por Sylvio de Mello ajudou na compreensão.

Da mesma forma que se nota a diferença do som de um trem que se aproxima ou se afasta de você – primeiro um som agudo e logo, na sequência, um som grave, assim acontece com a velocidade das estrelas, só que através de sua coloração. As estrelas ficam mais vermelhas quando se afastam da Terra e ficam mais azuis quando se aproximam de nosso planeta; e é através dessa mudança de cor que é possível determinar suas velocidades. E é assim que também medimos, ou calculamos a expansão do Universo – explica o pesquisador.

Outro assunto que o Prof. Sylvio Mello abordaria em sua palestra foi a existência das designadas super-terras e como se distinguem no Universo. De fato, segundo o docente, temos elementos que permitem saber qual é a massa de cada planeta, sendo que essa mesma massa está diretamente relacionada à forma como o planeta interage com as estrelas mais próximas, até na sua própria rotação:

Se a massa de um planeta for grande, ele tem uma interação maior. Em alguns casos – poucos – foi já possível verificar que existem dois ou três planetas que têm uma massa três ou quatro vezes superior à massa da Terra e esses são os designados super-terras, eminentemente rochosos, maiores que o nosso planeta, mas muito parecidos com ele. Os demais planetas que se conhece são os gigantes, que nem Júpiter – explica o pesquisador.

Um Universo que se expande, que cria vazios de enormes proporções, sistemas planetários muito maiores que o nosso, super-terras e gigantes. Com esta imensidão universal, será a espécie humana a única forma de inteligência existente? Será ela única? Esta é uma questão que, certamente, milhões de pessoas já fizeram. Para o Prof. Sylvio de Mello, a resposta é: Seguramente, não! Para o nosso convidado, há a certeza de que devem haver outras formas de vida inteligente no Universo, só que nós ainda não as encontramos:

Eu acho que na escala de tempo em que as coisas acontecem – que é de bilhões de anos – a vida é um processo natural. Qualquer planeta parecido com a Terra, que tenha alguns bilhões de anos de idade, que tenha condições climáticas parecidas com o nosso planeta, tem todas as chances de aí aparecer vida: é uma conseqüência natural da química – as moléculas vão se combinando, vão formando aminoácidos e naturalmente surge a vida. Nada acontece graças ao sobrenatural, tudo acontece por mero acaso, de forma natural. O leão na caça gazelas e outros animais? Porque é que ele faz isso? Instinto de sobrevivência… Isso é algo natural, relacionado com a própria vida. Não há nenhum ser sobrenatural que obrigue esse leão a matar, a não ser a sua sobrevivência, que é uma das consequências naturais da vida – enfatiza Sylvio Mello.

Apaixonante, mas complexa, delicada e algo misteriosa, a Astronomia ainda é, de alguma forma, uma área pouco procurada pelos jovens estudantes e, a partir daí, torna-se complicado descobrir de que forma é que se podem atrair jovens para essa área do conhecimento. Para o palestrante desta edição do Ciência às 19 Horas, o problema coloca-se mais num vetor um pouco diferente.

Nós temos é que trabalhar para não espantar aqueles que se aproximam desta área do conhecimento e isso não é tarefa fácil. Numa certa proporção da juventude, a curiosidade existe – ou seja, existe a chamada vocação – e temos que preservar isso nos jovens através de novas e melhores técnicas de ensino; temos que, acima de tudo, ensinar os jovens a gostar de matemática, já que ela faz parte da vida de todos nós. E quem não gosta de matemática é porque foi vítima de um mau professor. O problema de preservar o interesse pela ciência é mais sério e mais importante do que criar o interesse pela ciência e isso tem que ser uma missão do ensino básico – conclui o Prof. Sylvio de Mello.

Quando exerceu as funções de diretor do IAG-USP, o Prof. Sylvio de Mello foi o responsável pela oferta do telescópio que ainda hoje se encontra em pleno funcionamento no Observatório Dietrich Schiel, do Setor de Astronomia do CDCC – Centro de Difusão Científica e Cultural, localizado no Campus I da USP, em São Carlos.

(Rui Sintra – jornalista)

16 de março de 2018

Prof. Carlos Farina de Souza fala sobre a vida e obra do cientista holandês Christiaan Huygens

A edição de junho do programa “Ciência às 19 Horas”, organizado mensalmente pelo IFSC, convidou o Prof. Dr. Carlos Farina de Souza, docente do Instituto de Física da UFRJ – Universidade Federal do Rio de Janeiro, para falar da vida e obra do matemático, físico e astrônomo holandês, Christiaan Huygens, um dos mais proeminentes cientistas do Século XVII. A palestra de Carlos Farina de Souza realizou-se no dia 19 de junho, pelas 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC-USP) e foi subordinada ao tema “Christiaan Huygens, a Helena da geometria e o tempo aprisionado”.

Nascido em berço de ouro, no ano de 1629, na Holanda, Christiaan Huygens cresceu no seio de sua família abastada, sempre rodeado de inúmeras personalidades influentes na área científica, social e política, o que terá contribuído para que se tornasse uma das maiores figuras nas áreas da matemática, astronomia e física, tendo, inclusive, desenvolvido novos conceitos que viriam a ser utilizados para uma melhor observação do céu, através dos telescópios.

Embora não tenha sido o percursor do telescópio, Galileu conseguiu observar coisas incríveis no céu e percebeu que aquilo que parecia perfeito, à primeira vista, afinal não era: o Sol tinha uma enorme mancha escura, a Lua afinal não tinha uma superfície lisa, Júpiter tinha luas em seu redor, etc. Por seu turno, Huygens tentou, então, criar telescópios com maior alcance e precisão, por forma a descobrir coisas que Galileu não tinha condições de fazer. Desta forma, Huygens dedicou-se a matematizar a Natureza e, com seu trabalho, se tornou – talvez – no primeiro físico-matemático da história, tentando responder a qualquer questão que se apresentasse em forma de enigma; o intuito dele era responder às questões deixadas por terceiros e sempre apelava à matemática como a linguagem privilegiada para dar resposta a essas questões existentes na sua época.

Huygens criou coisas tão fantásticas, que mesmo hoje, ao se rastrear os primórdios de determinados temas, vê-se que existe a semente de Huygens, como explica o Prof. Farina de Souza: É verdade. Por exemplo, o caso das tangentes e curvas que ele chamou de evolutas e involutas, e que deram origem à atual geometria diferencial. Várias coisas começaram com ele, sempre na tentativa de responder a problemas físicos, utilizando a matemática.

Huygens também se destacou na astronomia, principalmente devido ao fato de ter desvendado o mistério de Saturno. De fato, no Século XVII ninguém conseguia entender ou explicar o que acontecia com aquele planeta, que apresentava diversas formas ao longo do tempo. Galileu chegou a pensar que a mudança de forma poderia estar relacionada com a existência de um sistema de três estrelas, mas, de fato, seu telescópio não tinha uma resolução eficaz para fazer uma observação mais pormenorizada. Então, Huygens consegue perceber, pela primeira vez, que ao redor de Saturno existia um anel que não tocava no planeta e isso causou uma verdadeira surpresa na comunidade acadêmica mundial. Huygens explicou, então, que de acordo com o movimento do planeta, a projeção do anel sofria variações angulares. Contudo, todo esse trabalho do cientista holandês demorou anos para se concretizar, por forma a ter a plena certeza de sua descoberta.

Porém, Huygens é essencialmente um físico-matemático e durante cerca de quatro décadas de sua vida ele tentou aprimorar relógios e cronômetros marítimos, que era algo bastante importante para a época, atribuindo-se a ele o primeiro relógio de pêndulo, que, inclusive, originou uma patente. Contudo a maior obra do cientista holandês foi o Horologium Oscillatorium, conforme explica o Prof. Farina de Souza: Sim, essa foi a maior obra de Huygens. O Horologium Oscillatorium é um trabalho que foi publicado em 1673 e embora o nome sugira que seja apenas um tratado sobre relógios, o certo é que esse trabalho é muito mais que isso, já que essa obra contém cinco partes, em que uma delas é uma descrição de relógio, enquanto que na maior parte das outras áreas são descritas as tais definições evolutas e involutas. Huygens generaliza resultados de Galileu no movimento de partículas sobre superfícies curvas, e praticamente ele enuncia, pela primeira vez, a conservação da energia mecânica. Nesse trabalho, o cientista holandês conclui uma conta realizada por Galileu relacionada a força centrífuga, além de, igualmente pela primeira vez, falar do momento de inércia, que é um fator importante no contexto do movimento de rotação, já que não bastava saber qual era a massa do corpo, mas também saber como essa massa estava distribuída. E, nesta particularidade, Huygens queria analisar um relógio de pêndulo, sabendo que o cordão desse pêndulo possuía massa e que essa massa não estava apenas concentrada na esfera de metal. Esse raciocínio demonstra que Huygens sempre se baseava em um problema de física para ir mais além e realmente este trabalho Horologium Oscillatorium é verdadeiramente espetacular – comenta nosso entrevistado.

Sendo uma figura proeminente na ciência mundial, Huygens é devidamente estudado pelos jovens estudantes brasileiros? A esta pergunta, Farina de Souza responde, sim. E a afirmativa vem exemplificada através do denominado “Princípio de Huygens”, que aparece em um tratado de óptica chamado “Tratado da Luz”, que é, segundo o nosso entrevistado, uma obra-prima: Todos os estudantes do ensino médio já ouviram falar desse princípio, porque ele afirma que quando você tem uma frente de onda – por exemplo, gerada por uma pedra que é jogada num lago -, para saber a frente de onda, no instante posterior, você imagina que cada ponto de uma frente de onda é fonte de uma onda secundária e a envoltória das diversas ondas secundárias corresponde à frente de onda no instante posterior. Então, esse é um princípio qualitativo em que você consegue explicar várias coisas – lei da reflexão. lei da refração, etc. No ensino médio, tudo que se sabe sobre Huygens se resume a esse princípio, mas ele é muito mais que isso. Huygens poderá não ser tão conhecido, ou seu nome não constituir grande impacto, principalmente porqaue ele ficou um pouco ofuscado pelo genial Newton, cuja diferença de idade era de treze anos apenas. Contudo, Huygens é um dos maiores cientistas do Século XVII e o próprio Newtos nutria por ele forte admiração – pontua Farina de Souza.

Na divulgação desta palestra do Prof. Farina de Souza, é referido que uma dor de dente do filósofo, matemático e físico francês, Blaise Pascal, mudou o curso da história, levando Huygens a construir o primeiro pêndulo isócrono. Com um sorriso largo no rosto, Farina de Souza afirmou que esse parágrafo apenas constituía uma forma de criar curiosidade no auditório. De fato, segundo explicou nosso entrevistado, o pêndulo isócrono é um pêndulo que tem um período de movimento independente de sua amplitude de oscilação, ou seja, quando se solta – seja de que forma for – ele tem sempre o mesmo período, o que não acontece com um pêndulo normal, que é isócrono apenas para pequenas amplitudes de oscilação. Huygens sabia que havia necessidade de colocar obstáculos laterais, encostando o fio do pêndulo, porque conforme o pêndulo vai oscilando, o fio vai encostando-se a esses obstáculos – é como se o pêndulo ficasse com um comprimento mais curto. Então, Huygens sabia que, independente do obstáculo, poderia compensar o período. Mas, a pergunta surgiu quase que imediatamente: que forma deveria ter esse obstáculo? O cientista holandês tentou achar a resposta, de uma forma empírica, mas não conseguiu e parou por aí. O que viria a seguir foi bastante curioso, conforma relata Farina de Souza:

Blaise Pascal, que havia abandonado a ciência para se dedicar a retiros espirituais e religiosos, foi acometido por uma dor de dente insuportável. Com o intuito de tentar se abstrair de tão forte dor, Pascal decidiu se concentrar em determinadas questões científicas, na esperança de que, com isso, a dor diminuísse. Uma das questões que ele procurou se concentrar foi em uma determinada curva, designada “cicloide”, problema esse que foi repassado para ele por outro matemático e teólogo – Padre Mersenne. Pascal ficou tão concentrado na resolução desse problema que sua dor de dente sumiu e ele interpretou esse fato como um sinal divino, como uma mensagem de que ele deveria continuar a pensar na resolução do problema da ciclóide. De fato, Pascal resolveu muitos problemas relacionados à cicloide, mas, entretanto, levantava novas questões e, em vez de as publicar, o cientista francês resolveu fazer um concurso que chamou a atenção de inúmeros físicos e matemáticos, entre eles Huygens. Huygens não participou diretamente nesse concurso, mas manteve assíduos contatos escritos com Pascal, trocando informações sobre o tema, o que o transformou num perito sobre o assunto “cicloide”. Quando Huygens parou de pensar no concurso, chegou à conclusão que a curva que tão insistentemente procurava para resolver seu problema do pêndulo isócrono, era, afinal, a ciclóide – conclui Farina de Souza.

(Rui Sintra – jornalista)

16 de março de 2018

Ciência mais que Divertida

O Prof. Dr. Antonio Carlos Pavão, docente do Departamento de Química Fundamental da Universidade Federal de Pernambuco, foi o palestrante convidado de mais uma edição do programa “Ciência às 19 Horas”, que decorreu no dia 29 de maio, no Auditório Prof. Sérgio Mascarenhas.

Na palestra intitulada Ciência mais que Divertida o pesquisador destacou o papel central da ciência para a transformação social, tendo abordado aspectos relacionados com a educação e divulgação científica.

Mas, será que a ciência, como agente de transformação social no país, sempre assumiu esse papel ao longo dos anos? Para o convidado do IFSC, sim, a ciência sempre assumiu esse papel, tendo enfatizado que o Brasil não é um país isolado de seus pares no mundo e que existem exemplos marcantes na História da Humanidade onde o conhecimento determinou o rumo dessa mesma história.

Repare, por exemplo, que o Brasil foi descoberto devido à Química. Ficou admirado dessa minha afirmação? Eu explico. Os portugueses chegaram ao nosso país no dia 22 de abril e logo no dia 02 de maio parte da frota lusitana rumou para a Índia, em busca de especiarias (cravo, canela, menta, etc.). Então, porque é que eles fizeram essas navegações tão complexas? Porque o mercantilismo estava se desenvolvendo de uma forma rápida, precisa ganhar novos mercados e algumas das especiarias não serviam apenas como temperos; elas serviam, também – e principalmente – para conservar os alimentos e isso era crucial para as viagens. Por exemplo, repare que o cravo tem uma substância que é um antibiótico natural, que tem a propriedade de conservar os alimentos por muito mais tempo. Atualmente, todos os alimentos contêm aditivos químicos e as especiarias, nessa época remota, faziam o papel que esses aditivos fazem hoje – refere o pesquisador.

Para Pavão, quem detém o conhecimento detém o poder e, no Brasil, a produção científica não se reflete propriamente na produção industrial. Quando o governo passa a investir mais em ciência e tecnologia, o país tende a se desenvolver mais, e para o acadêmico não existem dúvidas de que no Brasil é fundamental que isso aconteça, mas, para ele, ainda há um longo caminho para ser percorrido.

Contudo, existem questões que precisam ser respondidas: como é que a ciência pode contribuir para a educação dos jovens e o que precisa mudar para que essa educação atinja os níveis desejáveis, até para que nosso país fique mais próximo da excelência internacional?

Para estas questões, o Prof. Antonio Pavão sublinha que é necessário melhorar o ensino dedicado às ciências exatas, porque hoje ainda existe o estigma de que a ciência é chata, rotineira; que o aluno não percebe as conexões que existem entre aquilo que ele está aprendendo e o mundo que o rodeia. Para o pesquisador pernambucano, o que precisa ser feito com urgência é motivar os alunos para que construam e aprofundem seus conhecimentos em ciência e tecnologia. Mas, de que forma?

Motivando! – acrescenta nosso convidado – E uma das alternativas é colocar problemas reais, verdadeiros, para que os alunos resolvam. Por exemplo, colocar para eles a questão de como despoluir um rio, de como medir o Ph em fontes naturais de água, questioná-los sobre quantas e quais as espécies de árvores que existem em São Carlos; fazê-los pesquisar a vida cotidiana das formigas ou das baratas, seus habitats, a importância que esses bichinhos têm para o equilíbrio ambiental; ensinar os alunos a medir a velocidade do vento e como aproveitar essa energia Tudo isso pode motivar os alunos e ajudar a que eles se apaixonem pela ciência e tecnologia, tendo sempre presente que tudo o que estão fazendo tem uma ação direta sobre o nosso próprio planeta. Tudo isso é um conjunto de experimentos verdadeiros, com resultados que podem surpreender, e isso é estimulante para o aluno. A isso eu chamo de experimento final aberto e seria muito importante começar a implantar isso junto de nossos jovens – acrescenta Antonio Pavão.

Se existem dificuldades para que os alunos brasileiros se apaixonem e trabalhem com ciência, também é certo que os temas científicos não suscitam grande interesse por parte do cidadão comum, e isso é um fator preocupante para o convidado do IFSC. Antonio Pavão insiste que para uma eficaz difusão do conhecimento, a divulgação científica é fundamental, até para a construção de um país novo, de um mundo novo.

Para o exercício da cidadania você tem que se apropriar de conhecimentos sobre ciência e tecnologia – por exemplo, avaliar a qualidade e as especificidades do celular que você quer comprar, de um carro, de um eletrodoméstico, ou de outros bens de consumo -, senão você corre o risco de ser manipulado e enganado. Além disso, a sociedade nos coloca questões cotidianas em que o cidadão tem que se posicionar, como, por exemplo, se você é a favor ou contra a clonagem, se concorda com a utilização de células-tronco para tratamentos de doenças, se concorda com usinas termonucleares, etc. Para o cidadão se posicionar sobre essas e outras questões, ele tem que conhecer os temas, tem que estar por dentro das questões relacionadas com ciência e tecnologia. Por isso existe a necessidade de aprofundar a divulgação científica. Toda a produção científica tem que estar associada à sua divulgação, de forma abrangente, quer seja nas escolas, no cinema, na mídia, na rua ou em casa junto com a família – acrescenta o cientista.

Antonio Pavão concorda que o Brasil tem progredido bastante na área científica, só que ainda carece de qualidade. Repare-se que nosso país é o maior produtor de artigos científicos da américa latina, mas, por outro lado, se prestarmos atenção aos fatores de impacto, por exemplo, aí já a Argentina fica na frente. Antonio Pavão afirma que o Brasil deve afinar seu rumo e trabalhar em uma produção de conhecimento que tenha objetivos muito claros de melhoria da condição de vida de toda a população, pensando o planeta como um todo.

(Rui Sintra – jornalista)

16 de março de 2018

A Física do Futebol

Pela primeira vez, desde que foi criado, o programa “Ciência às 19 Horas” abordou um tema que é muito querido para todos os brasileiros: o futebol. Essa abordagem não se deu através de aspectos esportivos, competitivos ou técnicos, mas sim utilizando a Física como forma de explicar inúmeros conceitos inerentes a como marcar o golo perfeito, como fazer a bola descrever um ângulo em sua trajetória, ou a forma como reduzir as chances de um goleiro defender um pênalti.

Esta interessante palestra, que decorreu no dia 17 de abril, a partir das 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC-USP), esteve sob a responsabilidade da Profa. Dra. Emico Okuno, pesquisadora e docente do Instituto de Física da USP, ao apresentar o tema “A Física do Futebol”. Com bacharelado em Física na Faculdade de Filosofia, Ciências e Letras da USP, em 1960, e doutorado na mesma área e universidade, em 1971, a Profa. Okuno fez pesquisa científica em Raios Cósmicos com o Prof. Cesare Lattes, entre 1959 e 1962, tendo estagiado com o Prof. Masatoshi Koshiba (Prêmio Nobel da Física 2002). Experiente na área de Física-Médica – efeitos biológicos das radiações ionizantes e não-ionizantes, proteção radiológica, e biomecânica, e de outras temáticas relacionadas com desastres e acidentes nucleares, Emico Okuno é autora e co-autora de seis livros, entre os quais se conta aquele que deu o título a esta palestra – “A Física do Futebol” –, uma obra escrita em parceria com o Prof. Dr. Marcos Duarte, igualmente docente da USP.

De trato muito fácil, extraordinariamente alegre, ativa e atenta, a Profa. Okuno sente-se como peixe na água ao falar de Física, a ponto de, por vezes, esquecer que já está aposentada compulsoriamente há cerca de cinco anos: Como eu continuo a dar aulas regularmente, por vezes esqueço que já estou aposentada faz tempo. Mas dou aulas com muito prazer, porque gosto de ensinar, gosto de formar jovens. Tanto Okuno como Marcos Duarte dão aulas a alunos que não pertencem à área da Física – biólogos, farmacêuticos, biomédicos, etc –, ou que simplesmente não gostam dessa área do conhecimento: Esse é o aspecto mais curioso desta nossa postura, devido ao fato de sempre termos apostado – e vamos continuar apostando – na formação dos estudantes. Temos que os atrair para esta magnífica área do conhecimento que se encontra presente em tudo na nossa vida – refere a Profa. Okuno.

A ideia de se falar sobre a Física do Futebol nasceu porque o futebol é a paixão nacional e mundial, sendo que o único país que não se sente tão atraído por este esporte é os Estados Unidos. Até no Japão o futebol é, agora, uma paixão. Os conceitos da física, no futebol, são muito complexos e variados e encontram-se sempre presentes nos jogos. Okuno dá o exemplo da marcação de um pênalti: Você calcula a força do chute do jogador, a intensidade e direção do vento, humidade no ar, o impacto da chuteira na bola e da bola na grama, a velocidade e o tempo que ela percorre até ao goleiro: impossível defender, a não ser por uma questão de sorte, que é o que acontece habitualmente. Repare que muitos goleiros fixam o olhar na coxa de quem vai rematar, tentando adivinhar para que lado é que a bola vai, quando deveriam olhar exatamente para a bola, pois é nela que os efeitos da física acontecem. Geralmente, o posicionamento do corpo de quem remata a gol não indica para que lado vai a bola – muito pelo contrário. Se repararmos com atenção, na grande maioria dos pênaltis os goleiros saem do gol antes dos remates: portanto, como eu já disse, é uma questão de sorte eles pegarem a bola. Por outro lado, quando você vê a bola de futebol descrever uma curva após um remate ou um cruzamento, essa trajetória não é ocasional; o jogador treinou bastante tempo para dar esse particular efeito na bola, ou seja, treinou diversos componentes da Física, sem sequer se aperceber disso. Imagine se ele tivesse estudado um pouco de Física e pudesse aplicar esse aprendizado no jogo: ele seria, possivelmente, muito mais perfeito e eficaz no seu desempenho em campo. Se ponderarmos sobre isso tudo, se essas equações fossem aplicadas nos treinos dos jogadores, acredito que eles aumentariam substancialmente seu desempenho – refere nossa entrevistada.

Os conceitos da física no futebol não passam apenas por aquilo que foi referido acima; eles também passam pela própria estrutura da bola. Antigamente, as bolas de futebol tinham 18 gomos, depois passaram a ter 12 e, seguidamente, apresentaram 32 gomos. Na última copa do mundo, a famosa Jabulani tinha pouquíssimos gomos e tudo isso tem uma influência drástica em termos da física, explica Emico Okuno: Essa questão da Jabulani foi bastante debatida nessa copa, quando muitos jogadores reclamaram da bola, já que eles tiveram bastantes dificuldades, quer no domínio da bola, em passes, cruzamentos, remates, porque ela se comportava de forma estranha, tomava trajetórias diferentes ao que o jogador queria, escorregava e saltitava nas mãos dos goleiros, tudo isso devido à sua composição estrutural.

Quando se realizou o lançamento do livro que deu título a esta palestra do programa “Ciência às 19 horas” – A Física do Futebol – a Profa. Okuno esperava que apenas comparecessem à cerimônia alunos e colegas da USP, mas, de fato, apareceu muita gente ligada ao esporte e ao futebol, em particular, alguns técnicos de futebol e profissionais ligados à área da educação física. No exterior utiliza-se já a ciência para melhorar aspectos competitivos, incluindo o futebol; então, questiona nossa entrevistada, porque não fazer isso também no Brasil, que é o país do futebol?

Para a nossa entrevistada, não é só no futebol que os conceitos da física se fazem presentes, mas sim em todos os esportes que utilizam – ou não – uma bola. Daí que, na opinião da pesquisadora, se todos os atletas tivessem uma formação básica na área da física, eles iriam apresentar um maior desempenho competitivo.

 

(Rui Sintra – jornalista)

16 de março de 2018

Pesquisa e Inovação em Medicamentos no Brasil: Os desafios para reduzir nossa dependência externa

O programa “Ciência às 19 horas” retomou sua atividade neste ano de 2012, recebendo a visita do Prof. Dr. João Calixto, docente e pesquisador do Centro de Ciências Biológicas – Departamento de Farmacologia da Universidade Federal de Santa Catarina, que proferiu a palestra intitulada “Pesquisa e Inovação em Medicamentos no Brasil: os desafios para reduzir nossa dependência externa”, evento que decorreu pelas 19 horas, no auditório Prof. Sérgio Mascarenhas (IFSC-USP), no dia 20 de março.

Sabendo-se que o Brasil está entre os dez maiores mercados mundiais na área de medicamentos, existe algo contraditório, já que as empresas farmacêuticas nacionais ainda dependem da importação de princípios ativos, principalmente vindos da Índia, China e Coréia, na maior parte das vezes de origem laboratorial duvidosa. João Calixto concorda com essa afirmação, acrescentando que essa é uma questão que não é só aplicada à área dos medicamentos, sendo, também, um problema que acontece em diversas áreas relacionadas com a média e alta tecnologia:

São problemas que ficam claros quando se observa o déficit comercial brasileiro em quase todas essas áreas. Quanto à área dos medicamentos, que é considerada um bem essencial, envolve uma tecnologia altamente complexa e importante. As grandes empresas que fabricam medicamentos encontram-se sediadas, basicamente, em seis países, mas isso não justifica que o Brasil tenha ficado para trás nessa corrida ou nessa disputa. Extrair petróleo do fundo do mar é mais fácil do que fazer um medicamento: então, porque é que um dá certo e outro não? É tudo uma questão de política de Estado. Principalmente a partir da época do governo militar, foram definidas algumas estratégias consideradas como prioridades do Estado – Petrobrás, Embraer e Embrapa – e que duram até afora, com sucesso. Nesse período, quer a área de medicamentos, quer algumas áreas dedicadas à eletrônica não foram entendidas como prioritárias. Curiosamente, a ciência evoluiu bastante e, hoje, o Brasil ocupa uma posição estratégica em nível mundial, na área científica, mas não conseguiu acompanhar esse ritmo de desenvolvimento. Por outro lado, as empresas brasileiras, embora tenham parques fabris importantes, ainda têm um peso excessivo de empreendedorismo familiar, ou seja, trabalham em nichos de mercado, sobrevivendo, em grande parte, dos designados medicamentos genéricos, que foram criados há dez anos – refere o pesquisador.

Com efeito, e segundo a opinião do Prof. João Calixto, o Brasil possui grandes empresas farmacêuticas – principalmente no Estado de São Paulo -, com capital nacional, mas elas não possuem laboratórios de pesquisa, fazem pouca inovação e quase não se articulam com o meio acadêmico. Sabendo-se que o mercado brasileiro de medicamentos ocupa o sétimo ou oitavo lugar, no mundo, é curioso verificar que existe um déficit – recorde-se que o medicamento é um bem essencial, de caráter estratégico. A população vai envelhecendo, vai necessitando de mais cuidados, e o Brasil está com déficit na balança comercial na ordem dos US$ 11 bilhões nas áreas médica e hospitalar. Em comparação, a Índia continua a dar cartas, como explica o pesquisador:

Porque é que a Índia exporta toneladas de princípios ativos? Em 1996/97 houve uma pressão internacional muito forte através da lei de patentes e, nessa época, o Brasil tinha uma dívida externa monumental, quase impagável, e essa questão da lei foi negociada de forma quase impositiva, no nosso país. O Brasil aceitou a pior lei de patentes que se podia imaginar, com implantação imediata, mas retroagindo. Por sua vez, a Índia também foi pressionada, mas ela conseguiu condicionar a sua participação na lei até 2006, ou seja, ela ficou copiando formulações, chamou especialistas do exterior e teve tempo de se modernizar, transformando-se, por fim, num polo importante, jogando o Brasil lá para trás. Daí que tenha sobrado para as empresas brasileiras o conhecido medicamento genérico, mas de uma forma algo desarticulada, sem se ter tido determinados cuidados com sua fabricação. O Brasil importa os princípios ativos, mas depois existem problemas de qualidade do produto, incertezas nas dosagens, variação de preços, etc. Estamos numa situação difícil; somos a sexta economia mundial, um dos países no topo do desenvolvimento científico e, por outro lado, temos estas descompensações – comenta o pesquisador.

As relações entre empresas e universidades

Ao longo dos anos e até ao atual momento, as universidades e as empresas continuam de costas voltadas, cada uma falando seu idioma: não há uma interação plena, não há diálogos, apenas monólogos, fato que também tem contribuído para espécie de estagnação no setor. João Calixto não sabe se esse problema é uma causa ou uma consequência do que foi dito acima. Na opinião do pesquisador, para algumas pessoas a desculpa poderá estar no fato da ciência brasileira ser ainda muito jovem, mas segundo ele isso não é justificativa, já que a ciência pode ser jovem mas nascer moderna.

No Brasil, a ciência virou uma mercadoria de luxo, uma plataforma para enriquecer currículos, um status, em que as pessoas olham para o seu próprio umbigo e não estão nem aí para o país. Dizem, apenas “eu sou um cientista” e isso não existe em nenhum outro país. O cientista tem que estar inserido socialmente onde vive. A ciência não tem pátria, mas o cientista tem: ele tem um compromisso com seu país, que o está financiando. Essa falta de relacionamento e de diálogo entre universidades e empresas teve origem no falso conceito de que o cientista era dominado pelos interesses econômicos e produtivos das empresas; não há muito tempo atrás, qualquer grupo de pesquisa que trabalhasse com empresas era imediatamente rotulado por seus colegas como “mercenário”, e isso é uma ideia completamente retrógrada. O mundo mudou e a visão tem que ser abrangente, moderna e flexível e temos que deixar de construir clones de nós mesmos (alunos). Todo mundo quer estudar para fazer concurso público, para ter um emprego estável, ninguém, quer ser inovador, ninguém quer arriscar; o próprio cientista não quer arriscar. E, não tendo riscos, esta nova geração de estudantes, de doutores, vai trilhar os mesmos caminhos de seus mestres e esses caminhos a gente sabe onde vão dar – a uma ciência sem inovação. Para que as ideias, projetos e ações não fiquem amorfos, sempre tem que existir a crítica, salutar e pertinente, construtiva. Já reparou que nosso modelo científico e tecnológico não tem crítica há longos anos? Parece um clube que só quer ter elogios, onde todos querem dinheiro mas ninguém fala que é necessário mudar o rumo da ciência do país, que é preciso mais comprometimento, mais e melhor avaliação, mais inserção social, da necessidade de ter o setor produtivo do lado dos cientistas. O que todo o mundo quer é ter uma zona de conforto, escrever “papers” ou ver seu nome inserido em alguns, para falsamente engrossar seu currículo: só isso não basta – desabafa João Calixto.

A Burocracia do Estado

A burocracia das agências de fomento à pesquisa é um apêndice da burocracia do Estado e, por isso, muita coisa no Brasil foi feita para não funcionar. Esta humorística afirmação de João Calixto foi feita com um sorriso de tristeza, ao exemplificar, de seguida, casos verdadeiramente impensáveis:

Vou dar para você um exemplo relacionado com biodiversidade, onde os cientistas recebem dinheiro do Estado para desenvolver pesquisa e que, na sequência, esses cientistas estão proibidos, por lei, de aplicá-la. Temos casos de indústrias que foram recentemente punidas pelo Estado, porque fizeram experimentos sérios na área de biodiversidade, desenvolvendo produtos inovadores, na sequência de pesquisas subsidiadas. Assim não dá! Por outro lado, a burocracia do Estado cobre e protege muita incompetência de todo esse processo; contudo, a burocracia não é culpada de tudo o que acontece. Há no Brasil uma série de leis que justificam aquilo que não devia ser justificado e a burocracia é uma delas. Não se pode reclamar que não existe dinheiro. Existe e muito! Só que o dinheiro que é investido não é proporcional aos resultados que se obtém; não há uma verdadeira estratégia nacional, uma política de Estado para as áreas de ciência e tecnologia – pontua João Calixto.

O futuro

Já que o Brasil não possui centros capazes de fazer inovação, o Prof. João Calixto foi desafiado pelo governo federal para ajudar a neutralizar o grande gargalo que existe na área de medicamentos, através da criação e construção de um centro, com padrão internacional, que seja capaz de fazer essa ligação. O desafio foi aceito, o centro está praticamente pronto, mas o pesquisador se confronta agora com algo inusitado:

Você não imagina o quão difícil está sendo apetrechar o centro com recursos humanos de alta qualidade. É um drama! Você chega à conclusão que, apesar do Brasil formar dezenas de milhar de doutores, não existe gente altamente qualificada nas áreas de ponta, ou seja, o país é obrigado a trazer especialistas de fora. As pessoas ficam assustadas, mas o certo é que se o país nunca fez medicamentos, como é que se resolve esse problema? Trazendo especialistas de fora para nos ensinar, para nos atualizar e modernizar. Isto é sério! Os cientistas perdem a noção da realidade, pois não saem de dentro da universidade e perdem o compasso – refere João Calixto.

Para o nosso entrevistado, o futuro não vai ser fácil, até porque o país está adiando muitas decisões que já deveriam ter sido implantadas há pelo menos dez anos. Para o nosso entrevistado, o Brasil está formando doutores clones de seus mestres e a tendência é perpetuar procedimentos:

A área de Ciências Exatas está déficit no país e isso é altamente prejudicial ao desenvolvimento nacional. O país tem que alterar rapidamente o rumo, mas essa mudança de quadrante não vai agradar a muita gente, especialmente aos políticos. Estamos enviando milhares de estudantes para o exterior, através de bolsas de estudo, por forma a se capacitarem, e isso é extraordinariamente positivo, mas levanta uma questão: para que universidades é que esses estudantes e pesquisadores estão indo? Elas são de qualidade? Quando esses estudantes e pesquisadores regressarem, qual será o retorno desse esforço nacional? Não seria mais eficaz e mais barato trazer gente de fora, altamente capacidade, para nos ensinar – como fez a China, Índia e Coreia? Só que os espaços que existem para se fazer estas discussões e reflexões são muito pequenos, ou simplesmente não existem. O futuro está difícil.

(Rui Sintra – jornalista)

16 de março de 2018

A ciência como agente de transformação social

O médico Miguel Nicolelis foi o palestrante convidado na última edição de 2011 do programa CIÊNCIA ÀS 19 HORAS, que decorreu no dia 22 de novembro, pelas 19 horas, no Auditório Prof. Sérgio Mascarenhas, IFSC-USP. Subordinada ao tema A CIÊNCIA COMO AGENTE DE TRANSFORMAÇÃO SOCIAL, a palestra de Nicolelis excedeu todas as expectativas, perante um numeroso público que lotou o auditório.

O mote foi dado através da ideia da criação de um projeto privado, com o objetivo de se construírem institutos de pesquisa independentes que possam promover a pesquisa científica básica e aplicada, de nível mundial, em áreas estratégicas consideradas essenciais para o desenvolvimento do Brasil. Mais do que a produção de pesquisa acadêmica, a missão é estabelecer iniciativas educacionais e sociais com o intuito de fortalecer as comunidades mais excluídas.

Foi com base nessa filosofia que Nicolelis avançou na criação do Instituto Internacional de Neurociências de Natal Edmond e Lily Safra (INN-ELS), gerido pela AASDAP – Associação Alberto Santos Dumont para Apoio à Pesquisa, no Estado do Rio Grande do Norte, onde já foram dados importantes passos para um processo local de minimização das desigualdades sociais e econômicas entre diferentes regiões do país, descentralizando a produção e a disseminação do conhecimento e tornando a educação científica qualificada acessível a crianças e jovens do ensino público.

Em atividade desde 2003, a AASDAP integra, atualmente, dois centros de pesquisa em neurociências (Natal e Macaíba – RN), um centro de educação científica, com três unidades (Natal e macaíba – RN e Serrinha – BA), para 1400 crianças e jovens com idades entre os 11 e os 17 anos, oriundos de escolas públicas da região, bem como um centro de saúde inteiramente voltado para os cuidados materno-infantis em Macaíba.

Segundo Nicolelis, o objetivo deste projeto, desde seu início, tem sido levar a ciência para as comunidades instaladas no entorno do Instituto:

Ele foi concebido como uma estrutura que teria uma ação dedicada à transformação social nas comunidades da periferia de Natal e na cidade de Macaíba. Assim, o projeto já nasceu com a ideia de ser criado um programa denominado “Escola para toda a vida”, que começa no atendimento das mães, no decurso do pré-natal, e que foi desenvolvido no nosso centro de saúde, onde hoje se faz cerca de 12 mil atendimentos por ano em mulheres residentes na periferia; até há bem pouco tempo essas mulheres não tinham qualquer atendimento pré-natal, principalmente o relacionado com alto risco. Foi o início de tudo. Em quatro anos que dura este nosso projeto, conseguimos reduzir a zero a mortalidade materna no pré-natal – que era uma das mais altas da região = 85 mortes por cada 100 mil mulheres – refere Nicolelis.

O resultado foi que, a partir desse processo, as crianças já têm a chance de nascer com um potencial neurobiológico perfeitamente normal, ou seja, elas não perdem a oportunidade de desenvolver o seu sistema nervoso em todas as suas potencialidades. Foi a partir desse momento que o Instituto decidiu construir uma escola, que ficará pronta em meados do ano que vem, com capacidade para cinco mil crianças, e que funcionará em tempo integral, envolvendo desde crianças do berçário até ao final do ensino médio, conforme explicou o palestrante:

Nosso trabalho começou nas escolas públicas da região, onde criamos um programa dedicado a mil crianças e que funcionou no turno oposto ao praticado nas escolas. Ou seja, foi uma aposta na educação científica desenvolvida de forma totalmente prática, onde as crianças aprendem todos os conceitos fundamentais da ciência moderna, fazendo experimentos da mesma forma que nós, pesquisadores, fazemos nos nossos laboratórios de pesquisa. Este projeto começou em 2005 e, atualmente, temos cinco unidades funcionando no Estado do Rio Grande do Norte e uma escola em Serrinha, na Baía. No próximo ano iremos inaugurar o denominado CAMPUS DO CÉREBRO, que constitui a maior ação da AASDAP, numa parceria com a Universidade Federal do Rio Grande do Norte. Esse CAMPUS receberá o nosso Instituto, que terá uma área de 13 mil metros quadrados, e uma escola com uma área de quinze mil metros quadrados, e cujo nome será ESCOLA PARA TODA A VIDA. O nosso trabalho inicia-se com o nascimento da criança e todo o seu acompanhamento, em tempo integral, até ao final do ensino médio. É o primeiro projeto nacional de escola em tempo integral – pontua Miguel Nicolelis.

Através da primeira turma formada pelo Instituto, que começou em 2007, Nicolelis afirma que o nível de evasão escolar se fixou em 3% (atualmente, no Brasil, a evasão escolar situa-se em 50% no ensino fundamente). Ou seja, todos os alunos abrangidos por esse curso de educação continuam no ensino médio e, pela primeira vez na história local, crianças dessas comunidades começaram a entrar na Universidade Federal do Rio Grande do Norte:

O desempenho acadêmico dessas crianças mudou completamente, sinal que elas começaram a acreditar e a desenvolver seu potencial intelectual, a ponto de se transformarem, neste momento, na elite educacional local. Demonstramos, assim, que o casamento entre neurociência e pedagogia tem um futuro muito promissor – refere o palestrante.

O governo tem estado muito atento a este projeto, dando, paulatinamente, apoio ao desenvolvimento do mesmo, segundo afirma Nicolelis. O Instituto já está mantendo diálogos aprofundados com o MEC sobre a possibilidade de expandir esse projeto por todo o Brasil:

Já apresentei o programa aos Presidentes Lula e Dilma, bem como a Ministro da Educação, Fernando Haddad – cujo seu ministério é nosso parceiro desde há quatro anos. A ideia é criar um programa chamado ALBERTO SANTOS DUMONT: EDUCAÇÃO CIENTÍFICA, que seja disseminado por todos os institutos federais e de tecnologia do país, com o objetivo final de atingir um milhão de crianças – acrescenta Nicolelis.

Segundo o palestrante, todo esse projeto não é mais do que uma forma de se tentar formar novos cidadãos:

Queremos que essas crianças aprendam a pensar, a valorizar a própria cultura e as suas raízes, mas principalmente para que eles aprendam que é possível agir na sociedade, uma vez que eles irão usar o método científico aplicado ao seu cotidiano – conclui Miguel Nicolelis.

Rui Sintra – jornalista

16 de março de 2018

Veículos Elétricos: Vantagens e Desafios

O carro do futuro será elétrico. Esta é a afirmação de Sergio Leal Braga, Diretor do ITUC, da Pontifica Universidade Católica, Rio de Janeiro, personalidade convidada para mais uma edição do programa “Ciência às 19 Horas”, promovido pelo IFSC, que decorreu no dia 18 de outubro de 2011, pelas 19 horas, no auditório Sérgio Mascarenhas. Para o palestrante, a evolução do veículo automóvel, tal como conhecemos, chegou ao fim, e é tempo de regressar às origens, atendendo ao fato que os primeiros veículos fabricados no mundo foram elétricos. Justificação: a preocupação com o meio ambiente e a diminuição das emissões poluentes.

Mas, será que é realmente viável a introdução do veículo elétrico? Sergio Braga, cuja sua área de pesquisa incide nos combustíveis fósseis, não tem dúvidas a esse respeito:

Eu acredito que sim. O mundo está tão apostado em reduzir as emissões poluentes e buscar a eficiência energética, que chegamos completamente no limite do que é possível fazer com um motor de combustão. Então, hoje só tem um jeito de resolver esse problema: colocar esse motor para funcionar em regime estacionário e fazer a propulsão virar elétrica. De fato, o automóvel, da forma como foi criado, está chegando ao final de seus dias e, embora saibamos que o petróleo não vai acabar, o certo é que temos que fazer algo para reduzir a nossa dependência dos combustíveis fósseis e consumir menos, ou seja, usando a mesma quantidade de energia, mas de uma forma mais eficiente. Repare que enquanto num veículo tradicional sua eficiência gira na faixa dos 5%, na geração estacionária consegue-se chegar a 40% ou 50% – comenta Sergio Braga.

Há cerca de uma década, colocava-se a questão da inviabilidade de se utilizar carros elétricos, devido aos custos e ao tempo excessivo que era necessário para recarregar as baterias. Contudo, num curto espaço de tempo esses problemas foram sanados e hoje são problemas bem menores:

Por exemplo, nos Estados Unidos já existem – embora em fase de demonstração – ônibus elétricos em circulação, cujo tempo para carregar as baterias demora menos de dez minutos, e essa carga dá para rodar cerca de 40 milhas. O custo dessas recargas é muito baixo, mas o custo do desenvolvimento desse processo é muito alto. Contudo, muito em breve essa equação estará resolvida – argumenta o palestrante.

Contudo, a defesa de Sergio Braga para a introdução do carro elétrico no cotidiano das populações é apenas em uma perspectiva urbana, ou seja, dentro das cidades, onde atualmente existe uma forte concentração de poluição atmosférica. Para ele, não está em causa a utilização dos carros elétricos em grande viagens, já que o consumo de energia seria excessivo:

Quanto mais engarrafado for o trânsito, melhor será a aplicação do carro elétrico, pois ele é indicado para isso mesmo. Contudo, a pesquisa está avançando rapidamente, principalmente no que concerne ao desenvolvimento de novas baterias, mais leves, com maior autonomia, etc. Repare na particularidade do anda e para na cidade, onde o consumo de combustível e a poluição são enormes. Nessas condições, o carro elétrico tem a particularidade de desligar automaticamente o motor cada vez que para, e, cada vez que você freia ele recupera a energia cinética. Por outro lado, estou apostando muito no desenvolvimento de veículos com motores elétricos nas rodas, o que provocará uma redução substancial no preço deles, através de uma mecânica muito simples – acrescenta o palestrante.

Para Sergio Braga, daqui a quinze ou vinte anos os carros e motos elétricas dominarão o trânsito nas grandes cidades:

O futuro está aí e temos que preservar o planeta – conclui o convidado do IFSC.

Rui Sintra – jornalista

16 de março de 2018

Prof. Sergio Machado Rezende disserta sobre ciência e tecnologia para o desenvolvimento do Brasil

Em mais um programa “Ciência às 19 Horas”, realizado no IFSC-USP, no dia 14 de setembro, pelas 19 horas, o Prof. Sergio Machado Rezende, docente e pesquisador da UFPE – Universidade de Pernambuco, abordou o tema intitulado “Ciência e Tecnologia para o Desenvolvimento do Brasil”, numa palestra que traçou a história da ciência no nosso país.

Pessoa simples, afável e bom conversador, Sergio Machado Rezende ocupou o cargo de ministro da pasta da Ciência e Tecnologia no segundo mandato do Presidente Lula (2006-2010), sendo que, atualmente, considera seu laboratório, na UFPE, o seu reduto, o seu cotidiano reinventado na sua paixão, mas nem por isso negando sua participação em inúmeras palestras para dissertar, principalmente perante jovens estudantes universitários, um tema que para ele é muito querido: “Ciência e Tecnologia para o Desenvolvimento do Brasil”.

Na conversa amena que mantivemos com Sergio Rezende, o ex-ministro referiu que o Brasil começou tarde no desenvolvimento das áreas de Ciência e Tecnologia, mas sublinhou que seu desenvolvimento tem sido constante. Na opinião do pesquisador, o Brasil teve algumas épocas onde as dificuldades imperaram, com diversos imobilismos e retrocessos em algumas questões, como, por exemplo, orçamentos e políticas, mas o certo é que, de maneira geral, o Brasil evoluiu bastante nas últimas décadas:

Para citar apenas um número, em 1987 o país formou cerca de quatro mil mestres e cerca mil doutores, enquanto que, em 2010, o número total de formados ultrapassou cinquenta mil – cerca de quarenta mil mestres e dez mil doutores. Multiplicar por dez, no espaço de vinte anos, o número de jovens formados, é uma façanha. Tanto é, que hoje o Brasil começa a despertar a atenção internacional e muitos países – mesmo do designado primeiro mundo – mostram interesse em entender como é que a ciência no Brasil cresceu tanto em tão curto espaço de tempo, afirma Sergio Rezende.

Para o ex-ministro, uma das explicações está no aparecimento de inúmeros líderes que surgiram nas universidades – na pós-graduação e na pesquisa universitária – e que deram outras perspectivas para o desenvolvimento da ciência, tecnologia e inovação: Eu costumo dizer isso nas palestras que profiro, principalmente aos jovens, pois eles desconhecem que há vinte anos não havia praticamente nada no nosso país, em termos de pesquisa – não havia laboratórios, equipamentos, pessoal qualificado. Mesmo que a situação de hoje não seja ainda considerada ideal e que ainda exista muito para fazer, o certo é que nós estamos fazendo um grande progresso: ele é notável e é notado no exterior, já que a ciência e tecnologia são áreas fundamentais para o desenvolvimento de qualquer país -salienta o ex-ministro.

De fato, se repararmos com atenção, há muita coisa acontecendo em ciência, tecnologia e inovação no Brasil e, segundo Sergio Rezende, o país irá ser completamente diferente daqui a dez ou vinte anos, quando o sistema estiver todo implantado e disseminado. Para o ex-ministro, a ciência brasileira tem que ser tratada que nem futebol: o Brasil é bom no futebol porque em todas as cidades existem escolinhas de futebol e campos para os mais novos aprenderem e praticarem. Para Rezende, acontece o mesmo com a ciência e tecnologia, já que estamos construindo agora mais escolas e universidades e o nosso país tem tudo para ser muito bom na geração de conhecimento e de inovação.

Um dos temas que não poderia faltar nesta conversa foi a experiência que Sergio Rezende teve à frente do MCT e na possível nostalgia que o pesquisador sentiu quando regressou à UFPE: Eu me considero uma pessoa com muita sorte e sinto uma felicidade extrema em ter encontrado os parceiros certos na época certa. Fui para Recife ainda jovem, em grande parte porque o Prof. Sérgio Mascarenhas (IFSC-USP) me convenceu. Eu era professor no Rio de Janeiro, recém formado doutor, e havia uma proposta de se construir um departamento de Física, com pesquisa, em Recife: claro que eu achava aquele desafio uma completa “doideira”: sair do Rio de Janeiro e ir para o Nordeste era coisa de doido. Mas o Prof. Sergio Mascarenhas insistiu, dizendo que ele próprio tinha ido para São Carlos (SP) para contribuir para a implantação de um instituto da USP, e que a cidade não tinha nada – e era verdade. Se prestarmos alguma atenção, a cidade de São Carlos é, hoje, um importante pólo de tecnologia, formando pessoas para todo o Brasil e inclusive para o exterior, e muitos estudantes de países da América do Sul escolhem São Carlos para completar seus estudos, já para não falar que a cidade tem um importante pólo de empresas tecnológicas. Por exemplo, eu estive na empresa “Opto”, cuja criação eu acompanhei na década de 80, e é impressionante sua evolução ao longo do tempo. Esse é um excelente exemplo de uma empresa de tecnologia nacional, formada dentro do IFSC-USP. Bem, voltando ao Prof. Sérgio Mascarenhas, ele tanto insistiu que acabei indo para Recife. Em Pernambuco, além de ter conseguido alcançar uma carreira de professor e de pesquisador, também tive a oportunidade de desempenhar diversos cargos como gestor, conciliando bem todas essas atividades. Fui, durante muitos anos, chefe de departamento, depois fui diretor de centro, diretor científico da FAPESPE, secretário de estado e secretário municipal – recorda o ex-ministro.

Sergio Rezende confessou que a única motivação que teve para ocupar esses cargos foi a enorme vontade que sentiu em poder contribuir com algo para o bem público e, refira-se, conseguiu fazer tudo isso sem abandonar as suas atividades de pesquisa. Quando entrou pela primeira vez no governo federal, (2003-2005 – primeiro mandato do Presidente Lula), foi no cargo de Presidente da FINEP, tendo sido convidado, em 2005, a assumir o MCT (segundo mandato do Presidente Lula): Realmente, aceitei esse desafio não pelo cargo, mas sim pelo fato de poder fazer coisas novas e  emocionantes pelo Brasil. Claro que, após determinado tempo, o sacrifício pessoal começa a pesar nos nossos ombros, a família começa a ficar cada vez mais distante e tudo isso começou a me desgastar, inclusive em termos de saúde. Assim, no meio de 2010, iniciei o planejamento do meu retorno à universidade, ao meu laboratório de Física, e aí juntei todo material que eu dispunha e escrevi o livro intitulado Livro Azul, uma publicação que é a síntese das propostas colhidas durante a 4ª Conferência Nacional de Ciência, Tecnologia e Inovação para o Desenvolvimento Sustentável, visando um período de dez anos e, ainda, a parte de conteúdo documental que conta com um livro com a história  do MCT, outra publicação com todas as entidades que compõem a pasta e, ainda, um com o mapeamento dos mestres e doutores do País – sublinha o pesquisador.

Numa breve pausa de sua fala e com o olhar momentaneamente fixado no vazio, Sergio Rezende afirmou que a partir desse momento sentiu que tinha feito alguma coisa de útil a favor do Brasil: dei o melhor de mim, tive um grande apoio do Presidente Lula, não só no aumento do orçamento do ministério, como, também, na implantação das políticas. Estou plenamente realizado – desabafou Rezende – Agora, estou usufruindo de coisas que ajudei a implantar, como, por exemplo, poder fazer ciência com recursos. O que eu sinto do passado é uma grande satisfação de ter contribuído para fazer algo de bom em prol do desenvolvimento do nosso país. Acredite que me sinto muito mais saudável, completou Rezende, esboçando um largo e repentino sorriso.

Questionado sobre a hipótese de voltar ao MCT, Sergio Rezende disse que chegou a ser sondado em meados do ano passado, mas respondeu que já tinha feito o que podia e sabia fazer, tendo sublinhado que mais do que fez seria impossível e que precisava voltar para meu laboratório, precisava regressar às suas origens: O plano de ciência e tecnologia que elaboramos em 2007 foi integralmente cumprido e isso me dá uma enorme satisfação e um sentimento de… Dever cumprido.

(Rui Sintra – Jornalista)

16 de março de 2018

Dr. Aurélio Julião fala sobre AQUELA DOENÇA: CÂNCER

Em mais uma sessão do programa “Ciência às 19 Horas”, promovido pelo IFSC-USP, realizado no dia 13 de setembro, pelas 19 horas, no Auditório Sérgio Mascarenhas, foi a vez de se abordar um tema delicado e que ainda carrega, atualmente, algum desconforto, só de pronunciar seu nome: Câncer.

Coube ao palestrante, Dr. Aurélio Julião de Castro Monteiro, do INORP – Instituto de Oncologia de Ribeirão Preto, dissertar sobre “Aquela Doença: Câncer”, onde foram apresentados diversos aspectos relacionados com a doença.

Em entrevista concedida um pouco antes da apresentação de sua palestra, Aurélio Julião referiu que a incidência do câncer está aumentando, em termos gerais, principalmente em tumores onde se consegue estabelecer uma correlação muito evidente entre agressões provenientes do meio-ambiente – incluindo o tabagismo -, como são os casos dos cânceres da boca, laringe, esófago, pâncreas e bexiga, entre outros. Contudo, segundo o clínico, existe algo que ainda não se conseguiu, que é mensurar os efeitos das agressões do meio-ambiente, como a poluição direta – jogar dejetos gasosos, líquidos ou sólidos diretamente na natureza – e a indireta, que encontramos nas cadeias alimentares, tanto vegetais como animais, em virtude da existência de inseticidas e de medicamentos presentes, principalmente na agropecuária. Tudo isso está impactando a incidência do câncer, principalmente nos países (em desenvolvimento) onde o controlo é deficitário, onde sequer existe programas de combate ao tabagismo – afirmou o palestrante.

No mundo aparecem, por ano, cerca de 8 milhões de novos casos de câncer e este número, segundo o palestrante, irá dobrar até 2020, sendo que 70% desse número ocorrerá principalmente na Índia, China e Rússia. Mas, o que é mais importante? Combater o tabagismo ou as agressões ao meio-ambiente?Com efeito, no tabagismo consegue-se mensurar melhor a eficácia das medidas adotadas. Por outro lado, combater as agressões que o homem faz ao meio-ambiente, e que entram nas cadeias alimentares, é mais difícil de quantificar. Além de ser uma questão política, esta última é também uma questão que está relacionada com interesses econômicos muito fortes que se encontram instalados nos países em desenvolvimento. É verdade que durante largas décadas a humanidade tem convivido com “Aquela Doença: Câncer” e a pesquisa não tem conseguido acompanhar a evolução da doença. De fato, consegue-se entender os passos metabólicos que provocam o aparecimento e desenvolvimento do câncer, mas o que não conseguimos é acompanhar a medida de combate aos passos metabólicos da doença, já que o câncer é uma proliferação desordenada de células, resultado de várias alterações a nível cromossômico e genético, que são aleatórias. Quando começamos a bloquear determinados espaços, ficamos impossibilitados de bloquear “todos” os espaços que levam ao desenvolvimento celular – acrescentou o palestrante.

Aurélio Julião confirmou que hoje existem algumas reações designadas de “reações em cascata”, que acontecem dentro das células e consegue-se identificar exatamente onde está o erro da célula quando ela desenvolve um câncer: Conseguimos desenvolver drogas que combatem exatamente aquele ponto específico, mas não conseguimos desenvolver drogas que combatam os “escapes” desse mesmo ponto, Podemos combater um determinado passo metabólico molecular, mas não conseguimos impedir que as outras moléculas se desenvolvam em cascata, sublinha.

O palestrante acredita que, nos próximos vinte anos, o câncer consiga superar, em números, as doenças cardiovasculares, já que, atualmente, uma em cada quatro pessoas, no mundo, irá morrer de câncer, principalmente nos países em desenvolvimento. Segundo ele, é curioso observar que o câncer está regredindo nos países desenvolvidos. Por quê? Porque existe uma maior eficácia nas medidas públicas de combate à doença e de combate à poluição, incluindo o tabagismo; existe uma maior eficácia no tratamento dos pacientes e um aumento significativo na qualidade dos hospitais e na competência de todo o pessoal médico, paramédico, de enfermagem e auxiliar.

Quando questionado se a luta contra o câncer passa, necessariamente, pela prevenção, Aurélio Julião respondeu que existem tumores malignos que se conseguem prevenir e outros não. Nós não conseguimos prevenir um linfoma ou um tumor cerebral, mas conseguimos evitar, por exemplo, um tumor pulmonar: como? Controlando o tabagismo e a poluição atmosférica. Podemos prevenir o câncer de pele através de uma menor exposição ao sol ou a aplicação de filtros solares. Podemos prevenir o câncer do colo uterino, fazendo com que as meninas se vacinem contra o HPV. Esses cânceres conseguimos prevenir… Os outros, não. Então, o cenário que enxergo para as próximas décadas é que o câncer vai continuar existindo e afetando as populações; mas ele vai chegar a um ponto em que se transformará em doença crônica, que nem a diabetes ou a hipertensão. Ele chegará a um estágio em que deixará de ser abordado e tratado como uma ameaça mortal, passando a ser visto como algo que o paciente terá que conviver até ao final de seus dias, pontua o médico.

Erradamente, muita gente pensa que o câncer é uma doença que apareceu no Século XX. Sobre essa argumentação, os relatos são extremos. Na verdade, quanto mais a população mundial foi adquirindo mais tempo de vida, mais se deu a oportunidade para que o câncer se desenvolvesse e aparecesse. Na época dos Faraós (só para dar um exemplo), qual era a expetativa de vida? Apenas trinta e cinco ou quarenta anos, uma margem de tempo que não dava para que o câncer aparecesse. Por exemplo, hoje, no Sudeste do Brasil, qual é a perspectiva de vida? Setenta e cinco anos. Claro que é uma margem de tempo que dá para a doença aparecer. Mas, como é que pode aparecer um câncer? Uma pessoa entre os zero e os setenta anos desenvolve, normalmente, 6 ou 7 cânceres no seu organismo e o seu sistema imunológico consegue bloquear todos eles. Em algumas pessoas, seu sistema imunológico não consegue bloquear todos eles e aí surge o tal “escape” que eu falei, traduzido em um tipo de câncer. Pode ter aparecido por um defeito inerente ao sistema imunológico dessa pessoa, que simplesmente falhou, ou pode ser resultado de uma interação com o meio ambiente, em que o sistema deixou “abrir uma porta” e a doença entrou. É complexo…, desabafa nosso entrevistado.

Confrontado com a pergunta se o estado psíquico de uma pessoa poderá desencadear o aparecimento da doença, Aurélio Julião foi categórico em afirmar que não acredita que estados psíquicos ou psicológicos desencadeiem alguma forma de câncer. O que acredito é que um estado de espírito positivo ajude enormemente a encarar essa doença cruel, a tolerar melhor o tratamento. Pessoas com esse estado de espírito conseguem ter uma melhor qualidade de vida durante o tempo em que combatem a doença, finaliza.

Rui Sintra – Jornalista

16 de março de 2018

A Ciência VISTA pelo surdo

Tudo começou no início da década de setenta – comentou a Profa. Vivian Rumjanek, docente e pesquisadora do Instituto de Bioquímica Médica da UFRJ – Universidade Federal do Rio de Janeiro, um pouco antes de iniciar a sua palestra intitulada A Ciência VISTA pelo Surdo, inserida em mais uma edição do programa Ciência às 19 Horas, realizada no IFSC no dia 16 de agosto.

O que leva uma Bioquímica Médica a se interessar por surdos e suas problemáticas? Que correlação existe entre as duas áreas? Para Vivian, a correlação existe em termos médicos e em termos sociais, mas o que mais aflige é que o surdo é um deficiente, ou uma pessoa com necessidades especiais, que está invisível para todos. Você consegue identificar, de imediato, um cadeirante, um amputado, um portador de alguma outra deficiência física, um cego, mas um surdo você não identifica: a deficiência dele não é identificável em um primeiro momento e isso é aflitivo. Como a grande maioria dos surdos não fala, essa maioria vive num mundo completamente diferente das restantes pessoas. A única referência de comunicação que o surdo tem é a visão, nada mais.

Vivian Rumjanek contou que o seu interesse por este assunto começou no início da década de 1971, quando o então Presidente dos EUA, Richard Nixon e o Secretário de Estado, Henry Kissinger, preocupados em desatolar seu país dos pântanos vietnamitas, instituíram a denominada Diplomacia do Ping-Pong com a República Popular da China, de Mao Tse-Tung, tendo-se estabelecido, entre outras iniciativas, a estruturação do Eixo Washington – Beijing e o ingresso da China Popular na ONU:

Fui convidada, nesse período, para participar em um congresso em Beijing. Cheguei ao aeroporto chinês com quatro horas de antecedência do horário estipulado e, claro, o meu guia ainda não tinha chegado para me acolher. E ali fiquei eu durante quatro horas, única não asiática, sem qualquer referência, perdida numa multidão de chineses, sem qualquer hipótese de me comunicar, pois ninguém falava outro idioma que não fosse o chinês, sem saber sequer onde era o banheiro, já que tudo estava escrito em chinês. Mesmo ouvindo o ruído em meu redor eu me senti completamente perdida, em pânico. Foi aí que eu comecei a pensar na sensação que deveria ter o indivíduo surdo e como é importante, mesmo imprescindível, ele ter uma comunicação visual, já que dificilmente tem outra ao seu dispor.

Foi a partir desse momento que Vivian Rumjanek iniciou sua caminhada rumo a um entendimento mais profundo dessa temática, tendo-se envolvido não só no estudo da deficiência auditiva, como, também, em diversos projetos com a finalidade de minimizar os efeitos nefastos da solidão atroz vivida pelos surdos e pela dificuldade que eles têm em progredir, principalmente nas escolas, universidades e, principalmente, na ciência.

Vivian Rumjanek confidenciou-nos que na sua palestra iria levantar questões relativas com a falta de intérpretes em LIBRAS e a inexistência desses profissionais em diversos setores, como, por exemplo, hospitais, escolas, universidades e institutos, o que prejudica fortemente a comunicação, integração e desenvolvimento da pessoa surda no cotidiano.

Atualmente, a Profa. Vivian Rumjanek trabalha com cerca de duzentas crianças surdas, no Rio de Janeiro, desenvolvendo atividades que têm o intuito de abrir, para elas, as portas à ciência e tecnologia.

(Rui Sintra: Jornalista)

16 de março de 2018

Energia Nuclear: o que é e quais são seus riscos e benefícios

A palestra subordinada ao tema Energia Nuclear: o que é e quais são seus riscos e benefícios, que decorreu no dia 07 de junho, pelas 19 horas, no auditório Prof. Sérgio Mascarenhas (IFSC), integrada em mais uma edição do Programa Ciência às 19 Horas, teve como palestrante o Prof. Dr. Antonio Fernando Ribeiro de Toledo Piza, professor titular do Instituto de Física da USP, personalidade com ampla experiência em Física Nuclear Teórica e, mais especificamente, em reações nucleares.

O palestrante não só aproveitou a discussão sobre a viabilidade da energia nuclear, que de repente ganhou um novo front, principalmente devido ao recente acidente na usina nuclear de Fukusima e pela passagem do 25º aniversário de outro acidente nuclear ? Chernobyl -, como também aproveitou para explicar, ao público leigo, qual o processo desse tipo de produção energética, balancear seus prós e contras, avaliar seus possíveis impactos e dar uma panorâmica sobre as bases físicas que estão diretamente ligadas aos perigos radioativos.

Momentos antes de iniciar sua palestra, em conversa aberta na Assessoria de Comunicação do IFSC, o Prof. Piza concordou, em parte, com nossa colocação: tida como uma menina bonita, de repente a energia nuclear passou a ser vilã:

É um fato que as pessoas começaram a ver a energia nuclear como um vilã, principalmente devido ao seu controle, que é problemático. Os perigos existem e os riscos são muito altos. Temos usinas nucleares espalhadas por todo o mundo e a partir do momento em que surge um problema, as pessoas ficam assustadas e receosas: isso é natural, até porque a radiação é invisível e as pessoas não carregam com elas medidores de radiação. Por outro lado, outra circunstância agravante é que não existem, em nenhuma usina, mecanismos de alarme eficazes, nem sistemas de prevenção ? referiu o Prof. Piza.

Dando o exemplo do recente acidente de Fukushima, no Japão, o docente da USP é categórico ao afirmar que existe a necessidade de se repensar seriamente em alternativas na politica nuclear mundial. Por exemplo, instalar reatores nucleares, no Japão, é um alto risco, já que o país está assente em falhas geológicas importantes, que obrigatoriamente provocam sismos: e o Japão sabia disso e agora, depois do acidente, vai ter que adotar outro tipo de filosofia em relação à energia nuclear, outros cuidados terão que ser tomados, outras formas de prevenção. O projeto de Fukushima mostrou sua fragilidade:

Duvido que Fukushima sobreviva. A cidade vai se tornar em uma Chernobyl – comentou o docente.

Contudo, no Brasil, as coisas parecem seguir um rumo tranquilo:

Aqui, as coisas estão bem em termos de segurança, mas é tudo uma incógnita. Existem alguns problemas técnicos que deverão ser observados – concluiu o palestrante.

Rui Sintra – Jornalista (IFSC)