Notícias

Notícias em geral irá aparecer ao clicar no botão MAIS NOTÍCIAS da HOME na seção NOTÍCIAS, será paginado.

16 de março de 2018

Será que o mundo microscópico possui uma realidade?

No início do século XX, houve uma grande revolução na física, quando os pesquisadores perceberam que as regras mudavam no que dizia respeito aos objetos microscópicos, como, por exemplo, fótons (luz) ou átomos. As novas regras, chamadas quânticas, parecem bastante absurdas: a interpretação que atualmente se dá a elas consiste em dizer que, na verdade, não podemos dizer nada sobre o fenômeno e que a única coisa que podemos fazer é calcular as probabilidades de obtermos certos resultados.

Porém, há outra possível interpretação, em termos de trajetórias, que é totalmente consistente. Isso nos leva naturalmente à questão da existência das partículas. Após ter resumido como as ideias se desenvolveram, o Prof. Dr. Patrick Peter, pesquisador do Institut d’Astrophysique de Paris (IAP), França, e palestrante convidado da 99ª palestra inserida no programa Ciência às 19 Horas, realizada no dia 09 de junho, mostrou também como é possível resolver o debate, por enquanto filosófico, com experiências puramente físicas.

Para o pesquisador francês, as novas regras da física parecem bastante absurdas porque são regras que não falam realmente sobre o que está acontecendo, mas sim para apenas apontarem o que realmente se pode medir: ou seja, antever um pouco aquilo que pode acontecer em um aparelho de medida, mas não o que vai acontecer de verdade. Existe uma versão da mecânica quântica que tem certa realidade que podemos encontrar, ou não. Isso é meio difícil, confuso, pontua Patrick, que sorri com a insistência de nossa pergunta: Mas, existe outra interpretação? Para o pesquisador, não é bem o caso de haver outra interpretação, mas sim o fato de existir outra maneira de formular, outra visão da mecânica quântica que, segundo algumas pessoas, está mais perto da formação clássica e daí o fato de haver muita gente que não gosta. Ela é bem diferente, traz os mesmos resultados e implica que há uma realidade, mas se fosse apenas isso, seria só uma questão filosófica, porque as predições seriam as mesmas. Agora, existem algumas situações – inclusive na cosmologia primordial – em que as previsões podem ser diferentes, dependendo muito das condições iniciais, porque a teoria é a mesma… Essa formulação da mecânica quântica é a mesma coisa do que a formulação usual. Elas têm as mesmas predições em quase todas as situações. Existem algumas situações bem difíceis de obterem, mas quando isso acontece podemos ter uma predição um pouco diferente. Com sorte, já temos visto essas predições diferentes, elucida Patrick Peter.

Por outro lado, na cosmologia, mais que uma interferência direta, essa área é sensível ao que chamamos de perturbações originais, já que todo o universo advém delas. Tem aquele príncipe cosmológico que diz que o universo deve ser homogêneo e isotrópico; bem, se fosse exatamente homogêneo e isotrópico não existiria ninguém para falar disso. Então, acontece que, às vezes, o vácuo inicial (o início do universo foi o vácuo) tem aquelas flutuações que são originárias da mecânica quântica, que é a origem de tudo o que observamos no universo, hoje. Agora, essas flutuações podem ser exatamente iguais às da mecânica quântica, ou diferentes, como achamos que podem ser. Se for esse o caso, as predições que vemos, por exemplo, na radiação cósmica de fundo (medida feita recentemente pelo Satélite Planck*), podem ter algumas diferenças e estamos estudando justamente isso agora, salienta Patrick Peter.

Com um debate profundo e por vezes controverso sobre o tema, é óbvio que existem muitas diferenças científicas, cuja única conclusão pode ser obtida apenas através de experimentos. O pesquisador francês afirma que existem várias predições para algumas teorias, outras predições para outra teoria mais específica, mas o certo é que só fazendo experimentos é que se chegará à conclusão certa, aliás, como é apanágio na ciência.

Ainda na área da cosmologia, onde Patrick Peter é especialista, o caminho para a resolução de muitas questões ainda se antevê bastante longo, embora do ponto de vista dos pesquisadores se tenha avançado muito. Faltam algumas coisas… Podemos fazer a descrição total de tudo o que aconteceu no universo nos últimos quatorze bilhões de anos, o que já é bom. Mas, essa descrição tem pequenas coisas que realmente não entendemos – como a energia e matéria escuras, que são coisas que se tornarão extremamente importantes no futuro. Hoje, a cosmologia é uma área muito bem entendida, na qual tem muitos mistérios profundos ainda para serem descobertos. Então, eu digo que é uma situação perfeita para um pesquisador. Tem a ver com a observação, justamente, sublinha Patrick.

O telescópio Hubble, por exemplo, é apenas um grão de areia na observação infinita do universo, já que ele apenas capta até um determinado ponto. Contudo, segundo Patrick Peter, daqui a cinco ou dez anos deverão ser lançados outros satélites, existindo, por isso, muitos projetos que certamente darão muitos dados resultados. Existe uma fenomenologia da cosmologia que está bem entendida, agora é necessário desenvolver e alcançar uma teoria mais profunda e interessante, por forma a se chegar a um conjunto de dados novos, previstos para serem obtidos exatamente daqui a cinco ou dez anos. Mesmo com isso, o cientista nunca termina e iremos chegar a um ponto onde se poderão preencher lacunas e abrir outras fronteiras. “Isso sempre acontece na ciência. Por isso é legal, conclui o pesquisador.

*Satélite europeu lançado em 2009 pela European Space Agency (ESA), com o intuito de detectar o rastro da primeira luz emitida depois do Big Bang. Desde 2013, o satélite tem fornecido medições precisas envolvendo diversos parâmetros cosmológicos.

(Rui Sintra – jornalista)

16 de março de 2018

Doença Arterial Coronária: Treinamento Físico e Reabilitação Cardíaca

Doença Arterial Coronária: Treinamento Físico e Reabilitação Cardíaca, foi o título da palestra apresentada, no último dia 19 de maio, inserida em mais uma edição do programa Ciência às 19 Horas, evento promovido mensalmente pelo IFSC/USP, tendo- se contado, desta vez, com a participação do conhecido e respeitado médico cardiologista da cidade de São Carlos e professor do Departamento de Ciências Fisiológicas, Laboratório de Fisiologia do Exercício, da Universidade Federal de São Carlos (UFSCar), Dr. Roberto M. M. Verzola.

Verzola abordou o papel do exercício físico na prevenção de doenças cardiovasculares (prevenção primária) e na reabilitação dos pacientes que já apresentaram eventos coronarianos, bem como na prevenção de novos eventos (prevenção secundária), tendo mostrado que o treinamento físico adequado também é benéfico para pacientes com insuficiência cardíaca crônica.

Sabe-se que o exercício físico contribui para essa prevenção, mas, contudo, existe a necessidade de se transmitir ao público os seus reais benefícios. Neste aspecto, o Dr. Roberto Verzola é enfático ao afirmar que o exercício físico atua de diversas formas, como, por exemplo, na circulação coronária, já que quanto mais precocemente for iniciado, mais ele aumenta a circulação da lateral coronária e aumenta o índice de vasos que irrigam a mesma região, sendo, por isso, um benefício enorme. Quando algum desses vasos tem problema de esclerose ou obstrução e o paciente aumenta a capacidade física, esse exercício eleva a capacidade aeróbica máxima, ou seja, o consumo máximo de oxigênio. Então, o indivíduo desenvolve uma capacidade de captar e usar esse oxigênio com maior eficiência na produção do ATP, que é utilizado no exercício: são inúmeras as vantagens, elucida Verzola, acrescentando que, com isso, o aumento da capacidade de gasto de oxigênio no próprio músculo cardíaco contribui, igualmente, para o aumento da capacidade de bombeamento do músculo.

Com o avanço da idade, tudo isso beneficia o paciente, que fica com menos instabilidade no andar, sofre menos quedas e beneficia-se no sentido de que a solicitação muscular aumentada previne a osteoporose, sendo que é a melhor opção para a prevenir, tanto no idoso, quanto na mulher e no homem. O exercício físico é benéfico antes e após qualquer episódio coronário. Se for executado após o citado episódio, não existe qualquer dúvida que todos os benefícios colhidos anteriormente irão ter grande utilidade para a recuperação do paciente, que durante esse estágio deverá imediatamente ser sujeito a uma prevenção secundária, desta feita executada por fisioterapeutas especializados em reabilitação cardíaca, alerta Verzola, ressaltando que esse trabalho requer algumas preocupações com relação aos resultados que irão ser colhidos daí para a frente: o paciente tem uma cicatriz decorrente do infarto e ela diminui o desenvolvimento e a performance cardíaca, mas os benefícios continuam para a vida toda.

Muitas pessoas têm dúvidas em relação ao grau de reabilitação atingida por um paciente, após um acidente cardiovascular. Na verdade, a reabilitação começa na fase hospitalar, ainda dentro da UTI. Vinte e quatro horas após o incidente, o paciente deverá começar a fazer exercícios com os membros, orientado por um fisioterapeuta cardiovascular. Depois que ele sai da UTI, da terapia intensiva/unidade coronária, o paciente vai para o quarto e continua fazendo fisioterapia: a esses dois momentos, seguidos, dá-se o nome de Fase-1. A seguir a essa fase aparece a Fase-2, onde o paciente, já em processo ambulatório, é sujeito a exercícios físicos supervisionados, sendo que após três ou quatro meses ele entra nas designadas Fase-3 e Fase-4, em que está livre, mas com a obrigatoriedade de fazer atividade física para o resto da vida.

Outro aspecto que vale abordar, neste contexto, é o chamado paciente com insuficiência cardíaca crônica, que é uma insuficiência cardíaca estável, portanto tratada, e que já tem um tempo de evolução, como explica o nosso convidado. Por exemplo, depois do infarto, você pode ter uma insuficiência cardíaca aguda, porque o episódio foi agudo. Mas esse infarto pode decorrer de uma doença valvular, cardiopatia isquêmica, doença de Chagas ou febre reumática. Esse aspecto é importante. Até há cerca de quinze ou vinte anos, era um tabu pensar em fazer atividade física aeróbica e, pior ainda, assistida, porque se pensava que isso aumentava a mortalidade: nada mais falso. É óbvio que existe um risco transitório durante a execução de exercício físico, mas, em longo prazo, o benefício é muito maior, a qualidade de vida melhora muito. A insuficiência cardíaca crônica é uma insuficiência cardíaca instalada já há algum tempo, explica o médico.

Por outro lado, muitas pessoas têm receio de fazer exercício físico, principalmente quando vêem notícias relacionadas com indivíduos que morrem em academias, ou praticando algum esporte. Para Verzola, é necessário ver, em primeiro lugar, se essas pessoas estavam sendo bem orientadas, de que forma estavam fazendo determinadas cargas de exercícios, se fizeram atividades prévias monitorizadas para garantir que determinada carga não acarretasse nenhum risco. Essas mortes, em geral, não são devidas a doença coronária. Essas pessoas têm cardiomiopatia hipertrófica, que não foi diagnosticada, ou miocardite, ou seja, são doenças derivadas de causas cardíacas – não coronárias. Por vezes, eles têm alguma síndrome arritmogênica não diagnosticada… A maioria desses atletas, com vinte e poucos anos, tem morte súbita fazendo um desempenho ou jogando uma partida de futebol… não é doença coronária. As pessoas fazem confusão com muitas coisas. Por exemplo, qualquer demência senil, hoje, é sinônimo de Alzheimer. O Alzheimer virou um guarda-chuva: as pessoas acham que tudo é Alzheimer! Quando se trata do coração, as pessoas pensam que tudo é igual, conclui o palestrante.

(Rui Sintra – jornalista)

16 de março de 2018

Luz: Ciência e Vida – para todos

Em mais uma edição do programa Ciência às 19 Horas, ocorrida no dia 05 de maio último, no Auditório Prof. Sérgio Mascarenhas (IFSC/USP), coube ao docente e pesquisador de nosso Instituto, Prof. Dr. Vanderlei Salvador Bagnato, apresentar a palestra Luz, Ciência e Vida.

Nesta apresentação, que teve o objetivo principal de comemorar o Ano Internacional da Luz, o palestrante sublinhou o quanto a luz é fundamental em nossa vida, sob diversos aspectos, desde o fato de ser a fonte geradora da própria existência do homem, assimilada pelos organismos vegetais e difundida ao longo das cadeias alimentares, até aos mais relevantes avanços da ciência e tecnologia, permitindo alcançar perspectivas cada vez mais ousadas e concretas em direção ao entendimento da natureza, passando pelas praticidades do dia-a-dia e pelo importante sentido da visão.


A palestra de Bagnato, que congregou uma plateia entusiasmada, sublinhou as comemorações do Ano Internacional da Luz (2015), que celebra importantes datas relacionadas com eventos marcantes relacionados ao estudo da luz e que revolucionaram a ciência, razão pela qual a UNESCO escolheu este ano para, de forma simples mas marcante, estimular o mundo acadêmico e os diversos nichos da sociedade a refletirem sobre a importância desse fenômeno, que é essencial ao ser humano.

Idealizada no espírito dessa celebração, a palestra do pesquisador do IFSC/USP transmitiu os aspectos mais fundamentais da luz, tanto como fenômeno físico – o que ela é e como se comporta -, quanto em seus aspectos úteis ou importantes e as consequências de sua existência e de sua compreensão na vida do nosso cotidiano e no estabelecimento e avanço do conhecimento científico.

Com demonstrações práticas que ocorreram no próprio auditório onde ocorreu a palestra e com demonstrações e exposições alusivas ao Ano Internacional da Luz, que ocorreram após a sessão – em espaço reservado para o efeito -, mas aberto a todo o público, todos tiveram a oportunidade de conhecer aspectos simples, porém importantes, desse fenômeno que, por vezes, nem damos por ele, mas que nos cerca e envolve a cada minuto de nossas vidas.

A exposição

Na exposição que foi montada em celebração ao Ano Internacional da Luz, a equipe de Difusão Científica do CePOF/IFSC trouxe várias novidades: a inauguração de um Planetário Itinerante, uma exposição trazendo opções de ensino de óptica para deficientes visuais e uma exposição sobre as próprias comemorações do Ano Internacional da Luz, um evento que foi idealizado pelo Prof. Bagnato, tendo como coordenador-geral o Prof. Euclydes Marega, igualmente pesquisador de nosso Instituto.

O planetário insuflável que esteve em demonstração comporta até quarenta pessoas em seu interior e possui projeção em altíssima resolução. A coordenadora deste trabalho é a pesquisadora, Dra. Wilma Barrionuevo, que, auxiliada pelo técnico Leandro Pingueiro, tem a missão de levar o planetário até escolas e locais públicos, para que estudantes e a população em geral tenham acesso a filmes sobre temas diversos, como a formação do universo, células biológicas, óptica e luz, entre outros tópicos da ciência.

Já a exposição sugerindo técnicas para o ensino de óptica a deficientes visuais foi montada por vários alunos do Grupo de Óptica do nosso Instituto, coordenados pela física Hilde Buzzá. Durante a exposição, os visitantes tiveram os olhos vendados e puderam entender, na prática, como é realizado este aprendizado.

A terceira atração da exposição, que falou sobre a luz, trouxe os principais cientistas envolvidos com esse tema e os principais experimentos desenvolvidos pelos mesmos. O tema contou com a participação de professores, alunos e técnicos do próprio Grupo de Óptica do IFSC/USP.

A luz, mesmo que muita gente não perceba, porque nos é dada de graça, é o elemento mais importante que existe na Terra. A vida não existiria sem a luz; toda a energia que nós temos para formar vida vem da luz do sol; não teríamos calor na Terra se a luz não viesse da energia luminosa que vem do sol; então ela já é importante aí.

Agora, a luz é algo que sempre teve uma conotação divina e que a ciência conseguiu entender muito bem, manipulá-la e utilizá-la.

Então, a luz, hoje, tem uma aplicabilidade imensa. Toda a revolução que estamos passando no mundo moderno tem a ver com a luz. A evolução nas telecomunicações só foi possível com as fibras ópticas.

A evolução na iluminação pública, primeiro com a lâmpada de Edison, e depois com os LED’s… Então, a luz faz parte da vida. E mais do que isso, a ciência conseguiu entender o suficiente para utilizá-la e, hoje, a luz tem aplicação em quase todas as terapias.

Imagine o que seria das análises clínicas se não fossem os vários tipos de microscópios, os efeitos ópticos da interação com a matéria… Então, a luz é importante. Mas, mais importante do que tudo isso é que as pessoas têm que entender melhor o mundo ao seu redor. E, para isso, elas têm que entender o que veem e porque veem, e se não veem, o que está acontecendo? Então, a interação da luz com tudo, bem como com o que enxergamos e até onde isso é uma realidade, é extremamente importante.

É a sociedade que tem de enxergar soluções

Para o Prof. Bagnato, a luz é a origem de tudo, até porque no início, o Universo realmente foi uma grande flutuação de luz. Mas, até onde é que a luz pode chegar? É difícil responder essa pergunta, porque no início tudo era luz e continua sendo tudo luz. Provavelmente, no final, tudo continuará sendo luz. O que nos preocupa, no Ano Internacional da Luz, não é apenas a luz que enxergamos, mas sim aquela que a mente deveria enxergar. Então, a luz é um significado que vai além da parte científica e da matéria, e que atinge um pouco a parte filosófica. Estamos vivendo um momento em que as mentes têm que aprender a enxergar, não só com os olhos. E o Ano Internacional da Luz dá essa conotação, sublinha Vanderlei Bagnato.

Para o pesquisador, essa comemoração provoca que todos enxerguem um pouco mais do que o óbvio, principalmente em lugares obscuros, por exemplo no Terceiro Mundo, onde as pessoas não entendem o quanto elas têm que contribuir para o coletivo. Hoje, temos 2,5 bilhões de crianças que terminam a sua vida no pôr-do-sol, porque não têm luz elétrica. A maior causa de acidentes com crianças, na África, é a queimadura devido às lâmpadas que ainda funcionam com querosene e óleo. Então, ao mesmo tempo em que se está usando o laser e a luz para curar o câncer, nós não estamos dando alternativas para a sociedade básica. É um momento de reflexão, pontua Bagnato.

Para o pesquisador do IFSC/USP, a sociedade tem que começar a entender que quem tem de enxergar e ver onde estão as soluções não são os governos, mas sim a sociedade. As pessoas que hoje estão aqui, os jovens que vieram em grande número assistir a esta palestra, provavelmente amanhã serão governos e governantes. Se eles não aprenderem a enxergar o que precisa – e isso vem à luz -, não vamos a lugar nenhum, conclui Bagnato.

(Rui Sintra – jornalista)

16 de março de 2018

Geografia e História… do Universo!

Em mais uma edição do programa “Ciência às 19 Horas”, o Auditório Prof. Sérgio Mascarenhas (IFSC-USP) foi o palco para mais uma palestra que ocorreu no dia 29 de abril último, onde o PrProf. Dr. Raul Abramo, docente e pesquisador do Instituto de Física (IFUSP) e do NAP LabCosmos / Universidade de São Paulo, discorreu sobre o tema Geografia e História… do Universo.

No início, há 14,3 bilhões de anos, o universo estava num estado totalmente caótico. Ao longo do tempo, a força da gravidade foi estabelecendo uma ordem, que atualmente se manifesta por meio de inúmeras galáxias, estrelas, planetas e assim por diante.

Hoje, sabemos que o nosso sistema solar é apenas um entre bilhões de sistemas planetários semelhantes na nossa galáxia (a Via Láctea) e também sabemos que essa Via Láctea é apenas uma entre uma infinidade de galáxias no universo.

O Prof. Dr. Raul Abramo, do Instituto de Física da USP (IFUSP) é um pesquisador que, quando possível, explana, através de palestras dedicadas ao público em geral, o panorama daquilo que ele considera ser a diversidade “ecológica” do universo, utilizando uma espécie de breve excursão pelo zoológico de objetos astronômicos, tais como estrelas canibais, buracos negros supermassivos e enxames de galáxias, abordando, igualmente, os principais mistérios da cosmologia na atualidade, que são as misteriosas substâncias conhecidas como matéria escura e energia escura.

Em entrevista a Raul Abramo, um pouco antes de sua palestra no nosso Instituto, quisemos aprofundar um pouco daquilo que ele chama de diversidade ecológica do Universo, que, segundo o pesquisador, é um panorama pouco familiar para a maioria da população, já que ela está mais acostumada a assistir a programas relacionados com a natureza da Terra – do seu próprio planeta – e a entender um pouco mais das particularidades terrenas, como, por exemplo, do deserto do Saara ou do fundo dos oceanos. Abramo salienta que para poderem ter uma visão do Universo, as pessoas precisam estar preparadas para terem uma visão mais abrangente e completa do lugar comum: existem escalas de tempo e de tamanho diferentes, objetos diferentes, enfim, tudo é diferente: As pessoas não têm noção de qual é a dimensão e nem o que vive na dimensão do Universo, o que as coisas estão fazendo, qual a dinâmica daquilo que está acontecendo, como é que os objetos evoluem… Assim como você tem um ambiente que lhe é familiar – o do nosso planeta Terra, onde as coisas nascem, crescem, morrem e são substituídas por outras -,o mesmo acontece no universo, só que em uma escala quase que incompreensivelmente maior, sublinha o pesquisador.

Contudo, o curioso é que a forma como os cientistas observam o universo – de maneira muito particular -, contempla a história no tempo e a história no espaço, que estão misturadas; ou seja, as duas são uma única coisa, exatamente porque eles veem o Universo de forma muito particular, porque ao mesmo tempo em que existem limites, aqui na Terra, eles por outro lado recebem milhões de informações que chegam ininterruptamente, vindas dos confins do universo.

Por exemplo, as galáxias, que mostram como sua distribuição no Universo é particular, guardando uma espécie de memória de como o universo começou, numa espécie de sopa primordial, ou seja, de uma forma muito caótica. Podemos perguntar como é que, em cerca de 15 bilhões de anos, o Universo conseguiu arrumar tudo? De fato, quem fez isso e quem continua a fazer é a própria força da gravidade, cuja teoria moderna sobre esse tema está comemorando cem anos. A história sobre como essa sopa primordial – uma ótima expressão inventada pelo russo George Ganov -, como esse caos começou: Essa história gerou tudo o que está aí, com a constatação de que há uma diversidade absurda, comparativamente à da Terra. O universo tem infinitas outras terras com essa diversidade e tudo isso nasceu de um estado caótico, mas ao mesmo tempo extremamente simples, pontua o pesquisador.

Bilhões de sistemas planetários semelhantes à nossa galáxia é uma grandeza que não dá para imaginar e é difícil de entender, embora a utilização da termo bilhões seja uma conjectura, já que o horizonte mais real poderá ser o infinito. Até onde se sabe, o Universo é infinito no espaço, mas, por outro lado, ele não é infinito no tempo, o que significa dizer que a geografia do Universo pode ser infinitivamente diversa, mas a história dele não, sendo quase certo que ela tem pouco mais de 14 bilhões de anos. Segundo Abramo, não há um fim previsto para o Universo. Não há nenhuma indicação de que o Universo vá terminar com uma explosão ou implosão. Só na nossa galáxia deve haver milhões de terras; imagina nos outros bilhões e bilhões de galáxias que já conhecemos, imagina, ainda, nos outros muitos bilhões que ainda não vimos, mas que iremos ver um dia, e nos possíveis bilhões que nunca chegaremos a ver, diz Raul Abramo.

Já no quesito de matéria escura e energia escura, o cientista da USP afirma que pouco há a dizer sobre elas, até porque pouco se sabe. Os átomos – a matéria normal – representa apenas 4% de tudo o que existe no Universo, sendo que os 96% restantes são formas de matéria e de energia que se desconhecem por completo. Na teoria atual que descreve o Universo existem indicações muito fortes de que estão faltando muitas coisas, enquanto muitas pessoas afirmam que nossa teoria está errada.

Para Abramo, ambas as hipóteses são possibilidades interessantes de se considerar, porque falta uma teoria melhor e, claro, muita observação. Para você ter uma ideia, foi só nos últimos dez anos que conseguimos avançar consideravelmente, com profundidade, no conhecimento dessa geografia do universo. Na verdade, há muito tempo que sabemos que o universo se expande, que teve um início muito quente e denso há alguns bilhões de anos, mas, em detalhe, só nos últimos dez anos é que tivemos constatações claras. Então, é muito recente esse conhecimento detalhado sobre o universo. A grande diferença não foi do lado teórico, mas sim do lado das observações, graças aos avanços da tecnologia, pois sem isso não estaríamos com um monte de dados, observações e descobertas, inclusive com a descoberta de que o universo está se expandindo de maneira acelerada. Então, tem tudo a descobrir ainda. Essa imagem não está terminada. Ainda temos tudo para fazer, enfatiza o pesquisador.

O avanço das observações do Universo está diretamente relacionado com o lançamento do telescópio Hubble, que está completando 25 anos de atividade, mas em termos de cosmologia o seu papel foi limitado. Ele foi importante porque forneceu imagens maravilhosas e detectou objetos com uma precisão nunca antes conseguida, mas, para conhecer a grande escala do cosmos, é necessário ter outros tipos de instrumentos, conforme exemplifica Abramo. Se você segurar uma moeda de dez centavos com a ‘cara’ a um metro, o pingo do ‘i’ corresponde ao tamanho do campo de visão do Hubble. Então, o Hubble pode muito bem permitir conhecer uma região muito pequena, onde tem uma, duas ou algumas galáxias muito localizadas, enquanto que para conhecer o cosmos a gente precisa observar grandes áreas do céu. Então, necessitamos de outros tipos de telescópios, que já começaram a ser construídos nos últimos quinze anos e que cada vez mais estão se tornando importantes.

O Chile é o lugar onde existe, atualmente, um maior número de telescópios. Tem outros países que também possuem telescópios com a característica de conseguir mapear grandes volumes do universo rapidamente e isso permitiu grandes avanços. O Brasil tem várias iniciativas, como, por exemplo, o ESO, o GMT, que é um telescópio gigante, bem como em outros vários levantamentos do cosmos, que permitiu ao nosso país participar desses grandes experimentos e observações do universo que estão acontecendo agora.

Vamos aguardar um pouco mais, para ver até onde a pesquisa do Universo nos pode levar e quais as novas fronteiras que estão por descobrir.

(Rui Sintra – jornalista)

16 de março de 2018

Divergência, conflito e violência

O já tradicional programa Ciência às 19 Horas regressou ao nosso Instituto, com a primeira edição de 2015, que ocorreu no final da tarde do dia 17 de março, com a participação da Profa. Dra. Eda Terezinha de Oliveira Tassara, docente e pesquisadora do Instituto de Psicologia e do Instituto de Estudos Avançados, da Universidade de São Paulo, que abordou um tema que se insere perfeitamente na atualidade do maundo e de nosso país: Divergência, conflito e violência.

Com efeito, vem sendo um consenso, entre cientistas sociais, rotular a atual sociedade brasileira de anômica, dado o isolamento e as dificuldades para uma comunicação direta que se manifesta entre seus cidadãos; segundo o resumo da palestra, tais atributos exteriorizam-se como disruptores do adequado funcionamento do convívio sócio-comunitário, emergindo sob forma desordenada de conflitos de várias ordens, os quais evoluem, muitas vezes, para confrontos e tensões violentas.

Argumenta-se que, em situações de anomia e alienação, a violência resulta de dificuldades advindas de fluxos desconexos de comunicação, impossibilitando a identificação, pelos grupos sócio-comunitários, da origem lógico-cognitiva, psicológica-afetiva ou ético-política das eventuais divergências. Assim, passam as mesmas a alimentar conflitos face à heterogeneidade de repertórios pregressos dos indivíduos pela precariedade dos processos de socialização aos quais são submetidos, agravada, em via de mão-dupla, pelas suas inscrições em situações de anomia e alienação.

Em conversa mantida com a palestrante, um pouco antes de sua apresentação, quisemos saber de que forma ela interpreta o fato de muitos cientistas sociais considerarem a sociedade brasileira de anômica. Para Eda Tassara, que desde há muito tempo desenvolve pesquisa efetiva no campo social, o conceito de anomia é bastante adequado para interpretar o que se enxerga, tendo dado o exemplo de Émile Durkheim, que desenvolveu um estudo mais sistemático sobre a questão anomia. Ele trabalhou duas grandes obras; a primeira, discutiu a divisão do trabalho social e, nessa primeira leitura, ele tem uma posição mais otimista, considerando que nas épocas de grandes transformações, existe, quase como que uma ruptura entre as formas de vida culturalmente estabelecidas e os meios institucionais para conseguir realizá-las. Depois, já bastante mais tarde, desenvolveu uma outra obra sobre o suicídio, com um viés muito mais pessimista, salienta a pesquisadora.

De fato, Durkheim antecipou, em sua primeira obra, a necessidade do aparecimento de uma reordenação da sociedade que, espontaneamente, tenderia a um equilíbrio dessa ruptura. Ele escreveu isso em 1893, que era uma época de grandes transformações. Já na obra dedicada ao suicídio, ele não defendeu mais essa leitura, já que o número de suicídios havia aumentado muito nesse período. Outros autores trabalharam esta ideia da anomia, que é uma ideia -um conceito – sociológico, tendo alguns deles – principalmente os psicanalistas – começado a trabalhar rumo a uma fronteira que se situa entre as áreas sociológica e o psicológica, com uma significativa parte deles afirmando que a anomia interage com a alienação, produzindo sempre – porque então essa ruptura traz dificuldades de comunicação direta -, artifícios para comunicação; daí que o homem desse período se sentisse inerte, triste e vazio – um vazio existencial e uma dificuldade de enxergar o futuro, sublinha Eda, que compartilha essa leitura e que a interpreta como aquilo que se passa na sociedade brasileira e, particularmente, na sociedade paulista, neste último caso, o vetor primordial de suas pesquisas.

Se a divergência gera conflito e se esses dois aspectos geram a violência, o exponencial aumento de todos esses fatores que vemos e sentimos no nosso cotidiano, nos últimos anos, será, tão só, uma questão de ausência de comunicação entre as pessoas, ou é uma frustração individual que se explana coletivamente?

A Profª Eda Tassara defende a ideia de que esse acirramento da anomia ou das condições anômicas, advêm do presente momento do processo de globalização e isso está atingindo o mundo inteiro, mas de forma diferenciada, até porque há necessidade de se diferenciar globalização, de mundialização, já que a primeira se refere, principalmente, a um sistema econômico, a uma determinada forma de funcionamento, enquanto a mundialização está mais voltada para um encontro desse processo com as realidades sócio-culturais locais. De fato, mesmo contra diversas opiniões divergentes, o certo é que a hegemonia da globalização propagou-se de forma absoluta pelo o mundo e é muito difícil pensar-se em algo que tenha força capaz para suplantar isso. Então, esse encontro produz conseqüências anômicas e diferentes. Por exemplo, na Europa, não houve um desmonte do passado, no sentido dos cenários. Os cenários são formas das pessoas encontrarem seus passados, daí que algum passado fica. Então, o que se recuperou na Europa? Os ódios milenários. Por exemplo, eu fui muitos anos professora visitante em Pisa – Itália. Lá, a história está no espaço e isso não apaga. Mas, a anomia se produz menos destrutiva do passado, porque alguma materialidade fica. Então, o que ela trouxe à tona? Os ódios milenares, as tensões… Pode ver na Ucrânia… Tudo isso é explorado pela luta geopolítica. Mas, as sociedades reagem assim, pontua Eda Tassara, que exemplifica, também o caso de Portugal, um país que não é de ódio, mas que recupera o passado mais no convívio, embora exista também algum clima de desconfiança do não reconhecimento daquilo que é especificamente da história local.

Para a pesquisadora, nesse país irmão não existe uma tensão de violência, como há em outros lugares da Europa, mas há um sentido. Em São Paulo, por exemplo, o passado material é destruído, simplesmente não existe não existe na memória das pessoas. As novas gerações foram desalojadas de um passado cultural; não têm nem reminiscências. Os mais velhos têm, mas essas já vão desaparecendo. Eles não têm passado e o futuro está incerto.

Igualmente consubstanciado nesse exemplo, poderíamos voltar aos estudos de Durkheim, argumentando que essa população não está socializada. Durkheim falava que a educação é a socialização. Ora, se você não tem o passado, porque grande parte dessas populações não vinha de culturas letradas, mas sim de culturas tradicionais, tudo isso é muito difícil, quase inatingível. Por outro lado, temos outros países, como, exemplo a Inglaterra. A Inglaterra é muito esperta. Porque a Inglaterra adota o princípio do Príncipe de Salinas – é preciso mudar para tudo continuar como é, ao contrário dos paulistas, que não aprendem isso. Querem que os outros se adaptem. Não vão se adaptar, afirma a professora.

Em termos de futuro, Eda Tassara não arrisca fazer previsões. Segundo sua opinião, alguns acreditam que o capitalismo, da forma como se apresenta, está agonizando, algo que ela considera uma crença, um mito. Wolfgang Streeck, diretor do Max Planck Institut de estudos para a sociedade, fez uma análise que eu acho brilhante, no qual ele acredita nessa transformação, alegando o seguinte: ‘Nós temos que nos abstrair das teses dos modernistas, que achavam que você só pode substituir uma coisa quando sabe o que vai vir no lugar’. Isto, neste momento, não está acontecendo. Então ele afirma que está em desmantelo crônico, mas não temos – ele fala ‘não temos’, e eu falo ‘ não tenho’ – condições de pensar modernistamente. Ele diz que temos que aprender a pensar ‘se’. Mas pensar assim é, justamente voltando na anomia, uma coisa que o homem comum não consegue fazer, porque nós, aqui, somos pensadores. O homem comum não consegue pensar dessa forma, porque ele se sente incapaz. Ele se sente não-protagonista, ele não sabe como fazer para influir, por isso tem tantas manifestações caóticas, que são, do ponto de vista da psicanálise, formas maníacas de pensar que você está sendo protagonista, salienta Eda Tassara.

Quando assistimos a manifestações e protesto, quer elas ocorram na França, no Brasil ou em qualquer lugar no mundo, as pessoas agem como se fossem personagens de quadrinhos, ou seja, é um dadaísmo de massa, na opinião de Eda Tassara. Tinha um sujeito no protesto do dia 15 de março, em São Paulo, que colocou uma barba tipo do Lula e escreveu numa placa “Fora Marx de Garanhuns”; ou seja, o homem pensa, ele reflete, e assim como os pesquisadores opinam sobre anomia, ele também acha que enquanto houver refletividade, não há barbárie. O homem que sai e escreve uma palhaçada qualquer, está refletindo e, se não tem sentido para quem pensa, isso não tem importância; o que interessa é que naquele momento ele quer ser protagonista, ele quer influir. Seguramente não vai influir em nada, ou irá influir para alguns.

Para a pesquisadora, o homem médio, não letrado, sente-se infeliz, sente-se existencialmente vazio e isso é um fato. O espírito público não se transmite mais.

Rui Sintra – jornalista

16 de março de 2018

Termografia: importante aliada na medicina

O Programa Ciência às 19 horas despediu-se do ano 2014 com a realização da palestra intitulada Termografia: a detecção do infravermelho no corpo humano para auxílio na medicina, um tema que foi abordado no dia 18 de novembro pelo Dr. Antonio Carlos de Camargo Andrade Filho, Coordenador da Rede Lucy Montoro – Unidade de Jahú.

Nesta palestra, Andrade Filho salientou o fato dos corpos animados e inanimados poderem emitir, ou absorver radiação infravermelha, sendo esta oriunda de movimentos rotacionais moleculares. Como o corpo humano é composto por células vivas e dependendo do tecido, órgão, ou localização que ocupam, ele emite mais, ou menos radiação eletromagnética. Essa radiação pode, portanto, ser medida com muita precisão e daí poder-se aferir e conferir desvios da normalidade do corpo humano como um auxílio para a área médica. Essas mensurações das radiações infravermelhas servem para pesquisas médicas, testes de novas drogas, prevenção de doenças ou epidemias, além de poderem controlar a evolução de tratamentos com bastante frequência, uma vez que esse tipo de exame é destituído de qualquer risco para o paciente.

Contudo, é interessante conhecer a história – embora resumida – de como apareceu essa técnica, que remonta ao período do declínio da II Guerra Mundial, quando os aliados buscavam um método que pudesse detectar movimentos suspeitos das forças do Eixo – navios, aviões e comboios de veículos -, principalmente em locais com pouca visibilidade ou mesmo em períodos noturnos, o que de fato conseguiram fazer.

Contudo, segundo Andrade Filho, o domínio da tecnologia, naquela época, era bastante primitivo, o que postergou o desenvolvimento da técnica em cerca de vinte anos, com o advento da guerra fria e com o aparecimento dos mísseis intercontinentais. Rússia, EUA, Suécia, Japão, além de países mais próximos da então União Soviética, temiam o aparecimento súbito de mísseis que não pudessem ser abatidos, devido às suas velocidades, e foi a partir daí que a detecção precoce desses mísseis, no momento do seu lançamento, passou a ser possível com a tecnologia que se desenvolveu nessa época, que, entretanto, cresceu e evoluiu muito. Simultaneamente, a classe médica que trabalhava ao serviço das forças armadas na Europa ocidental e oriental, junto com seus colegas asiáticos e americanos, começou a pensar no uso civil e pacífico dessa técnica no campo da medicina, principalmente voltada para a detecção precoce de doenças, ou no auxílio de diagnósticos clínicos. Embora a intenção fosse altruísta e importante, o certo é que essa tecnologia, por ser extremamente sensível para fins militares, ficou vedada á classe médica, daí o fato dos clínicos terem avançado muito pouco na utilização da detecção do infravermelho do corpo humano para fins de diagnóstico. Só com a queda do Muro de Berlim e com a pulverização da ex-URSS, essa tecnologia passou a ser mais divulgada no meio civil, tendo começado, então, a existir um interesse crescente no uso da detecção das anomalias do infravermelho do corpo humano, uma tecnologia que é considerada muito sensível e que auxilia bastante o médico, só que de baixa especificidade.

O Dr. Andrade Filho explicou o significado do termo baixa sensibilidade: Por exemplo, uma ressonância magnética tem uma especificidade maior na área anatômica e morfológica, mas baixa especificidade na área metabólica: por outro lado, a termografia tem uma alta sensibilidade para detectar qualquer anomalia de emissão do infravermelho do corpo humano. Qualquer doença, por menor acometimento que possa causar, já acusa uma anomalia na emissão do infravermelho – para mais ou para menos – e isso a ressonância magnética, a tomografia, a cintilografia, bem como outros exames subsidiários médicos, não têm essa sensibilidade, mas têm especificidades maiores em cada área, de tal maneira que a termografia médica situa-se como um exame de triagem, mostrando se o paciente tem alguma anomalia, ou não.

Contudo, segundo nosso entrevistado, outra importância desse exame é na prevenção de epidemias. Por exemplo, ao nível de aeroportos, portos, estações ferroviárias e estações rodoviárias, uma câmera termográfica colocada nos locais de embarque e desembarque pode detectar, com muita sensibilidade e rapidez, alguém que esteja iniciando um quadro infeccioso – por exemplo, pelo vírus ebola, gripe aviária, gripe suína, etc. Ao nível de centro cirúrgico, a termografia também se mostra quase que imprescindível nos dias de hoje: Por exemplo, pode auxiliar um cirurgião cardíaco que esteja fechando uma artéria coronária de um paciente e queira saber se essa artéria vai funcionar – ou não – após a sua religação. Antigamente, só se sabia esse resultado depois que o cirurgião fechava o peito do paciente, sem se poder antever ou acompanhar em tempo real a eventual ocorrência de uma trombose. Se algo corresse mal, havia a necessidade de abrir o peito desse paciente novamente. Hoje não, explica Andrade Filho, que acrescenta: Hoje, um cirurgião, com uma câmera de termografia, conecta-se à artéria coronária, solta o fluxo sanguíneo e em tempo real vê se o músculo está recebendo toda a irrigação necessária ou se a artéria está profundindo normalmente, não tendo a necessidade de reabrir o paciente novamente. Na Europa, Estados Unidos, Canadá e Japão, essa técnica já se encontra bastante difundida, ao contrário do que acontece no Brasil, que só agora começa a ter uma expansão exponencial: Eu estudo isso há quase 29 anos e, no início, éramos apenas dois médicos que utilizavam essa tecnologia no Brasil. Atualmente, o nosso país já conta com uma sociedade médica com titulação para isso, além de cursos específicos de formação para essa área, comenta Andrade Filho.

Sendo uma aliada da medicina, a termografia já está num curso de desdobramento de suas capacidades e, neste momento, ela já participa nos chamados exames acoplados, como, por exemplo, a utilização do Raio-X acoplado à termografia, da ressonância magnética acoplada à termografia e, mais recentemente, o próprio software da ressonância magnética está conseguindo fazer, no mesmo momento, a termografia de todos os planos dos tecidos, de tal maneira que a Ressonância Magnética Termográfica torna-se um exame muito mais completo, mais específico e mais sensível: A termografia, desdobrando-se na sua utilização ao nível de pronto-socorro e de centro cirúrgico, pode salvar muitas vidas, principalmente pela sua facilidade de uso e de sua grande sensibilidade, conclui Andrade Filho.

(Rui Sintra – jornalista)

16 de março de 2018

Porque os pesquisadores não são anjos e qual é a controvérsia?

O público em geral idealiza os cientistas como se fossem extraterrestres, ou ratos de laboratório, com pouco contato com o mundo exterior. Um estereotipo que não coincide com a verdade, já que eles são de carne e osso como todo o mundo, com seus defeitos e virtudes, vícios e manias. Foi devido a alguns desses mitos que o programa Ciência às 19 Horas, recebeu, no dia 7 de outubro, o Prof. Dr. Roberto de Andrade Martins, docente e pesquisador da Universidade Estadual da Paraíba, que apresentou a palestra intitulada Pesquisadores não são anjos: uma controvérsia científica do Século XIII com Maupertuis, Voltaire, Euler e o rei Fréderic II, um tema que, de interpretação lata, continua atual, já que apresenta um aspecto extremamente humano da pesquisa científica. Ou seja, a história de pessoas que, embora distantes centenas de anos, lutam por sua reafirmação, lutam pelo poder, fazendo coisas que às vezes não são muito corretas do ponto de vista acadêmico, como copiando ideias dos outros e utilizando a falta de ética, por exemplo.

Na história apresentada por Roberto Martins, o pesquisador mais importante envolvido nela é Maupertuis, cientista francês que propôs o princípio de ação mínima na área da física, que na atualidade é um dos princípios básicos da área, sendo usado na física clássica e também na moderna – relatividade, teoria quântica, etc.: ou seja, é considerado como um dos princípios mais importantes da física. Quando Maupertuis apresentou esse princípio, propôs uma ideia e escolheu alguns exemplos para aplicá-la, tendo forçado bastante a situação, por forma a que os seus princípios dessem certo. Não foi o primeiro cientista que já apresenta algo pronto. Na verdade, o princípio que ele propôs estava errado, tendo sido posteriormente discutido por pesquisadores importantes, como d’Alembert, que apontou uma falha importante que invalidava a generalização que Maupertuis fazia na época, elucida Roberto Martins.

De fato, a atitude de Maupertuis era discutir algumas das críticas que dirigiam a ele, fingindo não ouvir outras, como as do d’Alembert, que eram irrespondíveis. Maupertuis estava se baseando em ideias de outras pessoas que ele não cita. Na época em que defendia esse princípio, Maupertuis era presidente da Academia de Ciências da Prússia, em Berlim, e o Leonhard Eules, que era suíço, estava também na Academia, sendo subordinado a ele. Na verdade, Euler já tinha desenvolvido uma versão muito melhor desse princípio, mesmo antes de Maupertuis, que citava o trabalho de Euler como sendo uma aplicação do seu próprio trabalho: e Euler concordava com essa situação, já que ele não podia desagradar o presidente da Academia, explica Roberto Martins. A sequência dessa história relata que após essa situação, o matemático Samuel Köenig, que inicialmente era amigo de Maupertuis, visitou-o em Berlim, manifestando sua discordância com o princípio, mostrando ao amigo um rascunho de um artigo que ele queria publicar, criticando seu trabalho, questionando-o se ele se ofenderia com essa publicação. Não temos uma documentação muito clara sobre isso, mas, aparentemente, no dia seguinte a esse encontro com Köenig, Maupertuis devolveu o manuscrito a ele, alegando que poderia publicar o que quisesse. Samuel Köenig publicou a citada crítica, que teve uma repercussão enorme na comunidade acadêmica, inclusive, porque ele mostrou que o Leibniz havia proposto, há anos, um princípio mais geral e mais correto do que o inventado por Maupertuis, pontua o pesquisador. Conta a história que Maupertuis se enfureceu e resolveu destruir a reputação e a imagem de Köenig, que não tinha uma situação acadêmica tão confortável, pedindo, inclusive, que academia o julgasse, o que acabou por acontecer. Como resultado, Köenig foi humilhado e ridicularizado, como se ele tivesse falsificado documentos de Leibniz, o que não foi verdade, iniciando-se aí uma situação que polarizou os pesquisadores na época, com um lado a se posicionar contra e outro a defender Köenig.

Foi nesse momento que Voltaire entra na história. Amigo muito próximo de Köenig e Maupertuis, Voltaire estava em Berlim naquela época e resolve apoiar Köenig, publicando panfletos anônimos satíricos ridicularizando Maupertuis, criando, assim, um escândalo geral, o que provoca a entrada do Rei no confronto ideológico. Frederico e Voltaire eram amigos muito íntimos, mas Frederico interpretou o ato de seu amigo como um abuso desmedido, já que ele estava atacando o presidente da Academia. Frederico adverte seu amigo, pedindo para que ele sumisse com os panfletos e parasse com as ações, mas Voltaire continua, dessa vez enviando os citados panfletos para fora da Prússia, o que irritou profundamente o Rei, obrigando o mesmo a ordenar que os panfletos fossem imediatamente recolhidos e queimados em praça pública, pelo carrasco real. Finalmente, Voltaire se deu conta que o Rei falava sério e que sua vida poderia ficar em perigo. Impedido de sair da Prússia, por ordem do Rei, Voltaire acabou preso em uma cidade limítrofe e foi encarcerado durante várias semanas, acabando por se refugiar na Suíça, onde acabou por morrer. Apesar de tudo, Voltaire tinha conseguido ridicularizar tanto o Maupertuis, que ele conseguiu ser motivo de zombaria em toda a Europa toda, nunca tendo se libertado disso, fato que o afastou definitivamente da ciência.

O que aconteceu com Eule

Eule sempre foi um matemático muito importante, publicava muito, mas nunca quis não se envolver nas discussões e na confusão que acabamos de relatar acima. Contudo, ele acabou por apoiar Mauterpuis e, inclusive, preparou o dossiê de acusações contra Köenig, defendendo que ele era um falsário. Eule fez todo o jogo de Mauterpuis, e quando este ficou doente, incapacitado de continuar como presidente da Academia, provavelmente Eule acreditou que seria o próximo presidente, pelo fato de ser o braço direito de Mauterpuis, mas isso não aconteceu. Eule acabou se dando mal lá e partiu para a Rússia. Todo mundo acabou mal. O Rei Frederico também acabou mal porque, no fim, perdeu Voltaire, que era considerado a pessoa mais importante da vida dele, que inclusive era considerado o ponto de referência e cultural do Rei, todos se deram mal, complementa o pesquisador. A questão dos interesses pessoais se sobreporem aos interesses científicos e prejudicarem o trabalho científico são as duas lições mais importantes, segundo Roberto Martins. Ao invés de as pessoas estarem realmente querendo saber se tal ideia é correta ou não, se existem limitações, ou não tem, tem vezes que os egos e os interesses ficam acima disso. No caso de Euler, não era bem seu ego, era o interesse de manter a posição dele e receber atenção na academia de ciências. O Rei também não queria a verdade, só queria apoiar politicamente o presidente, entre outras coisas. Será que Voltaire queria a verdade? Provavelmente, também não, já que o seu principal foco era desmascarar Maupertuis, finaliza Roberto Martins, acrescentando que na atualidade, não é raro acontecerem episódios semelhantes.

(Rui Sintra – jornalista)

16 de março de 2018

Água: Uma preocupação global

Para quem não sabe, a quantidade de água no nosso planeta sempre foi a mesma, tendo um ciclo permanente a que chamamos de “hidrológico”, no qual a água se encontra nas três fases: sólida, líquida e gasosa. Contudo, o grande problema que se coloca nesse tema é que a presença do homem, no planeta, se incompatibilizou com o precioso líquido, ao colocar demandas e pressões de todos os gêneros sobre as reservas aquíferas, especialmente nas águas interiores, doces, superficiais e subterrâneas, que correspondem, aproximadamente, a 2,5% de toda a água que existe no planeta que, como se sabe, é composto por grandes oceanos onde reside a maior parte da água.

O professor e especialista José Galizia Tundisi*, do Instituto Internacional da Água, afirma que existem grandes problemas relativos à quantidade de água no planeta, devido à incidência das atividades humanas e aos usos competitivos da água, diretamente ligados às águas doces e interiores, tanto superficiais, quanto subterrâneas, mas também há um problema muito sério de qualidade do líquido, que se traduz no conjunto de substâncias químicas e especificações que constituem todo o processo natural, pelos quais a composição química da água ocorre.

Na palestra ocorrida no dia 24 de setembro, no Auditório Prof. Sérgio Mascarenhas (IFSC-USP), no já conceituado programa “Ciência às 19 horas”, Tundisi manifestou sua preocupação em face à deterioração progressiva da água, ocorrida principalmente a partir dos últimos cento e cinquenta anos, especialmente relacionada à existência de metais pesados, substâncias radioativas e tóxicas em geral: com isso, a ameaça é séria quando se diz que a disponibilidade de água está cada vez menor, uma vez que esta qualidade deteriorada implica em custos mais elevados no tratamento, ou até na acessibilidade ao precioso líquido.

Por outro lado, segundo Tundisi, as águas deterioradas têm impactos na saúde humana e, consequentemente, isso também se tem agravado ao longo dos anos. Em face de uma situação muito complexa, já que, adicionadas a essas problemáticas, existem também as mudanças globais que têm produzido desequilíbrios ecológicos, pode-se afirmar que o ciclo já não é o mesmo do passado, com profundas alterações detectadas em algumas regiões em que chovia normalmente, como no caso das nossas, no Brasil, onde tínhamos 1500 milímetros por ano, comparando, por exemplo, com este ano de 2014, em que tivemos, até agora, 1200 milímetros. Existe, de fato, um desequilíbrio ecológico, com grandes volumes de água de precipitação em algumas regiões, e secas severas em outras. Então, todo esse conjunto nos leva a uma situação de extrema vulnerabilidade da espécie humana, com relação à água, explica Tundisi.

Todavia, ainda existe outra componente que não está muito bem clara, quer para os economistas quer para a população, que é a questão de se saber qual é a quantidade de água que é necessária para manter o planeta funcionando, sem que se leve em conta os usos múltiplos da água pelo homem – a água necessária para manter os ecossistemas, para manter as plantas, para as atividades humanas, enfim, para manter todos os ciclos. É uma questão importantíssima ainda não respondida, até porque isso é o que mantém o fluxo da vida e dos nutrientes, o que agrava o sentimento de preocupação dos especialistas. A situação é bastante preocupante e é preciso que se tomem providências muito rápidas, no sentido de conservar mais água e, além disso, utilizar menos água nos volumes diários e em todas as atividades da água, sua reciclagem e reutilização. São medidas que devem ser tomadas de forma muito rápida, para que essa situação não se agrave, alerta nosso entrevistado.

Com o planeta sendo agredido dessa forma, o Brasil acaba por sofrer consequências diretas graves, já que, como já dissemos acima, o país possui áreas onde chove muito e outras onde não chove absolutamente nada, causando impactos negativos à sociedade e à economia. Será que essa disparidade poderá ser atenuada ou resolvida, politicamente? Para Tundisi, a resposta é afirmativa, desde que a diminuição ou resolução do problema passe por um processo de gerenciamento de alto nível, que envolva atividades e projetos estratégicos para o país. A solução do problema está além de qualquer ideologia política. É um projeto estratégico nacional do qual depende muito o futuro do país. Repare nas consequências desta seca de 2014, que ainda não são conhecidas em todos os seus contornos e em todas as suas diferentes rotas. Por exemplo, a falta de água levou a hidrovia do Tietê a ficar paralisada e isso teve como consequência um corte de cinco mil postos de trabalho, já para não falar nos imensos transtornos logísticos e aumento dos custos causados pela falta de transporte de milhões de toneladas de grãos que eram transportados por essa hidrovia e que hoje são transportados por terra, sendo necessários dez mil caminhões para deslocar esse mesmo volume de grãos. Ou seja, há um complexo problema de economia, poluição e contaminação e, portando, os efeitos diretos e indiretos de todo esse conjunto problemático não são conhecidos, complementa o pesquisador. Grave, também, é o fato da população ainda não ter compreendido a complexidade de todo esse problema, resumindo a questão à falta água nas casas, quando o assunto mais sério é a saúde pública, entre outros fatores relacionados com a qualidade de vida.

Tomando o exemplo de Israel, que conseguiu implantar medidas efetivas de gerenciamento de água através de grandes investimentos, de ciência e tecnologia de ponta, o Brasil também já poderia ter alcançado meta semelhante, segundo nosso entrevistado, se tivesse investido mais. Por exemplo, Israel investiu muito na dessalinização da água do mar e na construção de dutos para transporte e circulação de água, medidas essas que resolveram os sérios problemas que existiam, por exemplo, para o cultivo de plantas em áreas áridas. Inclusive, Israel tem tanques-rede de peixes em pleno deserto, com água dessalinizada, ou seja, há um investimento em tecnologia, que é preciso ser pensado para o Brasil, focando em duas vertentes importantes: a primeira é o investimento em tecnologias, em novas formas de tratamento de água e outros mecanismos, e, a segunda, a perspectiva de investimento em hard-science referente à água, como, por exemplo, a dessalinização, aplicando nanotecnologia ou outras novas tecnologias que permitam baixar os custos da dessalinização, não estando descartada a transposição (bem feita) de águas entre bacias, algo que é muito comum em países como China e Índia. Isso tem ajudado a minimizar os impactos da escassez, pontua Tundisi.

Na opinião do pesquisador, o Brasil tem que investir pesadamente em ciência e tecnologias voltadas à água, não só para conhecer os sistemas aquáticos e todos os seus funcionamentos, mas principalmente para resolver e solucionar problemas de abastecimento, de usos competitivos etc. Contudo, Tundisi admite o sucesso alcançado pelo Brasil no que diz respeito à governança da água. Nós temos uma lei avançada relativa aos recursos hídricos, aprovada em 1997, que tem um papel importante, porque ela sinaliza claramente a gestão por bacias hidrográficas e isso tem estimulado os comitês de bacias, fazendo com que a governança da água tenha melhorado bastante, mas mesmo assim é preciso que esses comitês sejam instrumentalizados por bases tecnológicas e científicas, de tal forma que eles possam, a partir daí, fazer um planejamento estratégico para cada bacia. O ideal é que estivesse bem clara e definida a disponibilidade, a demanda presente, demanda futura e os usos múltiplos de cada bacia hidrográfica, tendo em vistas as populações que cada uma delas serve, no sentido de se fazer um planejamento de longo prazo, incluindo todo esse conjunto de usos múltiplos, mudanças globais e escassez, para que se pudesse realmente ter uma gestão das águas, de uma forma mais adequada, completa o entrevistado, acrescentando que se existe uma crise de água no planeta e uma crise de governança, será necessário conciliar as duas, por forma a se atingir patamares mais adequados de disponibilidade de água.

Quanto ao processo de dessalinização, o professor Tundisi alega que, se ele fosse implementado no Brasil, resolveria, por exemplo, a problemática existente em todo o litoral nacional e, com isso, haveria água suficiente para abastecer o interior. Embora as preocupações sejam latentes, o certo é que ainda existe esperança. Temos água suficiente no Brasil, só que essa água não está bem distribuída. Enquanto na Amazônia tem um rio que descarga 225 mil metros cúbicos de água por segundo, diretamente no Oceano Atlântico, com uma população escassa, o sudeste tem uma população muito maior e muito mais atividade econômica e muito menos água disponível.

*José Galizia Tundisi é, atualmente, professor titular aposentado da Universidade de São Paulo e atua na pós-graduação da Universidade Federal de São Carlos, orientando mestres e doutores. É presidente da Associação Instituto Internacional de Ecologia e Gerenciamento Ambiental (IIEGA) e pesquisador do Instituto Internacional de Ecologia (IIE).

É professor convidado do Instituto de Estudos Avançados da USP e professor titular da Universidade Feevale (Novo Hamburgo RGS), atuando no curso de pós-graduação em Qualidade Ambiental. É membro titular da Academia Brasileira de Ciências e do “staff” do Ecology Institute- Excellence in Ecology ( Alemanha). É especialista em Ecologia, Limnologia, com ênfase em Gerenciamento Recuperação de Ecossistemas Aquáticos.

Atuou como consultor em 40 países nas áreas de Limnologia, gerenciamento de recursos hídricos, recuperação de lagos e reservatórios e planejamento e otimização de usos múltiplos de represas. Atualmente, dirige programa internacional mundial de formação de gestores de recursos hídricos para o IAP (InterAcademy Panne l- que representa 100 Academias de Ciências), sendo consultor de vários Projetos de Gestão de Recursos Hídricos a cargo do Instituto Internacional de Ecologia e de Gerenciamento Ambiental.

Tem 30 livros publicados e 1 livro no prelo, foi presidente do CNPq – Brasil (1995-1999) e presidente do projeto Institutos do Milênio. Tem 320 trabalhos científicos publicados e prêmios no Brasil no exterior.

Orientou 40 mestres e 35 doutores nas áreas de Ecologia, Limnologia, Oceanografia, Gestão de Recursos Hídricos e Gestão Ambiental. Foi assessor do Ministro de Ciência e Tecnologia, Ronaldo Sandenberg, de 1999 à 2001. Foi presidente do Programa Institutos do Milênio do Ministério de Ciência e Tecnologia. Em 1999, fundou a Secretaria Municipal de Ciência e Tecnologia e Desenvolvimento Econômico em São Carlos.

(Rui Sintra – jornalista)

16 de março de 2018

O Caminho do DNA

O Prof. Oscar Piro integra o corpo docente do Departamento de Física, da Facultad de Ciências Exactas, da Universidad Nacional de La Plata (UNLP), Argentina. Possui licenciatura e doutorado em física por aquela universidade, onde atua nas áreas de Física do Estado Sólido; Cristalografia Estrutural por Difração de Raios-X; Estrutura Cristalina, Molecular e Supramolecular; Eletrônica; Vibracional e Comportamento Magnético; e Propriedades Ópticas de Sólidos. Este docente argentino foi o palestrante convidado em mais uma edição do programa Ciência às 19 Horas, que decorreu no final da tarde do dia 19 de agosto último, no Auditório Prof. Sérgio Mascarenhas (IFSC-USP), um evento integrado nas comemorações do 20º Aniversário do Instituto de Física de São Carlos e nas celebrações do Ano Internacional da Cristalografia, uma apresentação subordinada ao tema “Uma breve história do DNA, a molécula da vida”.

Cristalógrafo de pequenas moléculas, que incluem materiais orgânicos e supramoleculares, Oscar Piro manteve, nos últimos 30 anos, uma colaboração muito forte com o Grupo de Cristalografia do IFSC-USP, especialmente com o Prof. Eduardo Castellano, no que concerne a estudos para remoção da contaminação das águas, entre outros novos projetos mais impactantes, que envolvem a física de estado sólido e problemas de desenvolvimento de metodologias teóricas. Contudo, em sua palestra, o pesquisador argentino fez uma abordagem sobre o início da biologia molecular, especialmente a forma como foram desenvolvidas as ideias e como se determinou a estrutura de uma molécula tão importante – o DNA.

Para Piro, não é exagerado dizer que o DNA é a molécula biológica mais importante, porque a informação sobre um ente biológico completo, não só no contexto humano, como, também, em todos os seres vivos, como as bactérias e o mundo animal: a codificação, que é a informação de qual é o benefício que vai sair dali, está no DNA. Minha intenção é tentar mostrar como se chegou a essa conclusão, depois de dez mil anos de estudos e observações, e como isso impacta de forma decisiva na medicina. Você sabe que defeitos genéticos residem em falhas do DNA e devido à estrutura molecular, a medicina está colhendo ensinamentos para a cura de certas enfermidades, mas não todas, comenta o pesquisador.

Todavia, segundo Piro, os estudos sobre a biologia molecular vão demorar ainda muitos anos para utilizar o DNA na cura efetiva de enfermidades mais graves no ser humano, como o câncer, já que estamos muito longe de conseguir esse feito. O DNA é como uma impressão digital. Cada indivíduo tem um DNA que é diferente de qualquer outra pessoa ou de outro ser e o mais interessante do DNA é que, durante toda a história da evolução da vida, ele sempre tem armazenado as informações da mesma forma. Esse é um aspecto muito interessante, que contrasta, por exemplo, com os tipos de armazenamento de informações eletrônicas, que mudam a todo tempo: primeiro, você teve as fitas magnéticas, depois vieram os CD’s, DVD’s, Bluray’s, pen-drives, etc., o que significa que, com o passar do tempo, você fica impossibilitado de ler a informação gravada em tecnologias mais antigas. Isso já não acontece com o DNA, pois ele sempre guarda a informação e a lê da mesma maneira, o que torna mais fácil avançar no campo de pesquisa, porque se ele é unilateral, o avanço é mais exponencial, acrescenta Piro. Em sua palestra, comparou uma célula vegetal com outra, animal, mostrando certa origem comum. Basicamente, o DNA é exatamente a mesma molécula que codifica o mesmo tipo de informação e isso é muito importante porque se podem extrair conclusões sobre a saúde humana.

Mas, com o avanço no estudo do DNA, até onde é que a ciência pode, ou deve chegar? De fato, existem problemas éticos muito sérios envolvendo determinados estudos, bem como a utilização do DNA, especialmente no que concerne à criação de novas espécies, ou modificando as já existentes. Segundo o Prof. Oscar Piro, essa área de discussão é muito ampla e envolve um conjunto lato de pesquisadores, como, biólogos, químicos, físicos, juristas, e personalidades diversas ligadas às áreas da ética e da filosofia, já que é um problema muito sério, havendo a possibilidade de o homem poder modificar todo o contexto. Contudo, uma questão fica em aberto: poderá esse problema e essa discussão bloquear o desenvolvimento científico e o trabalho dos pesquisadores? Com um bisturi, você pode matar ou salvar a vida de uma pessoa. Por isso, a ética sobre esse assunto requer muita discussão e ponderação, conclui o pesquisador.

(Rui Sintra – jornalista)

16 de março de 2018

Prof. Sidarta Ribeiro fala de sonhos, memórias e loucuras

O sono e os sonhos têm um papel fundamental na consolidação e reestruturação das memórias, indispensáveis para o aprendizado e na criação de novas ideias. Foi com este foco e com este preâmbulo que o Prof. Dr. Sidarta Ribeiro, pesquisador do Instituto do Cérebro – Universidade Federal do Rio Grande do Norte (UFRN), abordou o tema Sonhos, memórias e loucuras, no decurso de uma fantástica palestra que arrastou centenas de pessoas ao Auditório Prof. Sérgio Mascarenhas (IFSC-USP) no final da tarde do dia 5 de junho, em mais um programa Ciência às 19 Horas.

Nesta notável apresentação, Sidarta Ribeiro, colocou em perspectiva diversas noções freudianas, entre as quais a que postula a semelhança entre sonho e delírio psicopatológico. Como evoluiu a mente humana? Respostas foram dadas pelo pesquisador numa perspectiva evolucionista, partindo do sono de nossos ancestrais mais remotos, até chegar à fenomenologia dos sonhos contemporâneos, utilizando dados da genética, neurofisiologia de sistemas e psicologia.

Mas, para o leigo, qual é a relação entre o sono e o sonho? Eles têm caminhos paralelos ou caminham em um mesmo trilho para a consolidação das memórias? Para Sidarta Ribeiro, o sono é muito mais antigo. Calcula-se que ele tenha tido sua origem há cerca de quinhentos milhões de anos e, provavelmente, seja uma invenção dos mamíferos existentes nos últimos cem milhões de anos. O pesquisador afirma que existem muitas evidências de que o sono favorece a consolidação e o reprocessamento das memórias, enquanto que as evidências com relação aos sonhos sejam muito mais escassas: Apenas há três anos se demonstrou, num laboratório, que o conteúdo do sonho favorece a cognição. Então, o que se acredita hoje é que o sonho é um epifenômeno do sono, mas que também tem valor cognitivo explica o docente.

Usualmente, as definições entre sonho e delírio são bem distintas, já que o delírio é tido como um reflexo de algum tipo de doença. Então, qual a diferença entre os dois estados? Para esta questão, Sidarta Ribeiro afirma que, já no Século XIX, os pais da psiquiatria, como Emil Kraepelin e Freud, reconheciam uma semelhança muito grande entre sonho e psicose, especialmente no que dizia respeito aos sintomas positivos da psicose, como o delírio. Essa teoria, que foi muito consistente ao longo de várias décadas, perdeu espaço após os anos 1950 quando se descobriu que, modulando receptores de dopamina, era possível conter o delírio psicótico. Recentemente, existe, de fato, uma relação entre esses dois estados: Sim, existe, porque sem o sistema dopaminérgico, envolvido em recompensa e punição, não há sonho, embora exista sonho REM, que é o sono que, tipicamente, contém os sonhos. Então, na verdade, essa afirmação de que sonho se parece com delírio psicótico, hoje é muito forte porque existe um mecanismo que é exatamente o sistema dopaminérgico, elucida Sidarta.

O Instituto do Cérebro da Universidade Federal do Rio Grande do Sul, onde Sidarta Ribeiro desenvolve sua atividade, foi criado em 1995, quando neurocientistas brasileiros que trabalhavam nos EUA e na Europa começaram a cogitar a ideia de regressar ao Brasil, com a intenção de promover uma repatriação para um revigorar o país com talentos que se encontravam no exterior. Embora tenha sido um processo longo, o certo é que em 2011, no dia 13 de maio, foi enfim criado o Instituto do Cérebro, na Universidade Federal do Rio Grande do Norte, voltado principalmente para pesquisa. Ainda hoje, dos dezessete professores que estão nesse instituto, cinco são estrangeiros, havendo a intenção de, pelo menos, manter vinte e cinco a trinta por cento de professores não brasileiros.

No que diz respeito ao Laboratório Sono, Sonhos e Memória – o lar de Sidarta Ribeiro no Instituto do Cérebro da UFRN, muitas das pesquisas desenvolvidas nessa infraestrutura são voltadas à cognição de mamíferos (macacos, ratos e gatos), mas também tem uma pesquisa importante com células tronco, reprogramação celular, além de outras linhas de pesquisa, de informática, mas, certamente, a parte de memória e de aprendizado é muito sólida. O laboratório navega em diferentes modelos de testes, desde ratos e camundongos até o ser humano, no sentido de tentar entender como, em diferentes níveis, se o processam as memórias, conscientes ou inconscientes, levando ao aprendizado durante o sono e a vigília.

Uma segunda linha de pesquisa deste laboratório diz respeito à comunicação vocal e competência simbólica em animais não-humanos. O foco é o sagui (Callithrix jacchus), uma espécie bastante vocal de macaco do novo-mundo. Atualmente, o laboratório dedica-se ao estudo etológico do repertório vocal do sagui, bem como ao mapeamento, por meio da expressão de genes imediatos dependentes de cálcio, das áreas e vias cerebrais relacionadas à audição e produção das vocalizações.

Mais informações sobre o instituto e o trabalho laboratorial de Sidarta Ribeiro poderão ser encontradas, clicando AQUI

(Rui Sintra – jornalista)

16 de março de 2018

O Pouso do Curiosity em Marte

Dialogar com o Prof. Ivair Gontijo é apaixonante, principalmente pela forma como ele consegue nos contagiar ao descrever seu trabalho, seus receios e sucessos, num ambiente altamente avançado em nível científico e tecnológico, como é o da NASA (EUA).

O mineiro Ivair Gontijo completou sua graduação em Física e mestrado em Óptica no Departamento de Física da Universidade Federal de Minas Gerais (UFMG), em 1985 e 1987, respectivamente. Em 1988, mudou-se para a Escócia, onde obteve o doutorado no Departamento de Engenharia Elétrica da Universidade de Glasgow, em 1992, tendo, na sequência, trabalhado como pesquisador em lasers de semicondutores, detectores de luz e estudos de materiais, tanto na Universidade de Glasgow quanto na Heriot-Watt University, em Edimburgo, igualmente na Escócia. Em 1998, Ivair mudou-se para Los Angeles, Califórnia, onde trabalhou na University of California, Los Angeles (UCLA) por dois anos e meio, desenvolvendo novos materiais e dispositivos baseados em cristais fotônicos.

Uma decisão de mudar de área levou o cientista brasileiro a trabalhar entre 2000 e 2005 para empresas de comunicação por fibra óptica, como gerente de projetos. Com a migração da indústria de fibra óptica para a Ásia, Ivair mudou novamente de área, passando a projetar lentes esféricas para cirurgias de catarata em uma empresa de biotecnologia com fábricas na Califórnia, Suíça e Japão. Ivair já produziu duas novas patentes para a empresa e existe mais de um milhão de pessoas no mundo usuárias das lentes por ele projetadas. Desde 2006, Ivair trabalha no Jet Propulsion Laboratory (JPL), da NASA, em Pasadena, Califórnia. Em seu primeiro projeto, liderou a fabricação dos transmissores e receptores de micro-ondas para o radar que controlou a descida final, em Marte, do veículo exploratório Curiosity, sendo que, atualmente, Ivair trabalha em um projeto que visa enviar uma sonda para Europa, uma das luas de Júpiter.

Foi exatamente sobre a aventura do pouso do Curiosity, em Marte, que incidiu mais uma edição do programa Ciência às 19 Horas, que ocorreu no dia 26 de maio, no Auditório Prof. Sérgio Mascarenhas (IFSC-USP), onde uma vasta plateia se aglomerou para ouvir o Prof. Ivair Gontijo

Em entrevista exclusiva concedida à Assessoria de Comunicação do IFSC-USP, Gontijo considera-se um trapezista, alguém que passa a vida caminhando na corda bamba e que já se habituou com todos os solavancos e desiquilíbrios, mas que, simultaneamente, se sente confortável em estar nessa situação, até porque a regra é tombar algumas vezes e sempre voltar a subir na corda, continuando em frente. Com acentuado humor, Gontijo conta que na época em que começou a trabalhar em Los Angeles, na área de fibra óptica, pensou que finalmente poderia ficar rico, mas a empresa onde trabalhava acabou quebrando e, ao invés de ganhar muito dinheiro, em seis meses todos os funcionários da citada empresa estavam procurando novo trabalho.

Após esse incidente no percurso profissional de Ivair Gontijo. ele trabalhou em duas empresas de comunicação por fibra óptica e, logo em seguida começou à procura de empregos quando as indústrias de fibra óptica migraram para a Ásia, uma época onde cerca de trezentos mil engenheiros perderam seus empregos, no ano de 2003, nos EUA. Com o regresso de muitos técnicos e pesquisadores que se encontravam sediados na China, Índia, Brasil e um pouco por mundo, todo esse contingente regressou aos Estados Unidos, tendo migrado para outras áreas: Comecei a projetar lentes para cirurgia de catarata, numa empresa de biotecnologia. Nessa época, eu tinha enviado meu currículo para doze pessoas na NASA, sempre com alguma esperança, mas nunca recebi qualquer tipo de resposta. Na verdade, eu sempre digo que não sou bom para descobrir quais são as boas oportunidades na vida. Aquelas oportunidades que eu achava que eram as grandes oportunidades, nenhuma delas deu certo. Aquelas coisinhas, muito pequenininhas, que nem esperava que dessem certo, foram as que de fato abriram meu caminho. Coloquei o meu currículo num site relativo a uma conferência e foi assim que uma pessoa do Jet Propulsion, da NASA, entrou em contato comigo e me chamou para uma entrevista, recorda Ivair.

 

De repente, o veículo ‘Curiosity’ estava entregue a um cientista brasileiro

No Jet Propulsion, propuseram a Ivair o desenvolvimento de um projeto relacionado com lasers de semicondutores e uma semana depois descobriram que ele tinha experiência em montagens de circuitos de radiofrequência; aí, colocaram-no a trabalhar no projeto Mars Science Laboratory (MSL), que enviaria o jipe Curiosity para Marte: Na verdade, o MSL não tinha ninguém que soubesse trabalhar com radiofrequência, ou que tivesse uma visão ampla para mexer não só com física dos semicondutores dos dispositivos eletrônicos, como também colocar tudo aquilo numa caixa, transformando o conjunto em um dispositivo (transmissores de radar) que pudesse ser integrado com o resto da espaçonave. Foi assim que passei a gerenciar um grupo de técnicos só para essa finalidade, comenta nosso entrevistado. Essa equipe construiu o radar que mais tarde iria controlar a descida do Curiosity (com um peso de 900 Kg) em Marte: Se esse equipamento não funcionasse, o resto seria irrelevante, porque iria se transformar em um monte de ferro velho depositado em Marte. Aquilo tinha que descer, custasse o que custasse, e a missão do radar foi medir a altura que o Curiosity estava do solo marciano, bem como indicar a velocidade de descida. Sem essas medidas, todo o equipamento iria descer de uma forma descontrolada e iria virar um monte de ferro velho, mas no final deu tudo certo, afirma Ivair.

A descida do Curiosity, em Marte, foi acompanhada em rede nacional de televisão, nos Estados Unidos, com muita apreensão, pois todos sabiam que existiam milhares de razões e de problemas para que algo desse errado: afinal, controlar remotamente a descida do veículo, num ponto específico do planeta Marte, mesmo contando com o auxílio de dois satélites que já se encontram na órbita daquele planeta, não era tarefa fácil, embora toda a equipe da NASA tivesse dado o seu melhor.

Para Ivair Gontijo, os momentos finais da descida foram dramáticos. Toda a física aplicada naquele projeto estava certa, as ideias e cálculos estavam corretos, só que era um projeto de muitos detalhes: um parafuso mal apertado jogaria todo o projeto para o lixo. Então, se todos os detalhes fossem feitos de forma correta, o projeto iria dar certo: Eu só acreditei mesmo quando vi a primeira foto tirada pelo próprio Curiosity, com a sombra do veículo parado na superfície do planeta: e dava para ver, inclusive, as rodas dele. Durante a descida, parecia um ensaio, parecia que não era de verdade, foi tudo absolutamente perfeito. Não teve nenhum problema durante a descida, comemora Gontijo.

Após esse grande sucesso, a NASA decidiu entregar a Ivair Gontijo outra missão, esta para ser concluída daqui a aproximadamente dez anos e numa área completamente diferente da anterior: agora, o desafio de Gontijo é contribuir para o projeto de lançar uma sonda com destino a Europa – uma das luas do planeta Júpiter – colocando o equipamento em uma órbita muito próxima da superfície, com a intenção de um estudo mais aprofundado. Júpiter é coberto de gelo, e ele se move, se quebra, tem várias rachaduras e sai material lá de baixo. Parece que abaixo do gelo existe um oceano, água líquida, uma espécie de oceano global, prevendo-se que exista mais água aí do que em nosso planeta: Na Terra existe água, logo vida. É importante saber se existem essas condições propícias à vida na lua Europa, que também é a grande pergunta que fazemos sobre Marte; se existem essas condições, que chamamos de habitabilidade, a vida pode-se ter formado lá, também”, justifica Ivair.

(Rui Sintra – jornalista)

16 de março de 2018

A Eugenia Natural de Darwin: Genética e Evolução de uma Ideia

Eugenia é um termo criado pelo cientista Francis Galton para indicar o estudo dos agentes sob o controle social – seja ele física ou mental – que podem melhorar ou empobrecer as qualidades raciais das futuras gerações. Em outras palavras, é o próprio Homem que direciona sua própria evolução através da seleção dos caracteres mais desejáveis, como força física e inteligência, na forma de cruzamentos entre indivíduos “mais aptos”, com a eliminação dos “menos aptos” ou “fracos”.

Foi sob esta perspectiva inicial que tivemos a oportunidade de falar com o Prof. Dr. Marcelo Briones, atual Coordenador do Laboratório de Genômica Evolutiva e Biocomplexidade da Universidade Federal de São Paulo (UNIFESP), palestrante convidado em mais edição do programa “Ciência às 19 Horas” que ocorreu no dia 29 de abril, no IFSC-USP, numa apresentação subordinada ao tema A Eugenia Natural de Darwin: Genética e Evolução de uma Ideia.

Tal como citado no resumo de sua palestra, terá sido o primo de Galton, Charles Darwin, que propôs uma teoria sobre a evolução das espécies como sendo produto de um mecanismo gradual de seleção natural de pequenas alterações aleatórias, que gerariam novas espécies a partir de espécies ancestrais, onde os descendentes mais aptos sobreviveriam com mais eficiência na competição pela existência. Segundo o citado resumo, usualmente aprende-se que a teoria evolutiva “natural” apareceu antes das teorias do darwinismo social e eugenia.

Na referida palestra, o nosso entrevistado procurou demonstrar que, na realidade, foram as teorias de seleção social de cunho malthusiano e influenciadas pelo cientista social Herbert Spencer, que influenciaram a teoria da seleção natural. Briones mostrou, ainda, como todos estes personagens da seleção natural e de sua “filha” obrigatória – a eugenia – eram conectados pela filiação de seus ancestrais à Sociedade Lunar de Birmingham e que muito do que é apresentado como acidental e inspiratório tem uma conexão muito forte com as teorias de superioridade racial da elite do império britânico, que estava em plena expansão durante a era vitoriana e que necessitava de uma justificativa moral e “natural” para a dominação de outros povos, em estágios “evolutivamente mais atrasados”.

Uma das “provocações” lançadas por Marcelo Briones ao vasto lote de espectadores que marcou presença no Auditório Sérgio Mascarenhas, foi a questão – a ciência influencia a sociedade ou a sociedade influencia a ciência? Simultaneamente, o palestrante disponibilizou inúmeros dados e documentação que mostraram a existência de uma íntima ligação entre os grupos darwinistas mais radicais, as sociedades de eugenia, os programas de esterilização de incapacitados nos Estados Unidos, o laboratório de eugenia genética de “Cold Spring Harbor” e a conexão com o programa de eugenia nazista, onde um proeminente geneticista americano – Dr. Charles Davenport – foi um dos mais ativos contribuintes. Já na parte final de sua apresentação, Briones mostrou, através de seu ponto de vista, como os programas de eugenia continuam ativos, mas de um modo mais dissimulado em técnicas de genética e reprodução humana, tendo apontado os nomes de Richard Dawkins e James Watson como seus mais visíveis defensores atuais, com a apresentação de algumas visões atuais não-darwinistas da evolução, defendidas por cientistas como, Lynn Margulis, Carl Woese e a epigenética de Eva Jablonka.

Mas, independente daquilo que foi apresentado na citada palestra, a principal questão é: de que forma é que se demonstra que foram as teorias de seleção social que influenciaram a teoria da seleção natural? Esta foi exatamente a primeira questão colocada a Marcelo Briones, em entrevista realizada um pouco antes de sua apresentação. Para nosso entrevistado, esse conceito não é uma ideia dele, já que existem vários autores abordando esse tema, entre eles um professor espanhol muito famoso – Maximo Sandin -, da Universidade Autônoma de Madrid, que confirma a já longa existência de uma influência das teorias sociais em cima das teorias naturais: “Quando se observam as datas das publicações, vê-se nitidamente que as teorias sociais antecedem as publicações das origens das espécies, pontua Briones, dando como exemplo o livro de Herbert Spencer – “Estática Social”-, datado de 1851, e o livro de Darwin, cuja primeira edição é de 1859, ou seja, publicado oito anos depois: Então, o próprio Darwin, na bibliografia dele, agradece a Malthus, porque foi com a leitura de seus escritos que ele passou a ter uma teoria sobre a qual trabalhar – a teoria Malthusiana -, que sinaliza que os recursos naturais crescem em progressão aritmética e as populações crescem em progressão geométrica. Portanto, existe um ponto no tempo onde vai haver, necessariamente, uma competição cada vez maior pelos recursos disponíveis. Essa competição vai eliminar os mais fracos e promover a sobrevivência dos mais fortes e essa era exatamente a visão inglesa nessa época, salienta o pesquisador da UNIFESP, que enfatiza que Maximo Sandin vai mais longe ao afirmar que a teoria darwinista é um braço científico da teoria do livre mercado de Adam Smith.

Ao realizar, em 2011, um sabático interno em seu laboratório, como consequência de um trabalho numa linha de pesquisa designada de “Evolução Microbiana Experimental”, Marcelo Briones estudou e refletiu sobre os antecedentes das bases do pensamento evolucionário – como elas foram formadas e os primeiros autores, como Darwin e Lamarck, dentre outros, e as provas que conseguiu reunir foram traduzidas em inúmeros trechos de textos, bem como as datas anteriores de toda a lógica social da Inglaterra: Realmente, quando você olha todo o contexto dessas obras, a impressão que você tem é que a teoria de Darwin caiu como uma luva numa sociedade vitoriana, imperialista e que estava se expandindo muito; aquilo serviu como uma justificativa naturalista para a dominação inglesa no mundo, pontua Briones.

O nazismo e a pureza racial “ariana”: consequências para o futuro

As ideias de eugenia e de pureza racial ultrapassaram as fronteiras britânicas e expandiram-se para os Estados Unidos e daí para a então Alemanha nazista, onde ganharam conotações muito pesadas, principalmente através da influência da ariosofia de Madame Blavatsky. Segundo Briones, quem ensinou os nazistas a fazer eugenia e esterilização em massa foram os americanos, especificamente um pesquisador chamado Charles Davenport, um geneticista famoso que possuía um centro – o Eugenic Record Office -, em Cold Spring Harbor, financiado pela Rockfeller Foundation e pela Carnegie Institution, duas instituições que se encontram sempre presentes em qualquer evento científico que envolva controle social. Para Briones, o exemplo de a Alemanha ter querido instituir a raça ariana como pura, é verdadeiramente assustador: Sempre pensei que o nazismo era um sistema político ou uma ideologia, como o comunismo, mas não era. O nazismo era o que os alemães chamavam de visão de mundo, muito influenciado pelo ocultismo da Helena Blavatsky (nome de casada) – que não era russa, mas sim ucraniana e cujo nome de solteira era Helena von Hahn. Ela tinha toda uma teoria sobre a evolução das raças humanas, que era a teosofia dela. E foi Helena Blavatsky que implantou essa doutrina do nazismo, introduzindo, inclusive, o símbolo da suástica. Ela fez meditação com os monges budistas, no Tibete, meditando sobre a raça ariana, sobre o Deus do Fogo – protetor dos arianos – e nessa meditação ela viu a cruz suástica: daí a relação da suástica como o símbolo da raça ariana, explica Briones.

Segundo o nosso entrevistado, os nazistas foram muito influenciados por dois autores: Jörg Lanz Von Liebenfels e o Guido Von List. Na Áustria e Alemanha, ainda no Século XIX, surgiu um movimento que considerava o Cristianismo como uma influência deletéria do judaísmo na civilização alemã e que isso teria destruído os espíritos dos cavaleiros arianos puros. Como consequência, o nazismo terá sido uma mistura dessa eugenia britânica, dessa parte científica, com a mentalidade desse ocultismo todo, que vem pelo outro lado, via Guido Von List e Liebenfels. Uma das peças deste imenso quebra-cabeça decifrado por Briones leva a Jörg Lanz Von Liebenfels que publica uma revista chamada “Ostara”, cujo nome é exatamente o de uma deusa da primavera, figura do folclore nórdico-saxão; e é essa deusa que dá o nome da Páscoa, “Easter” – que vem de Ostara, sendo que era nessa mesma revista que se publicavam todas as citadas doutrinas, tanto do viés genético superior ariano, quanto do viés ocultista: Imaginem quem era um dos assíduos leitores dessa publicação? Adolf Hitler, que tinha em sua casa todas as edições da “Ostara”. Isso teve uma influência enorme. Nessa época, Hitler entra numa sociedade chamada Sociedade Thule. Então, ele já tinha toda a parte do misticismo nazista formado, fortemente anticristão, porque para os nazistas o Cristianismo era uma força que estava destruindo o espírito germânico. Quando Charles Davenport vem dos EUA com as técnicas genéticas, aquilo foi a mão e a luva para o nazismo iniciar o seu programa de eugenia, que é o mais agressivo, até hoje, enfatiza Briones. Hitler dizia que o ato de matar os doentes mentais era uma ação de bondade extrema, porque você estava libertando o espírito de um corpo defeituoso. Para Briones, isso começou com os deficientes mentais. Esterilização, aborto e eutanásia são os três grandes instrumentos das políticas eugenistas: Isso é chamado de eugenia negativa – você elimina os fracos da população. E o argumento que eles tinham era uma justificação natural de que a natureza faz isso. Por isso que Darwin é importante, pontua o pesquisador.

Esse caso de eugenia relatado por Briones é, em sua opinião, um caso clássico, onde pela primeira vez uma ideia, ou descoberta científica, foi implementada como um programa de estado, colocando a religião totalmente de lado. Para o nosso entrevistado, os indivíduos que estavam por trás desta metodologia eram extremamente inteligentes e conseguiram passar sua mensagem adiante: Se você pesquisar quem é que faz parte da lista de membros da “British Eugenics Society”, você vai cair para trás. Estão lá personalidades como, Neville Chamberlain, John Maynard Keynes, Margaret Sanger – do “Planned Parenthood” -, vários geneticistas famosos, até o próprio filho de Darwin. A lista ainda existe, só mudou de nome: ela passou de “British Eugenics Society” para “Galton Institute”, mas é a mesma coisa, ela continua existindo e os objetivos são os mesmos, sublinha Marcelo Briones.

Algo interessante revelado por nosso entrevistado é que os programas de eugenia continuam, só que de forma “underground”, dissimulados. Briones afirma que o discurso mudou, sendo que a eugenia está agora presente em duas frentes: A eugenia está nesse negócio de terapia gênica: tudo que é terapia gênica, para consertar o ser humano, tem a mão desse pessoal aí no meio; e o outro lado da eugenia é esse negócio de proteger a terra – ‘a terra está populosa demais’, ‘é preciso matar milhões de pessoas para que existam recursos naturais suficientes para todos-, eles sempre apresentam isso como benefício, mas os instrumentos que existem nos bastidores sempre são os mesmos e você pode ver que essas pessoas estão conectadas com o pró-aborto e a pró-eutanásia. Recentemente, li um artigo no “Journal of Medical Ethics”, de uma italiana e de um professor de filosofia, advogando algo que eles classificam como “aborto pós-natal”. O que eles diziam? Que depois de uma criança nascer, até mais ou menos três semanas depois do parto, ela ainda pode ser considerada um feto e, portanto, você pode eutanasiar ela. Eles estão tentando legalizar um aborto pós-natal. Eles dizem que aquilo ainda não é um indivíduo, é uma massa de célula. Geralmente, as características mais desejáveis são as nórdicas, isso é nítido. Essa influência é inevitável, conclui o pesquisador.

(Rui Sintra – jornalista)

16 de março de 2018

Tudo o que você sempre quis saber sobre o câncer de mama

Ela é a segunda neoplasia mais frequente em termos mundiais. Estamos falando do câncer de mama, um tema que foi destaque da edição do dia 18 de março de 2014 do programa “Ciência às 19 Horas” e que atraiu um público majoritariamente feminino. O evento, que decorreu no Auditório Prof. Sérgio Mascarenhas (IFSC-USP), teve como palestrante o Dr. Diocésio Alves Pinto de Andrade, oncologista clínico do InORP – Instituto Oncológico de Ribeirão Preto (SP), que aproveitou o momento para apresentar o livro recentemente publicado pela GBECAM – Grupo Brasileiro de Estudos do Câncer de Mama, intitulado “Tudo o que você sempre quis saber sobre o câncer de mama”*.

De fato, aquele que é considerado o câncer mais prevalente e teoricamente tranquilo, é o câncer de pele não-melanoma, que apresenta lesões de pele comuns, ou seja, as tradicionais pintas na pele. Já o câncer de mama é a neoplasia mais frequente na mulher, enquanto o câncer de próstata é mais frequente no homem.

Para o Dr. Diocésio de Andrade, a explicação para o principal fator de risco no desenvolvimento do câncer de mama, é tão somente o fato de ser mulher: Convém recordar que o homem também pode ter câncer de mama, embora numa porcentagem muito baixa, mas pode acontecer, principalmente quando existe uma história familiar positiva. O câncer de mama é um câncer que geralmente tem um pico de incidência um pouco alto, que surge entre a quinta e sexta década de vida e, associado a isso, aparece com algumas alterações hormonais – uma alta exposição a estrógeno. Mulheres que têm a primeira menstruação muito cedo, ou têm a última menstruação muito tarde, que nunca engravidaram ou que não amamentaram, são mais propensas a desenvolver o câncer de mama: esse é o grupo de maior risco, sublinha o clínico.

Existe um grupo pequeno de tumores de câncer de mama que tem uma síndrome familiar positiva, que é uma mutação em alguns genes. O câncer de mama tem dois genes principais – e isso foi muito discutido no ano passado, quando a Angelina Jolie fez a mastectomia: nesse caso, foi a mutação dos genes BRCA1 e do BRCA2, que quando estão mutados, aumentam muito o risco do câncer de mama. Para Diocésio de Andrade, o aparecimento de um câncer de mama tem diversos motivos, não se podendo apontar uma única ou principal causa: Hábitos de vida também favorecem o desenvolvimento do câncer de mama, tais como a obesidade e o sedentarismo, embora o etilismo e o tabagismo sejam ainda temas controversos nesta área, pois não existe, por enquanto, uma relação causal entre esses dois vícios, mas os estudos demonstram uma certa probabilidade de eles eventualmente aumentarem o risco de câncer de mama, enfatiza Diocésio.

Quando falamos de câncer, em termos gerais, a forma mais eficaz para combater o mal é através da prevenção e, no câncer de mama, especificamente, existem formas de fazer uma prevenção secundária. E referimos a prevenção secundária, já que a prevenção primária consiste em um tratamento específico para que uma pessoa não desenvolva a doença: O câncer de mama não tem nenhum remédio, nenhuma mágica para o evitar. Prevenção secundária é diagnosticar cedo para você poder tratar bem e aumentar a chance de cura do paciente. Então, qual é a prevenção secundária no câncer de mama? Fazer mamografia, elucida o clínico.

Contudo, segundo o especialista, existem duas correntes: a do Instituto Nacional do Câncer, que fala que a mamografia deve ser feita anualmente, entre os 50 e 69 anos de idade. Trata-se de uma política de saúde pública, então tem custo-benefício de gasto do governo. A outra corrente é a da Sociedade Brasileira de Mastologia e da Sociedade Americana de Cancerologia, que sugere que a mulher deverá fazer uma mamografia anual a partir dos 40 anos de idade. Diocésio de Andrade é a favor desta última corrente, alegando que quanto mais precoce for o exame, melhor, embora não discorde em absoluto da primeira corrente de opinião: Estudos mostram que a partir dos quarenta ou cinquenta anos, a incidência não é tão grande. Então, de forma alguma podemos considerar errado esse estudo do Governo, mas ainda assim prefiro indicar a realização desse exame a partir dos 40 anos de idade. Contudo, fazer uma mamografia antes dessa idade não adianta nada, a não ser que seja uma mulher que tenha um histórico de família com câncer de mama, ou seja, duas gerações consecutivas em que duas pessoas tiveram câncer de mama. Nesses casos, está indicado começar o rastreamento da doença de forma mais precoce, mas o exame não é mais a mamografia, mas o ultrassom de mama. Por quê? Porque a mama da pessoa mais jovem é muito densa e o raio emitido por uma mamografia não consegue diferenciar entre a densidade da mama e de um nódulo e, aí poderá haver um diagnóstico errado, aquilo que chamamos “falso negativo”. Assim, nesses casos, quem vai dar o resultado correto será o ultrassom da mama, explica o médico.

Vamos supor que uma paciente desenvolve um câncer de mama e acaba por falecer devido às consequências dessa doença, e que ela tem filhos homens. O risco de eles terem um câncer em decorrência da doença da mãe é cerca de 1%, portanto, uma hipótese muito remota.

O câncer é uma realidade na vida de qualquer família, sendo difícil não haver alguém que não tenha tido um parente de primeiro grau que não teve algum tipo de câncer. É um problema que tem de se enfrentar, até porque a doença é, atualmente, um problema de saúde pública, sendo a segunda causa de óbito no mundo, só perdendo para as doenças cardiovasculares – infarto e AVC. O câncer é uma doença terrível, porque ela sempre acha um caminho para se multiplicar, ou seja, ela descobre atalhos. Segundo Diocésio de Andrade, nos últimos dez anos os estudos conseguiram diagnosticar várias dessas vias de acesso e, melhor do que isso, conseguiram-se desenvolver vários medicamentos contra essas vias. Só que as vias não são simples: cada mutação obriga a se descobrir um remédio: É uma batalha incessante: o tumor consegue entrar por um caminho, você vai, bloqueia essa via em uma determinada parte, e ele consegue fazer um desvio. Então, você sempre tem que correr atrás do câncer para “fechar as portas” e quando você fecha uma, ele dá a volta no corredor e abre outra porta. É mais ou menos esse comparativo, comenta nosso entrevistado.

Ao contrário do que se possa pensar, o câncer sempre existiu; a diferença é que não havia tecnologia para o diagnosticar. Não havia qualquer método de imagem para diagnosticar um câncer, só que o intenso combate à doença teve um avanço exponencial nos últimos cinco anos: Em vez de falar em cura, eu prefiro muito mais abordar o diagnóstico precoce para aí sim, você poder fazer a cura através da cirurgia, do que demorar a diagnosticar e o câncer já estar espalhado e ficar difícil de curar. A “esperteza” do câncer para burlar todos os bloqueios é muito maior ainda do que o nosso conhecimento, conclui o médico.

*O livro poderá ser adquirido ou pedido na Livraria Saraiva

(Rui Sintra – jornalista)

16 de março de 2018

O papel do venture capital no desenvolvimento tecnológico

Qual é o papel do venture capital no desenvolvimento tecnológico? Bem, para responder a essa pergunta eu vou levar, no mínimo, cinquenta minutos. Foi desta forma descontraída e bem humorada que o Prof. Fernando Reinach iniciou sua breve conversa com a Assessoria de Comunicação do IFSC, um pouco antes de iniciar sua palestra, ocorrida no dia 1º de outubro em mais uma edição do programa Ciência às 19 Horas, um evento que esteve inserido na 3º SIFSC – Semana Integrada do Instituto de Física de São Carlos.

Graduado em Biologia, pela USP (1978), Fernando Reinach fez seu Mestrado em Histologia e Embriologia (1980) também na USP, e o PhD em Biologia Molecular (1984) no Cornell University Medical College (USA), tendo sido um dos mais destacados docentes da USP. Atualmente, Reinach é Gestor do Fundo Pitanga de Investimento.

Na verdade, o venture capital é um dos instrumentos que visa transformar o conhecimento científico – aquele que é feito nas universidades e nos centros de pesquisa – em algo produtivo, por intermédio da ação de empresas criadas pelos próprios cientistas: ou seja, transformar o conhecimento em dinheiro, converter as ideias científicas em empresas. E, segundo Reinach, na maior parte dos países desenvolvidos, o financiamento para este tipo de ação vem dos fundos de venture capital. É claro que estamos falando do que acontece no exterior, já que no Brasil ainda existe algum preconceito dos cientistas darem esse passo, sendo raro encontrarmos essa realidade em nosso território: Existem pouquíssimas empresas de cientistas no nosso país, até porque ainda não existe essa cultura: os cientistas vêm esse caminho como uma espécie de prostituição. Mas, nas sociedades desenvolvidas a criação dessas empresas está indelevelmente ligada ao desenvolvimento econômico e social, que justifica grande parte do investimento em pesquisa, refere Reinach.

Para o nosso entrevistado, o gargalo está no fato da universidade ter ficado parada no tempo: Durante toda a época da ditadura, em nosso país, a universidade ficou isolada do setor privado. Nessa época, eu estava na universidade e nós tínhamos uma reação enorme contra o governo. O governo era um “inimigo” que matava nossos amigos, que os torturava etc. Então, a universidade ficou como sendo um centro de resistência, com um pensamento mais livre na época da ditadura, pontua nosso entrevistado. Na interpretação de Fernando Reinach, quando acabou o período militar e uma nova realidade despontou no Brasil, a universidade continuou sua marcha lenta, conservadora, mantendo-se ainda lenta para se abrir a uma sociedade em crescente desenvolvimento, motivo pelo qual a academia ainda vê as ações do setor privado e do governo com certa desconfiança.

Para Fernando Reinach, a academia precisa de dar um grande salto em frente, não só em relação ao tema do capital venture, como também em relação à sua própria postura, tendo dado o exemplo prático de quando idealizou e coordenou o Projeto Genoma – Sequenciamento do Genoma da bactéria Xylella fastidiosa, que foi o ponto de partida para o desenvolvimento de novas pesquisas em genômica: De fato, quando nós publicamos o Genoma Xyllela, ficamos monitorando quem baixava a sequência e descobrimos, por incrível que possa parecer, que, só na primeira noite após a publicação, todas as multinacionais e companhias agrícolas americanas e europeias tinham baixado essa sequência, sem a participação de nenhum brasileiro. Então, concluímos que tínhamos gasto um dinheirão para gerar essa sequência em proveito de estrangeiros. O que adianta a gente ficar fazendo muita ciência, aqui, se você publica essa ciência e nós não temos alguém para dar o próximo passo para transformar essa ciência em alguma coisa prática? Por isso eu digo, o Brasil está despreparado para o sucesso, enfatiza o pesquisador.

Na sua perspectiva da ciência para o século XXI, Reinach afirma que ela é cada vez mais importante para a sociedade moderna, embora, em contraponto, o pesquisador saliente que agora, com tudo muito mais transparente graças às novas tecnologias de informação, um dos problemas da ciência é como é que ela vai justificar os seus gastos para quem paga os impostos: De fato, ainda não tem um questionamento se o gasto com ciência justifica o caso de ter um país pobre: Nós, cientistas, acreditamos que sim. Por outro lado, há quem diga que o que se gasta com ciência é um investimento. Então, se é um investimento, isso tem que ter um resultado, além da formação de recursos humanos. Dando o exemplo da Califórnia (EUA), onde constantemente são criadas empresas de base científica e tecnológica que geram riquezas para o estado e para o país, Fernando Reinach lamenta o caso particular de São Carlos, onde existem poucas e pequenas empresas: No Brasil, você não fala que uma empresa enorme é resultado de investimento científico. Então, se você tiver que justificar com números de impostos gerados, o ideal era que, por exemplo, você investisse dez em ciência, para que os conhecimentos resultantes dessa mesma ciência gerassem vinte em PIB. Meu amigo, estamos muito longe disso, conclui o pesquisador.

(Rui Sintra – jornalista)

16 de março de 2018

Projeto Mar sem Fim

Em mais uma edição do programa Ciência às 19 Horas, realizado no dia 17 de agosto no Auditório Prof. Sérgio Mascarenhas, no IFSC-USP, o tema intitulado Projeto Mar sem Fim foi magistralmente apresentado pelo palestrante convidado, o jornalista João Lara Mesquita.

A palestra consistiu na apresentação de algumas viagens realizadas através do Projeto Mar Sem Fim pela costa brasileira, argentina, chilena e antártica, entremeadas com dados a respeito das descobertas que estas viagens proporcionaram. O palestrante mostrou os ecossistemas da costa brasileira, sua ocupação desordenada, os aspectos positivos da legislação ambiental e como os brasileiros, infelizmente, deram as costas ao mar. Finalizando, João Lara Mesquita falou e mostrou aspectos das viagens feitas para a Antártica, a importância daquele continente para o clima mundial, a cadeia da vida marinha em todos os oceanos e o trabalho que os cientistas brasileiros fazem no continente gelado.

Em entrevista à Assessoria de Comunicação do IFSC, João Mesquita explicou o fundamento do projeto, cujo  objetivo é trazer à tona a discussão da questão do ecossistema marítimo. Como jornalista e ambientalista, Mesquita é sagaz ao ponto de detectar que, de cada dez matérias que saem sobre o meio ambiente, sete ou oito são continentais: Eles se esquecem de falar do mar e nós temos todos os motivos para falar do mar. Ele é a placenta que nos deu cria, somos fruto da aventura portuguesa, uma aventura marítima fabulosa. Fico triste de ver como ela é desconhecida no Brasil, como ela é pouco valorizada. Nós temos um litoral vastíssimo e as pessoas não sabem a importância do mar. A maioria das pessoas associa mar com lazer (praia, fim de semana, férias etc). O objetivo deste projeto é, sinteticamente, mostrar que nossos oceanos são muito mais do que isso; são importantíssimos para a vida no planeta Terra: é o ecossistema mais importante que existe e o objetivo do projeto é justamente levantar essa questão na mídia, focar e mostrar essa importância.

Para o palestrante, o litoral brasileiroestá, infelizmente, ao Deus dará: Nós temos uma legislação ambiental que é considerada por muitos especialistas como uma das mais completas do mundo, mas ela é inexequível, pois não há fiscalização, não se sabe quem deve fazer o quê: a legislação ambiental brasileira delega umas vezes para o município, outras para o estado, e muitas das vezes até para a federação, critica Mesquita: E você percebe que não se sabe que o poder público, que está em atuação no litoral brasileiro, não entende o que concerne e o que não concerne ao poder estadual e assim por diante: o estado não permite, o município vai lá e permite, ou seja, há um constante conflito e há um conflito de interesse no litoral a empreendedores que querem construir e devem e podem construir desde que respeitem certas regras – pela fragilidade do ecossistema e por uma série de outras coisas. Isso não é, de forma alguma, observado pelo poder público, não existe multa: quando as pessoas infringem leis, demoram anos para serem cobradas e menos de 1% delas acabam sendo efetivamente cobradas.

Para o palestrante, essa é tônica de sua afirmação que os brasileiros deram as costas ao mar, porque, segundo ele, a população, ao não exigir, apenas demonstra não saber a importância do litoral. O poder público no Brasil só age sobre pressão. Quando houve muita pressão sobre as queimadas na Amazônia, diminuiu, depois a sociedade afrouxa, aumenta de novo. O povo saiu para a rua em Junho último: o poder recuou, mas depois a população relaxou. E se você não sabe a importância dessa faixa do litoral, que depende de 90% da cadeia da vida marinha, se o público não exige, é aí que não acontece mesmo. Eu reivindiquei meu trabalho para isso porque percebi, ao longo dos anos, esta falta de importância, comenta João Lara.

Outra observação feita por João Lara Mesquita foi o trabalho que os cientistas brasileiros estão fazendo na Antártica. De uma forma geral, é um trabalho tido como muito bem feito, é um trabalho que dizem ser um dos melhores que existem nas Américas e é um trabalho que, para nosso entrevistado, é feito com muita abnegação e com poucos recurso. Até muito recentemente, o recurso era praticamente mínimo, próximo do zero. O Brasil tem apenas uma base próxima da Antártica. A Argentina e o Chile possuem cerca de dez bases. Mas, mesmo assim, o trabalho é feito com muita abnegação: Estuda-se o clima, o impacto que a atividade humana pode gerar na Antártica, uma vez que esta é considerada a base do clima. Então, estuda-se, por exemplo, as queimadas da Amazônia, na Antártica, através de tubos que você introduz na neve e ela registra o que aconteceu cem, duzentos, trezentos anos atrás. Estudam também as queimas da Antártica, utilizando este método, onde descobrem cinzas de queimadas, fumaças das queimadas etc.

Dando um exemplo concreto, João Lara refere que os cientistas extraem pequenas quantidades de sangue dos mamíferos marinhos e percebem que existem compostos que não são originados na Antártica, mas que são utilizados na agricultura, farmacologia etc: Então, se no mínimo 5% das pessoas que assistem aos meus documentários ou ouvem minhas palestras pensarem nisto, eu já me sinto feliz. É uma paixão. Nunca haverá um movimento em massa; é de grão em grão, é um gesto que já percebo nas crianças, hoje em dia. Nós não tivemos esse estudo na escola, porém, meus filhos já aprendem que o lixo deve ser guardado e reciclado, por exemplo. Eu sou otimista, acredito que a nova geração conseguirá fazer essa parte, concluiu João Lara Mesquita.

(Rui Sintra – jornalista)

16 de março de 2018

Quem são os robôs e quais são os desafios da robótica?

A edição do Programa Ciência às 19 Horas, referente ao mês de agosto, decorreu no dia 20, pelas 19 horas, no Auditório Prof. Sergio Mascarenhas (IFSC), com a participação da Profª Drª Roseli Francelin Romero, professora titular do ICMC – Instituto de Ciências Matemáticas e da Computação, da USP – São Carlos, que trouxe um tema que atraiu muitos espectadores, na sua maioria jovens: Quem são os robôs? Os desafios da Robótica.

Na sua apresentação, a pesquisadora descreveu os principais passos para a construção de um robô, o que é necessário para serem inteligentes e o que o ser humano pode fazer com eles, tendo trazido para esta palestra o robô do ICMC, que fez as delícias dos mais novos.

De fato, os robôs são máquinas consideradas inteligentes e que são construídas com um propósito bem definido, para realizar alguma tarefa específica, como, por exemplo os carros autônomos – sem motorista -, cuja missão é exatamente que o carro se mova de forma automática, sem o auxílio do ser humano, ou para fazer limpeza de ambiente. No geral, são máquinas com certo grau de inteligência artificial para a realização de uma tarefa pré-determinada.

A Califórnia é um dos grandes centros da robótica mundial e o que se observa nas competições de robótica e nas demonstrações de robôs, é que podemos estar muito perto de um robô poder substituir o ser humano quase totalmente. Para Roseli Romero, é fato que os robôs já substituem o ser humano em algumas tarefas, como, por exemplo, nas grandes montadoras de veículos, onde grande parte do serviço é automatizado por robôs manipuladores, que substituem o ser humano em tarefas repetitivas. Contudo, a pesquisadora não acredita que a tecnologia possa avançar ao nível de uma máquina substituir integralmente o ser humano: É o ser humano que programa os robôs, então eles vão até onde nós queremos. Por outro lado, o robô também possui limitações estruturais, ou seja, as peças que compõem os robôs desgastam-se e, por isso, a máquina tem um determinado tempo de validade, de bom funcionamento. Nós queremos que a inteligência artificial possa se aproximar ainda mais da inteligência natural, mas isso aí é um grande desafio para os pesquisadores da área de inteligência artificial. Então, ainda há muito que descobrir, inclusive sobre nosso próprio cérebro, pontua Roseli

A robótica, ao seu mais alto nível, vai entrar diretamente na sociedade dentro de pouco tempo e irá “invadir” as nossas casas. Assim, segundo uma previsão tecnológica, dentro de alguns anos poderemos ter no nosso lar robôs auxiliando nas tarefas do dia-a-dia, como se fossem parte da família, auxiliando nas tarefas de limpeza, abrindo a porta da rua, servindo cafezinho, água etc.: Num futuro próximo, a existência de robôs caseiros será tão natural como hoje existirem computadores na casa das pessoas, remata a pesquisadora.

No Brasil, a robótica ainda está em desenvolvimento: Existe a iniciativa de criar um centro de robótica da USP de São Carlos, que certamente vai facilitar o desenvolvimento das pesquisas. Foi uma união de vários grupos, um esforço comum de nos unirmos e montarmos esse centro que está em operação desde 2011. Ainda não temos o prédio, mas daqui a dois anos acredito que teremos finalmente o tão sonhado Centro de Robótica, que vai facilitar a integração das pesquisas realizadas no Campus, refere a palestrante.

Contudo, a ideia também é estar disseminando o conhecimento desta área por todo o Brasil e pretendendo-se que essa infraestrutura seja um centro de referência nacional e internacional: Nós temos boas perspectivas, temos projetos em conjunto com várias universidades internacionais, principalmente na Alemanha e EUA, mas, acima de tudo, o que pretendemos é resolver os problemas nacionais inseridos nessa área de conhecimento. Queremos robôs que possam resolver os nossos problemas. E nós estamos formando um pessoal, temos muitos alunos em formação, então acredito que em breve estaremos marcando presença no cenário nacional e internacional, finaliza Roseli Romero.

(Rui Sintra – jornalista)

16 de março de 2018

Prof. James Waterhouse disserta sobre: Dirigíveis na sociedade moderna: uma volta ao passado?

O programa “Ciência às 19 Horas”, promovido mensalmente pelo IFSC, trouxe na sua edição do dia 11 de junho um tema que habitualmente desperta a curiosidade do público: “Dirigíveis na sociedade moderna: uma volta ao passado?”. Magistralmente apresentada pelo Prof. James Rojas Waterhouse, docente da Escola de Engenharia de São Carlos (USP), a palestra sobre dirigíveis trouxe uma explicação de como funciona a tecnologia que é mais leve que o ar e sua reintrodução na atualidade. Falar de dirigíveis é quase a mesma coisa que falar da aviação, já que ambos os temas se diluem num só. Embora seja um assunto que nos remete a um passado que não é muito distante – estamos falando das duas primeiras décadas do século XX -, o certo é que a eventual (re)introdução do novo (velho) dirigível, na versão transporte de carga, poderá revolucionar muitas áreas, como, por exemplo, logística de transportes, movimentação de cargas pesadas, comunicações e vigilância, entre outras.

A história recente nos mostra que, embora envolto em inúmeras experiências fracassadas ao longo dos anos, o dirigível não morreu por completo. Sabendo-se que os primeiros protótipos que cruzaram os céus foram os balões de ar quente, coube ao padre jesuíta português, Bartolomeu de Gusmão, ser um dos pioneiros nesse tipo de aventura, no ano 1709. Com efeito, Gusmão, nascido no Brasil, conseguiu fazer um balão de ar quente, batizado de “Passarola”, e subir nele nos céus.

Já em pleno século XX, o dirigível começou a ser utilizado para o transporte de passageiros, ficando registrada a construção do dirigível LZ 127 Graf Zeppelin, construído em 1928, com os seus 213 metros de comprimento e 5 motores, com capacidade para cerca de sessenta pessoas, entre passageiros e tripulação. O Zeppelin, conforme era conhecido, foi o primeiro objeto voador a dar a volta ao mundo, calculando-se que, durante sua vida útil, tenha transportado perto de 20 mil pessoas.

Em meados da década de 1930, o velho Zeppelin deu lugar ao LZ 129 Hindenburg, considerado o orgulho da engenharia alemã, com os seus 245 m de comprimento e 41,5 m de diâmetro, com capacidade de voar a uma velocidade de 135 km/h, com autonomia de 14 mil quilômetros: o “monstro” da engenharia alemã tinha capacidade para cerca de 100 pessoas. A vida do Hindenburg, bem como a era dos dirigíveis, terminou subitamente no dia 06 de maio de 1937, quando o aparelho explodiu perto do aeroporto de Lakehurst, New Jersey, Estados Unidos, matando todos seus ocupantes. Para James Waterhouse, a explicação para que este projeto fosse abandonado mundialmente teve a ver com a fragilidade e periculosidade dos materiais que constituíam estes modelos: “Naquela época, o gás utilizado nos dirigíveis era o hidrogênio que, como sabemos, é altamente inflamável: se adicionarmos a periculosidade desse gás ao tipo de material que era utilizado na construção dos dirigíveis – também ele altamente inflamável e pesado – achamos a fórmula para o insucesso do projeto. A explosão do Hindenburg teve um impacto extraordinariamente negativo na sociedade. As imagens da explosão e do incêndio que se seguiu foram exibidas em todos os cinemas do mundo, na forma de documentário, e, claro, foi o fim de um sonho, principalmente no capítulo dedicado ao transporte de passageiros”, comenta Waterhouse.

A partir de 1938, trocou-se o hidrogênio por outro gás, não inflamável – o hélio -, que apresentou desde logo um aspecto negativo, que era a perda aproximada de 11% em termos de capacidade de sustentação: foi uma opção adotada para recuperar a imagem do dirigível, mas os dados estavam lançados e o projeto estava condenado, sendo que o golpe de misericórdia foi dado com o aparecimento do avião. Desde então, a utilização do dirigível ficou basicamente reduzida a exibições de propaganda e a passeios turísticos, tornando o projeto economicamente inviável para outros fins.

A evolução científica e tecnológica verificada nas últimas décadas ressuscitou o velho dirigível, dando-lhe novas aplicações e utilizações ao serviço da sociedade: “Com a descoberta e desenvolvimento de novos materiais, mais leves, e com as inovações operadas nos motores e estruturas, também menos pesadas e compactas, o dirigível começa a fazer sentido em múltiplas aplicações, do nosso cotidiano, tornando-se mesmo uma alternativa viável, principalmente para transporte de carga. Os dirigíveis são apenas a ponta do iceberg da tecnologia que é conhecida como “mais leve que o ar”, canalizando-se uma de suas utilizações para o transporte de cargas pesadas. Por exemplo, você tem cargas extremamente pesadas e/ou volumosas, que não podem ser divididas e que precisam ser deslocadas em curtas distâncias, por exemplo, colunas de destilação para refinarias de petróleo, entre um porto e uma usina. Esse transporte precisa de carretas especiais, condicionamento ou mesmo interrupção no trânsito, a escolha de pistas e de estradas que comportem o peso e o volume da carga, a resolução para a transposição de pontes, etc., tudo isso colocando em risco a viabilização de projetos industriais. Então, você tem a possibilidade de utilizar balões de carga amarrados a caminhões e assim “rebocar” essas cargas suspensas”, explica Waterhouse.

Por outro lado, a eventual utilização dos dirigíveis poderá compreender outras situações, como, por exemplo, a vigilância da fronteira brasileira, através de pequenos aeróstatos presos em terra, elevados a dois ou três quilómetros de altura, conseguindo-se assim monitorar, 24 horas por dia, uma faixa ampla de terreno com o mesmo desempenho de um avião, mas sem o custo que ele acarreta para fazer a operação. Outras situações estão já equacionadas – segurança pública, monitoramento militar (no Afeganistão os dirigíveis já estão sendo utilizados para esse fim), busca e salvamento, e inclusive na área das telecomunicações, como explica Waterhouse: “Em vez de termos antenas de celulares implantadas em torres, no meio das cidades, com todos os custos e riscos para a saúde, podia-se retirar a ponta da antena que está no topo da torre e colocá-la num dirigível localizado a 200 metros de altura, preso em terra. Só com essa antena você consegue cobrir uma cidade inteira, sem qualquer consequência ambiental e com custos muito reduzidos”, comenta o pesquisador.

Podia-se pensar na eventualidade dos dirigíveis recuperarem a sua antiga função – transporte de passageiros em longas distâncias -, mas James Waterhouse desmistifica o assunto, alegando que esse projeto não teria sucesso, já que os dirigíveis apenas atingem uma velocidade de 130 Km/hora. Segundo o pesquisador, a melhor opção, nesse capítulo, é usá-los para passeios turísticos, como acontece, por exemplo, na Turquia, aproveitando para dar a conhecer as paisagens e riquezas naturais deslumbrantes que o nosso país possui.

(Rui Sintra – jornalista)

16 de março de 2018

O Nascimento do Universo

Sempre bem humorado, permanentemente disponível, focado na sua áurea de conhecimento: estes são três dos predicados que conseguimos detectar, de forma espontânea, do perfil do Prof. Dr. Héctor Vucetich, docente aposentado e pesquisador da Faculdad de Ciencias Astronómicas e Geofísicas da Universidad Nacional de La Plata – Argentina, palestrante convidado de mais uma sessão do programa Ciência às 19 Horas, evento que ocorreu no dia 21 de maio, pelas 19 Horas, no Auditório Prof. Sérgio Mascarenhas (IFSC), que se encontrava completamente lotado.

O tema proposto para esta edição do programa Ciência às 19 Horas atraiu muita gente interessada em saber um pouco mais sobre os mistérios de tudo aquilo que nos rodeia: a palestra de Vucetich – “O Nascimento do Universo” – abordou as diversas formas como o Homem, desde a Antiguidade, vem tentando conhecer a estrutura e a história do Universo, inclusive influenciado, algumas vezes, por vários mitos cosmológicos, sempre na tentativa de obter mais explicações.

O Prof. Héctor afirma, em seu resumo referente à palestra, que o próprio Homem desenvolveu, na atualidade, seu próprio mito – o Big-Bang -, só que desta vez baseado nas leis da física.

Na Antiguidade, a influência dos deuses sobre tudo o que rodeava o ser humano, dos comportamentos aos seus pensamentos, terá sido o mote para que o Homem tentasse explicar aquilo que, para ele, era de todo inexplicável: e o Universo era um dos cenários onde residia essa influência divina, era o lar do divino. Para Vucetich, a própria cultura Azteca comprova essa influência.

Foi a partir da civilização grega que o Homem iniciou as suas indagações racionais sobre o Universo – sobre o céu: Há fortes indícios que os gregos pensavam que o Universo sempre teria existido da mesma forma como eles o viam, sem qualquer alteração, um conceito que coincide com a filosofia cristã, até porque na Bíblia se pode ler que Deus criou o Universo em sete dias. E aí, claro, começaram a aparecer as perguntas: Mas, quando é que o Universo foi criado? Qual foi a data? “A partir de Galileu, o Homem começou a querer saber a verdadeira história do Universo e, a partir desse momento, começou a descobrir que essa história estava intimamente ligada às leis da física, às leis da natureza, ou seja, indelevelmente ligada a conceitos científicos que passaram a ser estudados em laboratórios”, comenta o pesquisador.

Para Vucetich, o “Big-Bang” se parece mais com um mito científico, até porque, para o palestrante, um mito nada é do que uma história que versa tempos remotos, antigos, cujos protagonistas são sempre individualidades prestigiosas, mas distantes do conceito real. Assim, Vucetich considera que as leis da natureza, que supostamente serão as protagonistas do “Big-Bang”, embora prestigiosas elas são distantes do panorama real: “Considero o “Big-Bang” um mito científico: para outros, talvez seja um mito literário”, refere o palestrante.

Em face de este ponto de vista de Héctor Vucetich, a dúvida permanece: então, de que forma é que o Universo foi formado? Segundo a opinião do pesquisador, o Universo nasceu graças à existência de minúsculas partículas, totalmente insignificantes, que foram se expandindo ao longo de milhares de milhões de anos, até chegarem ao ponto em que as conhecemos hoje, e aí as leis da natureza foram-lhes dando forma. Para Vucetich, isto é o que a teoria moderna e as consequentes observações têm demonstrado até hoje.

Para Héctor Vucetich, como em tudo na vida, todo esse trabalho tem tido êxitos e insucessos: “Os principais êxitos que podemos referir com muita exatidão, já que, para os atingir, a complexidade dos trabalhos foi alta, são os inúmeros fenômenos e acontecimentos espetaculares que se observam diariamente no Universo e que são a base do nosso estudo e da evolução de nosso conhecimento”, pontua Héctor. Por outro lado, o pesquisador refere que o principal fracasso é o fato de os cientistas ainda não terem algo que possa ser observado e testado em laboratório, por forma a aumentar e refinar o conhecimento: “Ainda não conseguimos inventar uma substância com propriedades raras, por forma a escrever e a complementar, até a completar, a descrição do Universo”, salienta o professor. Com a evolução científica e tecnológica, havia indícios de que se pudesse avançar mais no conhecimento do Universo, mas isso não tem ocorrido de forma veloz. Apenas 5% do Universo é conhecido, ou seja, 95% do que nos rodeia está por descobrir, em termos de sua composição, o que, para Vucetich, é um verdadeiro fracasso: “Sim, é um fracasso! Sucesso seria você compreender tudo aquilo que vê, entender e explorar todas as substâncias que, para nós, são completamente misteriosas”, refere Vucetich.

Tendo como uma de suas paixões a vida e morte dos asteroides, não resistimos a abordar esse tema, até com base no que ocorreu há alguns meses atrás, quando um asteroide caiu no Leste da Europa. Afinal, estamos ou não na rota de colisão de asteroides? Existem perigos não revelados? Vucetich sorri e afirma que pequenos asteroides são facilmente detectados e todos eles poderiam ser um perigo para nosso planeta, mas, contudo, o seu número é muito reduzido e cada vez que aparece um é imediatamente monitorada sua trajetória. O perigo maior vem de asteroides chamados “escuros”, que só são detectados quando estão muito perto do nosso planeta: “Esse tipo de asteroide ainda está sendo estudado”, refere Vucetich.

O curioso, neste tema, é que na maior parte das vezes Júpiter protege o nosso planeta desses asteroides que vêm de fora. Júpiter é tão grande, que “suga” grande parte desses asteroides, que acabam por se chocar contra ele. Segundo nosso entrevistado, a probabilidade de um desses asteroides colidir com a Terra é extremamente baixa, o que não quer dizer que não possa acontecer: “É um problema muito complexo que está sendo estudado pela NASA e pela European Space Agency”, completa Héctor Vucetich.

(Rui Sintra – jornalista)

16 de março de 2018

Como funciona o GPS? E o pêndulo?

Docente e pesquisador no Instituto de Física da UFF – Universidade Federal Fluminense, o Prof. Dr. Paulo Murilo de Castro Oliveira foi o convidado de mais uma edição do programa Ciência às 19 horas, que decorreu no dia 09 de abril, no Auditório Prof. Sérgio Mascarenhas (IFSC).

Desta vez, o público presente a esta palestra teve a oportunidade de entender um pouco melhor de que forma é que funciona o famoso GPS, bem como as características do pêndulo e a importância e as particularidades dos relógios atômicos que integram os satélites do sistema GPS, que se encontram altamente sincronizados entre si.

Contudo – e por muito bem sincronizados que estejam esses relógios atômicos -, existem sempre incertezas que estão relacionadas aos resultados de uma medição, por mais precisa que ela possa parecer. Na sua palestra, Paulo Oliveira explicou, com relativa simplicidade, que existem, de fato, dois tipos fundamentais de incertezas, ou de erros, se quisermos chamar assim: os primeiros são os erros sistemáticos, como, por exemplo, aqueles que são derivados de instrumentos que estão mal calibrados, e os segundos – os erros naturais aleatórios -, como, por exemplo, quando se mede a mesma coisa várias vezes seguidas, obtendo-se, de cada vez, um resultado diferente, mesmo que essa medida tenha sido realizada com um equipamento altamente calibrado, dentro de uma determinada faixa, como explicou o pesquisador: Por exemplo, se você medir um determinado tempo com um cronômetro vulgar, daqueles de mão, seja ele analógico ou digital, você terá que considerar o seu tempo de reação, ou seja, o tempo que o seu dedo pressiona o botão do cronômetro, quer para ligá-lo, quer para desligá-lo: se você fizer isso várias vezes, os tempos medidos nunca serão iguais. E isso ocorre não só por causa do tempo de reação humana, como também devido ao próprio aparelho, já que o instrumento também tem um determinado tempo de reação mecânica.

E é aqui que se entra no aspecto relativo à medida do período de tempo de um pêndulo, já que ele pode avaliar a incerteza de uma medição, pois a partir dessa realidade pode-se aumentar a precisão. Por exemplo, se pretendermos medir um intervalo de tempo de 10 dias, podemos fazer essa medição através do número de vezes que o Sol rodar durante esse período: isso dá o número 10. Contudo, aí tem uma incerteza, no valor de 1 dia, já que pode acontecer que essa medição possa ter começado em determinada hora e tenha terminado em outra determinada hora. Desta forma, quando referimos 10 dias, esse tempo pode ser para mais ou para menos, o que não acontece quando esse número é muito maior, como explica o docente da UFF: Se eu usar o Sol para medir um período de mil dias, a incerteza é a mesma, ou seja, de um dia, só que incide num total de mil dias: então, percentualmente, essa incerteza é muito menor.

Na verdade, quando se mede um tempo existe a necessidade de se ter – ou utilizar – algo que nos dê uma periodicidade certa (algo periódico), como um pêndulo ou um relógio normal. No fundo, o que se faz é medir quantas oscilações é que ocorrem quando se pretende medir um determinado período de tempo e, se esse número for enorme, o erro será mais ou menos correspondente a uma oscilação: se o período do instrumento for muito pequeno, aí o erro percentual será mínimo. E é devido a estes fatores que se utilizam relógios atômicos nos satélites do sistema GPS, porque o período dos seus osciladores é muito pequeno.

A complexidade do sistema GPS:

Os satélites com sistemas GPS carregam, como já foi dito acima, relógios atômicos e todos eles estão sincronizados entre si. Contudo, os aparelhos GPS apenas possuem relógios normais, comuns, o que gera alguma confusão para o público leigo: então, como é que se processa o diálogo, a conversa entre o GPS, o satélite e o relógio atômico, por forma a se obter a medição correta, ou seja, a se obter, no aparelho GPS, a medição certa sobre determinado ponto – um endereço, por exemplo? Para o Prof. Paulo Oliveira, essa questão desagua naquilo que ele chama de ideia genial de quem desenvolveu o sistema GPS. De fato, para se localizar um determinado ponto é necessário ter três referências: Se você tiver três satélites, consegue localizar com precisão um determinado ponto na superfície terrestre; mas, para isso acontecer, esses três satélites terão que ter seus relógios atômicos sincronizados entre si, que, por sua vez, deverão estar sincronizados com o relógio normal que se encontra instalado no aparelho GPS. Contudo, esses três relógios atômicos não conseguem ficar sincronizados com o relógio normal, porque este último está atrasado ou adiantado em relação aos primeiros. Então, como é que você acerta o relógio do GPS? Em vez de três satélites, você usa quatro satélites, ficando um deles sempre de reserva. Assim, você poderá usar os satélites 1,2 e 3, ou o 2,3 e 4, o 1,3 e 4, ou ainda o 1,2 e 4, deixando sempre um dos satélites de fora. Aí, você tem sempre quatro trincas possíveis. O aparelho identifica os quatro pontos e calibra sua hora atual, para mais ou para menos, até ao momento em que esses quatro pontos coincidam num único local. Quando isso acontecer, você acerta o relógio do GPS e é nesse momento que ele ficará sincronizado com os relógios atômicos dos satélites, dando, por esse motivo, a localização certa de onde você está, explica o pesquisador.

No futuro, se houver a necessidade de se medirem períodos de tempo ainda com mais precisão do que acontece atualmente, poder-se-á utilizar uma radiação com período ainda mais curto. Assim, em vez de relógios atômicos com radiação Césio, que é a que se usa atualmente, poderá ser implementada uma radiação de nível nuclear, já que ela proporciona um período muito menor. Contudo – e por enquanto -, a precisão oferecida pelos atuais relógios atômicos é mais que suficiente para responder às necessidades tecnológicas de nossa sociedade.

Física: uma ciência experimental ignorada pelo ensino médio brasileiro:

No resumo da palestra do Prof. Dr. Paulo Oliveira, estava uma afirmação algo contundente: o pesquisador afirmava que “A Física é uma ciência experimental que é ignorada no ensino médio”. Quisemos saber se o pesquisador se referia ao fato dos alunos do ensino médio apenas terem a oportunidade (obrigação) de “deglutir” milhares de páginas de livros e de não poderem aplicar aquilo que aprendem na teoria, já que mais de 90% das escolas brasileiras não possuem laboratórios. Para o pesquisador, esse é um dos motivos de sua afirmação, mas não só. Para Paulo Oliveira, – e talvez como consequência disso -, a mentalidade dominante é que a Física e a Matemática são a mesma coisa, já que o que é transmitido ao estudante é que Física é ele saber fazer contas, equações e decifrar fórmulas: Não é! Mas, infelizmente, é assim que acontece no ensino médio, no Brasil, concluiu nosso entrevistado.

(Rui Sintra – jornalista)

16 de março de 2018

Candido Portinari: Do Cafezal à ONU

O dia 19 de março do corrente ano ficou marcado por mais uma edição do programa Ciência às 19 Horas, uma iniciativa que decorreu, como habitualmente, no Auditório Prof. Sergio Mascarenhas, no IFSC, tendo como palestrante o Prof. João Candido Portinari, docente da Pontifica Universidade Católica do Rio de Janeiro e, simultaneamente, fundador e diretor – geral do Projeto Portinari, que desenvolveu o tema intitulado Candido Portinari: Do Cafezal à ONU.

Sair pelo mundo, divulgando o trabalho de um dos maiores artistas plásticos nacionais, não é fácil, tendo em conta, até, que esse périplo já dura há cerca de trinta e quatro consecutivos e que a primeira palestra proferida por João Candido Portinari data de 1980, como explica o palestrante: Na época, eu não tinha as imagens e não tinha sido feito o levantamento da obra; tínhamos poucas coisas e os equipamentos eram antidiluvianos para os parâmetros atuais. Só para se ter uma ideia, eu levava comigo catorze malas, com projetores de slides, torres etc. Eu tinha uma  picape e, então, colocava todo esse equipamento lá e ia dirigindo do Rio de Janeiro a Porto Alegre. E foi assim que percorri o Brasil inteiro dessa forma. Essa foi a primeira face do Projeto Portinari. Não havia outra maneira de conhecer o Projeto se não fosse dessa forma. E, naturalmente, em cada lugar que eu ia, sempre haviam jornalistas interessados em bater um papo para, depois, serem publicadas matérias, e foi assim que as pessoas, o público, passou a ter conhecimento do projeto. A sensação que tenho é de orgulho muito grande, sinto-me orgulhoso, sem falsa modéstia, sabe? Toda a minha equipe faz um trabalho muito grande.

Quando João Candido Portinari fala de sua equipe, sempre se manifesta na sua expressão um semblante sério; isso porque, segundo o nosso entrevistado, o Projeto Portinari esteve algumas vezes em risco – na UTI, como ele próprio afirmou. Principalmente por questões financeiras, sempre João Portinari sempre lutou com muita dificuldade e, por isso, sua equipe nunca teve um número certo de colaboradores, até porque as pessoas sentiam-se inseguras do ponto de vista financeiro:“O máximo de pessoas que eu consegui ter foi o que tenho agora, porque o projeto “Guerra e Paz” tem uma logística muito complexa e exige uma equipe muito maior. Hoje, temos cerca de treze pessoas colaborando, mas tempos houve em que apenas consegui ter seis ou sete. O Projeto Portinari nasceu na universidade e foi criado na universidade – algo raro para projetos culturais. Projetos culturais, no Brasil, por alguma razão que não sei explicar, estão longe das universidades: só que nós não estamos longe delas. Nós nascemos nos departamentos de ciência e tecnologia: por exemplo, eu era da matemática. Então, foi muito importante esse convívio com colegas da física, da informática, da matemática e de outras áreas do conhecimento, porque deu ao Projeto a oportunidade de trazer inovação para sua execução, praticamente na hora em que a inovação estava sendo feita. Quando você está na universidade, você passa o dia todo com os colegas e quando olha para o lado você está sentado ao lado de algum deles e pergunta, “o que você está fazendo?”; e ele responde: “eu descobri uma coisa para tratar imagens, fazer o processamento de imagens...

Contudo, o Projeto Portinari conseguiu beneficiar-se do desenvolvimento da ciência e tecnologia nestes últimos trinta anos e, se fizermos uma pequena reflexão, o certo é que o Projeto tem a mesma idade que a indústria de microcomputadores. Quando tudo começou não existia escâner, base de dados, microcomputador, enfim, era tudo na mão; as fotos que se batiam eram de filme, slides, e então seus responsáveis percorriam o mundo inteiro fotografando a obra do Portinari e o que resultou disso foi o único registro visual colorido da obra dele em slides, que sabemos que são perecíveis e que vão se estragando, irremediavelmente: Ficávamos em pânico ao pensar de como poderíamos preservar aquilo: só que a ciência e tecnologia trouxeram a resposta, que é a digitalização em alta resolução, o tratamento cromático, compactação,… Todas as técnicas de tratamento de imagens foram necessárias. Um dos grandes problemas era como levar a obra do Portinari para todos, em qualquer lugar no mundo, e aí… surge a internet. Como íamos imaginar que ia surgir a internet quando começamos? – refere nosso entervistado.

Desde o início do Projeto Portinari, foram levantadas mais de cinco mil obras, percorreram-se mais de vinte países da Europa, Oriente médio, das três Américas, visitando obras e proprietários, fotografando obras, pegando informações. E, nesse longo caminho conseguiu-se levantar, também, cerca de trinta mil documentos, entre eles, por exemplo, seis mil cartas que Portinari trocou com os grandes expoentes de sua geração, como Manuel Bandeira, Carlos Drummond de Andrade, Oscar Niemeyer, Vila Lobos, Mário de Andrade, e esse fato não é tão conhecido assim: ele, além de pintor, conviveu intensamente com sua geração, com abundantes trocas de ideias e de opiniões sobre os mais variados temas, principalmente relativas a preocupações de âmbito estético, artístico, cultural, social e político: tudo isso estão refletido nessas cartas.

A divulgação dessas cartas vai muito além do que todos nós possamos imaginar, como refere João Portinari: Essa divulgação vai muito além de Portinari, até porque essas cartas nos revelam como era o Brasil nessa época, o que aquela gente pensava a respeito de seu país, quais eram os caminhos estéticos, políticos, sociais, tudo. Então, além das seis mil cartas, existem ainda doze mil periódicos de jornais e revistas, de 1920 até hoje. Fizemos um programa que entrevistou setenta e quatro contemporâneos de Portinari, resultando em cento e trinta horas de gravação que, agora, estudantes e pesquisadores descobriram e estão começando a tirar benefícios disso. Temos também cinco mil obras – não as originais, mas o documento do levantamento -, que se traduzem em todas as informações que conseguimos recolher, mais as imagens, coloridas e em preto e branco. Temos mais de mil e duzentas fotografias de época, monografias, textos avulsos, cartazes,… Temos muitas coisas do que chamamos de “memorabília”. Todo esse acervo foi o responsável pelo grande passo que demos agora, ao lançar o Portal Portinari. Tínhamos o site, mas ele não tinha uma interface muito amigável. Para uma criança da rede escolar, por exemplo, ou para um professor, não era muito amigável. Isso agora é diferente e está fazendo o maior sucesso entre as crianças.

As pessoas dizem que o Brasil não tem memória, que as pessoas não dão valor à cultura. Contudo, o nosso entrevistado desmistifica a frase, salientando que o Projeto Portinari teve a devida solidariedade da sociedade brasileira: Não importa a cor política da pessoa, não importa nada. Nós tivemos essa solidariedade de todos os setores da vida brasileira. Vou dar três exemplos, só para se ver a loucura que foi isso. Uma grande empresa de transportes aéreos, que era a Varig, durante décadas deu as passagens de graça para pesquisador e fotógrafo percorrerem o Brasil inteiro fotografando as obras. Eu duvido que a Airfrance ou a Panamerica fizessem isso em prol da memória de um artista europeu ou americano. Nunca ouvi falar de nada igual. E não somente a Varig fez isso, como também enviou telex para todas as agências Varig do mundo inteiro, pedindo que em cada lugar a agência Varig funcionasse quase como uma sucursal do Projeto Portinari, e identificasse quem tinha obras ou qualquer documento sobre Portinari, mandando organizar a logística das visitas e todo o apoio indispensável. O Ministério das Relações Exteriores mandou uma circular para todas as missões diplomáticas brasileiras no mundo inteiro, pedindo, também, que cada local apoiasse o Projeto. Isso foi valiosíssimos para nós! E o terceiro exemplo veio da maior rede de televisão do país – Rede Globo – que, com o apoio da Fundação Roberto Marinho, fez uma campanha de chamadas nacionais e regionais, em todos os horários, inclusive nobres, que durou quase quatro anos, pedindo que, se qualquer pessoa tivesse qualquer documento sobre Portinari, que entrasse em contato conosco. Os Correios nos deram a caixa-postal 500, um número fácil de lembrar. Essa caixa-postal recebeu mais de três mil cartas do Brasil inteiro. Isso tudo aconteceu há trinta anos. Então, o brasileiro, quando acredita em algo, mobiliza-se; eu acho que todos eles acreditaram no Projeto Portinari, pois estamos falando de um artista muito amado, que diz algo fundo na alma dos brasileiros, pois todos sabem que ele retratou o Brasil, o brasileiro, a alma do país, e de uma maneira muito autêntica, crítica e emocionada de todos os aspectos do país. Eu acho que não se conhece no mundo inteiro nenhum pintor que tenha pintado mais um país do que Portinari pintou o seu. Portinari pintou os temas sociais, os temas históricos, religiosos, o trabalho no campo e na cidade, a infância, os tipos populares, a festa popular, os mitos, a fauna, a flora e a paisagem, ou seja, ele fez um grande retrato de uma nação. Isso é uma coisa que o Brasil agora está começando a ter: uma autoestima muito maior do que tinha no passado, quando achávamos que tudo que vinha de fora era melhor do que o nosso. E agora isso está mudando: estava na hora de mudar…

O Projeto Portinari está aí, para que todos o possam conhecer e transmitir seus valores, principalmente os jovens, e essencialmente nas escolas. João Candido Portinari rematou esta entrevista com uma frase profunda proferida pelo eterno compositor polaco Frédéric François Chopin, que ilustra a sensibilidade e devoção do nosso convidado do Ciências às 19 Horas:

A arte é o espelho da pátria. O país que não preserva seus valores culturais jamais verá a imagem da sua própria alma. Se você não vir a imagem da sua própria alma, você não se conhece e, você não se conhecendo, você não pode ir a lugar nenhum.

 Entrevista: Tatiana Zanon – Edição: Rui Sintra (jornalista)