Palestras

13 de março de 2018

Como planejar seu futuro na USP – São Carlos e no mundo globalizado

É uma grande vitória e uma oportunidade única! É, também, uma grande responsabilidade para o próprio estudante, pois é da juventude universitária que depende, em grande parte, o futuro da sociedade nacional e internacional. O palestrante tentará mostrar como o estudante poderá aproveitar as grandes oportunidades que se abrem, usufruir das riquezas em conhecimento, cultura, interdisciplinaridade e inovação na USP-São Carlos, como ambiência formadora de padrão, inclusive internacional.

Download da apresentação

 

 

 


Resenha

Prof. Dr. Sérgio Mascarenhas

Entrar na USP  São Carlos é uma grande vitória e uma oportunidade única. Este foi o preâmbulo da palestra que docente e pesquisador do IFSC-USP, Prof. Sérgio Mascarenhas, fez no dia 25 de março, em mais uma edição do programa Ciência às 19 Horas, uma sessão particularmente dedicada aos calouros que começam agora sua vida acadêmica no Campus USP, São Carlos e cujo tema foi Como planejar seu futuro na USP-São Carlos e no mundo globalizado.

O pioneiro do Instituto de Física de São Carlos, que dá seu nome ao Auditório onde decorreu o evento, que se iniciou cerca das 19 horas, abordou o grau de responsabilidade que o estudante passa a ter ao ingressar na USP, até porque nele são depositadas todas as esperanças numa sociedade que o vê como o principal protagonista para o desenvolvimento nacional e internacional.

Sérgio Mascarenhas ainda mostrou, na sua apresentação, como o estudante poderá aproveitar as grandes oportunidades que se lhe colocam na Universidade de São Paulo, para usufruir das riquezas aliadas ao conhecimento, cultura, interdisciplinaridade e inovação, dentro de um ambiente formador de um alto padrão, inclusive internacional.

Um aluno que passou no vestibular e que chega na USP, já é um privilegiado sobre vários aspectos: primeiro, é privilegiado por entrar numa universidade que é a melhor do Brasil e, provavelmente, a melhor da América Latina. Entrar no Campus de São Carlos é um segundo privilégio porque a cidade de São Carlos é uma cidade relativamente pequena, mas suficientemente grande para satisfazer uma qualidade de vida muito grande, principalmente nas áreas intelectual, cultural e na qualidade de vida comportamental para os jovens, em que eles podem não só conviver entre si, como também com outras gerações, como eu, que tenho 86 anos, comenta Sérgio Mascarenhas, em entrevista exclusiva à Assessoria de Comunicação do IFSC-USP.

Para o pesquisador, um professor só é considerado bom quando seu aluno for melhor que ele e, quando isso não acontece, a missão do professor falha porque a cadeia foi cortada, o conhecimento não foi repassado, não foi melhorado, aprimorado. A mensagem que Sérgio Mascarenhas enviou para os alunos do Campus de São Carlos (USP) foi que eles devem estar atentos para o seu país, devendo-se preocupar com os destinos do Brasil, tendo acrescentado que existe a necessidade de se pensar no desenvolvimento nacional através de uma nova filosofia, traduzida através da ciência, tecnologia e inovação, aliada a uma cultura humanística que faça dessa mesma ciência algo que traga benefícios para o ser humano, tal como aconteceu com a ideia do Renascimento. Foi também preocupação de Sérgio Mascarenhas falar dos aspectos relacionados com o cotidiano dos alunos: Acho importante dar dicas aos alunos de como devem estudar, quais os livros mais importantes que o jovem tem que ler sobre o Brasil e o mundo, provocando nele a colocação de questões como: Quem sou eu? Para onde vou? Que farei dessa vida jovem que tenho e que é o maior potencial que o Brasil tem? O que é que eu vou fazer do Brasil, enfatiza Mascarenhas.

Por outro lado e em relação ao êxodo de alunos excelentes que rumam para grandes universidade no exterior, o cientista salienta que há necessidade de existir uma política para que esse alunos retornem ao Brasil, pelo menos anual ou semestralmente, se realmente for seu desejo permanecerem no exterior: Até podem ficar no exterior, mas que pelo menos tragam de lá o benefício da experiência que estão tendo. Eu chamo isso de Brain Gain, e neste momento o que estamos assistindo é um Brain Drain, ou seja, a fuga de cérebros. Sérgio Mascarenhas confirmou que realizou dois projetos nesse sentido, há cerca de trinta anos, quando da fundação do Departamento de Física da UNICAMP, tendo apresentado também, recentemente, alguns projetos nesse sentido junto do CNPq, FAPESP e MEC, uma missão que, para ele, precisa ser completada.

Quando questionado sobre o longo caminho percorrido na área da ciência e do ensino, Sérgio Mascarenhas sublinhou que aprendeu muito com os erros que cometeu e que, por isso, pensa sempre em um futuro mais brilhante, na tentativa de sempre poder melhor do que já fez: Viver do passado tem uma vantagem e uma desvantagem e explico sempre isso utilizando a frase de um amigo meu: Quero que a passagem seja o meu conselheiro, mas não o meu ditador. Eu penso muito mais no futuro do que no passado e, se não for assim, sou pedra no caminho do poeta, conclui Sérgio Mascarenhas.

(Rui Sintra – jornalista)

Como planejar seu futuro na USP-São Carlos e no mundo globalizado
play-sharp-fill

Como planejar seu futuro na USP-São Carlos e no mundo globalizado

13 de março de 2018

Tudo o que você sempre quis saber sobre o câncer de mama

O câncer de mama é a 2ª neoplasia mais frequente que acomete mulheres em todo mundo (atrás apenas dos tumores de pele não-melanoma). Existem muitas dúvidas a respeito dos fatores de risco, diagnóstico, tratamento, efeitos colaterais e muitos outros temas relacionados.

Com o objetivo de esclarecer parte destas dúvidas, o GBECAM – Grupo Brasileiro de Estudos do Câncer de Mama decidiu realizar um livro de perguntas e respostas, cujo conteúdo é o tema central desta palestra.

 

Download da apresentação

 


Resenha

Dr. Diocésio Alves Pinto de Andrade

Ela é a segunda neoplasia mais frequente em termos mundiais. Estamos falando do câncer de mama, um tema que foi destaque da edição do dia 18 de março de 2014 do programa Ciência às 19 Horas e que atraiu um público majoritariamente feminino. O evento, que decorreu no Auditório Prof. Sérgio Mascarenhas (IFSC-USP), teve como palestrante o Dr. Diocésio Alves Pinto de Andrade, oncologista clínico do InORP, Instituto Oncológico de Ribeirão Preto (SP), que aproveitou o momento para apresentar o livro recentemente publicado pela GBECAM – Grupo Brasileiro de Estudos do Câncer de Mama, intitulado, Tudo o que você sempre quis saber sobre o câncer de mama*.

De fato, aquele que é considerado o câncer mais prevalente e teoricamente tranquilo, é o câncer de pele não-melanoma, que apresenta lesões de pele comuns, ou seja, as tradicionais pintas na pele. Já o câncer de mama é a neoplasia mais frequente na mulher, enquanto o câncer de próstata é mais frequente no homem.

Para o Dr. Diocésio de Andrade, a explicação para o principal fator de risco no desenvolvimento do câncer de mama, vada mais é do fato de ser mulher: Convém recordar que o homem também pode ter câncer de mama, embora numa porcentagem muito baixa, mas pode acontecer, principalmente quando existe uma história familiar positiva. O câncer de mama é um câncer que geralmente tem um pico de incidência um pouco alto, que surge entre a quinta e sexta década de vida e, associado a isso, aparece com algumas alterações hormonais – uma alta exposição a estrógeno. Mulheres que têm a primeira menstruação muito cedo, ou têm a última menstruação muito tarde, que nunca engravidaram ou que não amamentaram, são mais propensas a desenvolver o câncer de mama: esse é o grupo de maior risco, sublinha o clínico.

Existe um grupo pequeno de tumores de câncer de mama que tem uma síndrome familiar positiva, que é uma mutação em alguns genes. O câncer de mama tem dois genes principais e isso foi muito discutido no ano passado, quando a Angelina Jolie fez a mastectomia: nesse caso, foi a mutação dos genes BRCA1 e do BRCA2, que quando estão mutados, aumentam muito o risco do câncer de mama. Para Diocésio de Andrade, o aparecimento de um câncer de mama tem diversos motivos, não se podendo apontar uma única ou principal causa: Hábitos de vida também favorecem o desenvolvimento do câncer de mama, tais como a obesidade e o sedentarismo, embora o etilismo e o tabagismo sejam ainda temas controversos nesta área, pois não existe, por enquanto, uma relação causal entre esses dois vícios, mas os estudos demonstram uma certa probabilidade de eles eventualmente aumentarem o risco de câncer de mama, enfatiza Diocésio.

Quando falamos de câncer, em termos gerais, a forma mais eficaz para combater o mal é através da prevenção e, no câncer de mama, especificamente, existem formas de fazer uma prevenção secundária. E referimos a prevenção secundária, já que a prevenção primária consiste em um tratamento específico para que uma pessoa não desenvolva a doença: O câncer de mama não tem nenhum remédio, nenhuma mágica para o evitar. Prevenção secundária é diagnosticar cedo para você poder tratar bem e aumentar a chance de cura do paciente. Então, qual é a prevenção secundária no câncer de mama? Fazer mamografia, elucida o clínico.

Contudo, segundo o especialista, existem duas correntes: a do Instituto Nacional do Câncer, que fala que a mamografia deve ser feita anualmente, entre os 50 e 69 anos de idade. Trata-se de uma política de saúde pública, então tem custo-benefício de gasto do governo. A outra corrente é a da Sociedade Brasileira de Mastologia e da Sociedade Americana de Cancerologia, que sugere que a mulher deverá fazer uma mamografia anual a partir dos 40 anos de idade. Diocésio de Andrade é a favor desta última corrente, alegando que quanto mais precoce for o exame, melhor, embora não discorde em absoluto da primeira corrente de opinião: Estudos mostram que a partir dos quarenta ou cinquenta anos, a incidência não é tão grande. Então, de forma alguma podemos considerar errado esse estudo do Governo, mas ainda assim prefiro indicar a realização desse exame a partir dos 40 anos de idade. Contudo, fazer uma mamografia antes dessa idade não adianta nada, a não ser que seja uma mulher que tenha um histórico de família com câncer de mama, ou seja, duas gerações consecutivas em que duas pessoas tiveram câncer de mama. Nesses casos, está indicado começar o rastreamento da doença de forma mais precoce, mas o exame não é mais a mamografia, mas o ultrassom de mama. Por quê? Porque a mama da pessoa mais jovem é muito densa e o raio emitido por uma mamografia não consegue diferenciar entre a densidade da mama e de um nódulo e, aí poderá haver um diagnóstico errado, aquilo que chamamos falso negativo. Assim, nesses casos, quem vai dar o resultado correto será o ultrassom da mama, explica o médico.

Vamos supor que uma paciente desenvolve um câncer de mama e acaba por falecer devido às consequências dessa doença, e que ela tem filhos homens. O risco desses homens terem um câncer em decorrência da doença da mãe é cerca de 1%, portanto, uma hipótese muito remota.

O câncer é uma realidade na vida de qualquer família, sendo difícil não haver alguém que não tenha tido um parente de primeiro grau que não teve algum tipo de câncer. É um problema que tem de se enfrentar, até porque a doença é, atualmente, um problema de saúde pública, sendo a segunda causa de óbito no mundo, só perdendo para as doenças cardiovasculares, infarto e AVC. O câncer é uma doença terrível, porque ela sempre acha um caminho para se multiplicar, ou seja, ela descobre atalhos. Segundo Diocésio de Andrade, nos últimos dez anos os estudos conseguiram diagnosticar várias dessas vias de acesso e, melhor do que isso, conseguiram-se desenvolver vários medicamentos contra essas vias. Só que as vias não são simples: cada mutação obriga a se descobrir um remédio: É uma batalha incessante: o tumor consegue entrar por um caminho, você vai, bloqueia essa via em uma determinada parte, e ele consegue fazer um desvio. Então, você sempre tem que correr atrás do câncer para fechar as portas e quando você fecha uma, ele dá a volta no corredor e abre outra porta. É mais ou menos esse comparativo, comenta nosso entrevistado.

Ao contrário do que se possa pensar, o câncer sempre existiu; a diferença é que não havia tecnologia para o diagnosticar. Não havia qualquer método de imagem para diagnosticar um câncer, só que o intenso combate à doença teve um avanço exponencial nos últimos cinco anos: Em vez de falar em cura, eu prefiro muito mais abordar o diagnóstico precoce para aí sim, você poder fazer a cura através da cirurgia, do que demorar a diagnosticar e o câncer já estar espalhado e ficar difícil de curar. A esperteza do câncer para burlar todos os bloqueios é muito maior ainda do que o nosso conhecimento, conclui o médico.

*O livro poderá ser adquirido ou pedido na Livraria Saraiva

(Rui Sintra – jornalista)

Tudo o que você sempre quis saber sobre o câncer de mama
play-sharp-fill

Tudo o que você sempre quis saber sobre o câncer de mama

13 de março de 2018

Veículos autônomos no Brasil e no exterior

Pesquisadores da área da robótica vêm trabalhando no desenvolvimento de sistemas inteligentes para a condução de veículos desde os anos 80. Um dos principais objetivos da pesquisa realizada nessa área é reduzir o número de acidentes rodoviários e aumentar a eficiência do transito em geral. Nos últimos anos houve um grande avanço no desenvolvimento de veículos totalmente autônomos utilizando técnicas de inteligência artificial, visão computacional e fusão de sensores. Nessa palestra será apresentado um histórico da pesquisa nessa área, bem como os principais projetos de veículos inteligentes no Brasil e no exterior.

O Prof. Dr. Denis Wolf possui graduação em Ciência da Computação pela Universidade Federal de São Carlos (UFSCar), mestrado em Ciência da Computação e Matemática Computacional pela Universidade de São Paulo(USP) e doutorado em Ciência da Computação – University of Southern California. É professor associado no Instituto de Ciências Matemáticas e de Computação (ICMC-USP) e coordenador do Laboratório de Robótica Móvel (LRM) do ICMC onde desenvolve projetos de pesquisa nas áreas de Robótica Móvel, Aprendizado de Máquina, Visão Computacional e Sistemas Embarcados. Nos últimos anos, a maior parte de sua pesquisa vem sendo realizada no desenvolvimento de veículos autônomos.

Sobre o INCT-SEC:

O Instituto Nacional de Ciência e Tecnologia em Sistemas Embarcados Críticos(INCT-SEC) é uma rede de pesquisa que envolve instituições universitárias e empresariais integrando o ambiente acadêmico e industrial para o apoio no desenvolvimento de soluções e aplicações em áreas estratégicas como meio ambiente, segurança, defesa nacional e agricultura através de sistemas embarcados críticos, além da formação de recursos humanos e a transferência tecnológica.

Download da apresentação


Resenha

Prof. Dr. Denis Wolf

Sensores que permitem um veículo enxergar o que acontece em seu redor, computadores que recebem informações para que o carro tome decisões, atuadores que controlam mecanicamente o veículo: estes são os três grandes componentes de um veículo autônomo, projeto que começa a ter contornos de realidade, principalmente nos Estados Unidos, Japão e Alemanha. No Brasil, os experimentos neste tipo de veículo, que dispensa a ação humana, também já estão em curso.

Para falar um pouco desta realidade que promete mudar o mundo daqui a alguns anos, o Prof. Dr. Denis Wolf, pesquisador do ICMC Instituto de Ciências Matemáticas e Computação (USP), foi o palestrante convidado de mais uma edição do programa “Ciência às 19 Horas”, que ocorreu no dia 19 de novembro, com o tema Veículos autônomos no Brasil e no exterior”.

Wolf é um dos pesquisadores que, no Brasil, desenvolve este projeto, um tema que ultimamente tem despertado a curiosidade da mídia. Na verdade, um numeroso conjunto de pesquisadores na área da robótica mundial vem trabalhando, desde a década de 1980, no desenvolvimento de sistemas inteligentes para a condução deste tipo de veículos, sendo que um dos principais objetivos da pesquisa realizada nessa área é reduzir o número de acidentes rodoviários e aumentar a eficiência do trânsito nas grandes cidades e nos seus acessos.

Nos últimos anos, houve um grande avanço no desenvolvimento de veículos totalmente autônomos, utilizando técnicas de inteligência artificial, visão computacional e fusão de sensores. Se recuarmos à década de 1980, podemos observar que, comparativamente aos dias de hoje, a tecnologia de sensores era extremamente limitada e a capacidade computacional dos sistemas embarcados era pífia, motivo pelo qual os experimentos que se conseguiam realizar eram muitos restritos, deficitários. Poucos grupos trabalhavam nessa área de pesquisa, com exceção de alguns pequenos núcleos de cientistas dos Estados Unidos e da Alemanha, que se mostravam realmente interessados em avançar nos projetos de criação de veículos autônomos, não sendo inocente essa insistência, por se tratarem de países cuja sua economia dependia (e depende) também da indústria automotiva. O pontapé inicial foi feito pelos Estados Unidos, em meados do ano 2000, quando o departamento de defesa norte-americano resolveu investir nessa área de pesquisa, até por conta da guerra que decorria no Iraque, conforme explica Denis Wolf: De fato, os Estados Unidos queriam desenvolver tecnologias que permitissem o transporte de cargas em longas distâncias sem riscos para os seus soldados. Foi aí que eles promoveram uma espécie de competição – com um prêmio de um milhão de dólares ? entre as universidades que conseguissem desenvolver um veículo que fosse capaz de se deslocar autonomamente no deserto, ou seja, sem motorista.

De fato, essa competição foi considerada uma jogada de mestre, pois em vez do departamento de estado financiar um grupo específico de cientistas para esse projeto, conseguiu (quase gratuitamente) a adesão de mais de cem grupos de pesquisadores que trabalharam para ele, com um custo muito pequeno, sendo que é bem possível que cada grupo tenha investido mais de um milhão de dólares nos seus próprios projetos. Contudo, o resultado dessa primeira competição foi considerado uma decepção: a proposta lançada pelo governo americano era que os veículos projetados deveriam percorrer trechos de 200 quilômetros, e o melhor protótipo apresentado nessa competição apenas conseguiu percorrer 12 quilômetros.

Em face destes resultados, muitos pesquisadores da área de robótica, que em princípio não estavam voltados para essa aposta, de repente se interessaram pelo projeto, vendo nisso uma questão de honra e mérito. Em 2005, foi realizada outra edição da competição – praticamente idêntica à anterior – com um prêmio de dois milhões de dólares, no que resultou na participação de cento e noventa e cinco universidades americanas, sendo que a Universidade de Stanford conseguiu apresentar um veículo que percorreu todo o percurso proposto. Já em 2007, o mesmo departamento de defesa norte-americano promoveu outra competição muito parecida com as anteriores, com a diferença que os veículos deveriam ser capazes de circular autonomamente… dentro da cidade: Foi um desafio muito mais complexo, já que era trânsito urbano e aí os robôs instalados nos carros deveriam seguir as leis de trânsito da Califórnia, ou seja, deveriam ser capazes de parar nos cruzamentos, aguardar a passagem de quem estivesse na preferencial, dar prioridade aos pedestres, percorrer percursos em asfalto e em terra, neste caso sem guias, estacionar em vagas com dimensões reduzidas, etc. Só seis equipes conseguiram concluir esses objetivos, bem como o percurso, que tinha aproximadamente 100 quilômetros, sendo que apenas três equipes concluíram a prova sem nenhuma falha: foi isso que colocou a área de robótica em evidência, refere Wolf.

A partir desse momento, começou a haver um interesse enorme por parte da indústria automotiva e foi ela que começou a investir pesado em pesquisa, criando centros próprios, principalmente na Alemanha e no Japão. Graças a esses trabalhos de pesquisa, atualmente já podemos encontrar veículos que estacionam autonomamente, o que prova que a tecnologia para o desenvolvimento de veículos autônomos está muito próxima do seu amadurecimento: contudo, a evolução desta pesquisa está esbarrando em questões legais, em primeiro lugar porque a legislação precisa ser alterada para permitir a introdução desses veículos no trânsito normal das cidades e, em segundo lugar, porque tem que se lançar um estudo profundo sobre quem assume a culpa em caso de acidente, já que o motorista de um veículo autônomo deixa de ter responsabilidade direta caso aconteça um erro do próprio carro, até porque ele não o dirige.

Voltando à última competição promovida pelo departamento de estado norte-americano, quem acabou por se destacar e quem possui neste momento o melhor projeto é a Google, conforme explica Denis Wolf: O que a Google fez foi contratar os pesquisadores que desenvolveram os melhores projetos apresentados nas competições para veículos autônomos e, embora todas as pesquisas feitas por essa empresa estejam no segredo dos deuses, o certo é que sabemos que o seu primeiro interesse é desenvolver e vender serviços de táxis autônomos: você liga de seu celular, chama um táxi sem motorista e ele leva-o ao seu destino. Esse é o foco da Google, que, se for implantado, será um tremendo sucesso.

Já no que diz respeito ao ICMC-USP, Wolf refere que o grupo dele já trabalha com robótica há algum tempo: Começamos com robôs pequenos, operando-os em ambientes fechados, controlados, depois os levamos para ambientes externos e aí chegamos ao momento de experimentarmos esses novos robôs em viaturas. Uma coisa é você fazer um robô para se deslocar numa calçada: outra coisa é você fazer um robô andar numa velocidade de 60 Km/hora no meio do trânsito urbano: e o que levou o nosso grupo a trabalhar nesse objetivo foi, simplesmente, o desafio. Para nós, esse tipo de veículo nada mais é do que um robô.

Atualmente, a pesquisa vai na direção de se construírem veículos que sejam capazes de atuar na infraestrutura viária que já existe, mas essa não é a forma mais eficiente de resolver o problema. Uma vez que os veículos são inteligentes, com capacidade de se comunicarem, não fará mais sentido, por exemplo, a existência de semáforos nas cidades. Então, a partir do momento em que esses veículos começarem a fazer parte do cotidiano das urbes, elas vão ter que se adaptar a essa realidade, suprimindo instrumentos e adaptando conceitos e métodos que são hoje exclusivamente dedicados aos humanos: Será uma transição lenta, mas daqui a muitas gerações o mundo terá outra realidade, com o uso de máquinas inteligentes. Tudo será muito mais simples e seguro, porque tudo será regido através da comunicação complexa, finaliza Denis Wolf.

(Rui Sintra: jornalista)

Veículos autônomos no Brasil e no exterior
play-sharp-fill

Veículos autônomos no Brasil e no exterior

13 de março de 2018

Cem Anos do Átomo de Bohr

Um dos grandes propósitos da ciência sempre foi entender o mundo macroscópico, através dos conceitos microscópicos. Neste contexto, o átomo sempre foi um tema de pesquisa atual, em qualquer época da história. Seu entendimento passou por diversas fases, até a descoberta de seus constituintes e, finalmente, sua natureza quântica. Assim, Niels Bohr teve um papel fundamental no lançamento das ideias seminais que geraram uma das mais revolucionárias teorias para explicar a natureza. Nesta apresentação, será mostrada a evolução da ideia do átomo como elemento básico da constituição da matéria, bem como as consequências destes conceitos para a melhoria de vida. O foco desta apresentação será a explicação de como o entendimento do átomo tornou a vida do Homem melhor, em todos os sentidos.

Cem Anos do Átomo de Bohr
play-sharp-fill

Cem Anos do Átomo de Bohr

13 de março de 2018

O papel do venture capital no desenvolvimento tecnológico

Esta palestra incidirá no papel do venture capital, com vistas ao desenvolvimento tecnológico.
O Prof. Fernando Reinach é Gestor do Fundo Pitanga de Investimento e com certeza defenderá várias teses para que o desenvolvimento tecnológico do Brasil atinja os patamares desejados para poder competir com o exterior.

 

 

 

 

 

 


Resenha

Prof. Fernando Reinach

Qual é o papel do venture capital no desenvolvimento tecnológico? Bem, para responder a essa pergunta eu vou levar, no mínimo, cinquenta minutos. Foi desta forma descontraída e bem humorada que o Prof. Fernando Reinach iniciou sua breve conversa com a Assessoria de Comunicação do IFSC, um pouco antes de iniciar sua palestra, ocorrida no dia 1º de outubro em mais uma edição do programa Ciência às 19 Horas, um evento que esteve inserido na 3º SIFSC – Semana Integrada do Instituto de Física de São Carlos. Graduado em Biologia, pela USP (1978), Fernando Reinach fez seu Mestrado em Histologia e Embriologia (1980) também na USP, e o PhD em Biologia Molecular (1984) no Cornell University Medical College (USA), tendo sido um dos mais destacados docentes da USP. Atualmente, Reinach é Gestor do Fundo Pitanga de Investimento.

Na verdade, o venture capital é um dos instrumentos que visam transformar o conhecimento científico, aquele que é feito nas universidades e nos centros de pesquisa, em algo produtivo, por intermédio da ação de empresas criadas pelos próprios cientistas: ou seja, transformar o conhecimento em dinheiro, converter as ideias científicas em empresas. E, segundo Reinach, na maior parte dos países desenvolvidos, o financiamento para este tipo de ação vem dos fundos de venture capital. É claro que estamos falando do que acontece no exterior, já que no Brasil ainda existe algum preconceito dos cientistas darem esse passo, sendo raro encontrarmos essa realidade em nosso território: Existem pouquíssimas empresas de cientistas no nosso país, até porque ainda não existe essa cultura: os cientistas vêm esse caminho como uma espécie de prostituição. Mas, nas sociedades desenvolvidas a criação dessas empresas está indelevelmente ligada ao desenvolvimento econômico e social, que justifica grande parte do investimento em pesquisa, refere Reinach.

O papel do venture capital no desenvolvimento tecnológico
play-sharp-fill

O papel do venture capital no desenvolvimento tecnológico

13 de março de 2018

Projeto Mar Sem Fim: Redescobrindo a Costa Brasileira

A palestra consiste da apresentação de algumas viagens realizadas, pelo Projeto Mar Sem Fim, pela costa brasileira, argentina, chilena e antártica, entremeadas com dados a respeito das descobertas que estas viagens proporcionaram.

O palestrante irá mostrar os ecossistemas da costa brasileira, sua ocupação desordenada, os aspectos positivos da legislação ambiental e como os brasileiros, infelizmente, deram as costas ao mar.

Finalizando, João Lara Mesquita falará e mostrará aspectos das viagens feitas para a Antártica, a importância daquele continente para o clima mundial, a cadeia da vida marinha em todos os oceanos e o trabalho que os cientistas brasileiros fazem no continente gelado.

 

 

 


Resenha

João Lara Mesquita

Viagens realizadas pelo jornalista João Lara Mesquita, no âmbito do denominado Projeto Mar Sem Fim. A exploração das costas brasileira, argentina, chilena e antártica, entremeadas com dados a respeito das descobertas que estas viagens proporcionaram. A ocupação desordenada, os aspectos positivos da legislação ambiental e como os brasileiros, infelizmente, deram as costas ao mar: a importância da Antártica para o clima mundial, a cadeia da vida marinha em todos os oceanos e o trabalho que os cientistas brasileiros fazem no continente gelado. Estes foram alguns motivos que nos levaram a indagar o palestrante convidado do Programa Ciência às 19 Horas, referente ao mês de agosto (dia 17), que decorreu, como habitualmente, no Auditório Prof. Sérgio Mascarenhas.

O objetivo da palestra de João Lara Mesquita foi trazer à tona a discussão sobre a questão do ecossistema marítimo. João Lara percebeu, como jornalista e ambientalista, que, de cada dez matérias que saem sobre o meio ambiente, sete ou oito são continentais. Para o jornalista, todo o mundo se esquece de falar do mar, que é a placenta que criou a humanidade e pelo qual o Brasil é fruto fruto da aventura portuguesa, uma aventura marítima fabulosa e fico triste de ver como ela é desconhecida no Brasil, como ela é pouco valorizada, refere Mesquita.

O brasileiro tem um litoral vastíssimo e, para o palestrante, o povo consegue enxergar a importância do mar em suas vidas: A maioria das pessoas associa o mar com lazer (praia, fim de semana, férias etc). E o objetivo, sinteticamente, é mostrar que nossos oceanos são muito mais do que isso, são importantíssimos para a vida no planeta Terra. É o ecossistema mais importante que existe e o objetivo do projeto é justamente levantar essa questão na mídia, focar e mostrar essa importância, conclui o jornalista.

Projeto Mar Sem Fim: Redescobrindo a Costa Brasileira
play-sharp-fill

Projeto Mar Sem Fim: Redescobrindo a Costa Brasileira

13 de março de 2018

Quem são os robôs? Os desafios da Robótica

Nesta palestra, serão descritos os principais passos para construção de um robô, o que é necessário para serem inteligentes e o que podemos fazer com eles. Os principais robôs existentes serão apresentados: robô que foi ao planeta Marte, o robô humanoide da Honda, robôs sociáveis, carro-robô da Google, entre outros. Serão apresentados, também, os principais projetos em andamento junto ao Centro de Robótica da USP e as previsões tecnológicas para esta área de pesquisa.

 

Download da apresentação

 


Resenha

Profa Dra Roseli Francelin Romero

A edição do Programa Ciência às 19 Horas, referente ao mês de agosto, decorreu no dia 20, pelas 19 horas, no Auditório Prof. Sergio Mascarenhas (IFSC), com a participação da Profª Drª Roseli Francelin Romero, professora titular do ICMC, Instituto de Ciências Matemáticas e da Computação, da USP, São Carlos, que trouxe um tema que atraiu muitos espectadores, na sua maioria jovens: Quem são os robôs? Os desafios da Robótica.

Na sua apresentação, a pesquisadora descreveu os principais passos para a construção de um robô, o que é necessário para serem inteligentes e o que o ser humano pode fazer com eles, tendo trazido para esta palestra o robô do ICMC, que fez as delícias dos mais novos.

De fato, os robôs são máquinas consideradas inteligentes e que são construídas com um propósito bem definido, para realizar alguma tarefa específica, como, por exemplo os carros autônomos,  sem motorista -, cuja missão é exatamente que o carro se mova de forma automática, sem o auxílio do ser humano, ou para fazer limpeza de ambiente. No geral, são máquinas com certo grau de inteligência artificial para a realização de uma tarefa pré-determinada.

A Califórnia é um dos grandes centros da robótica mundial e o que se observa nas competições de robótica e nas demonstrações de robôs, é que podemos estar muito perto de um robô poder substituir o ser humano quase totalmente. Para Roseli Romero, é fato que os robôs já substituem o ser humano em algumas tarefas, como, por exemplo, nas grandes montadoras de veículos, onde grande parte do serviço é automatizado por robôs manipuladores, que substituem o ser humano em tarefas repetitivas. Contudo, a pesquisadora não acredita que a tecnologia possa avançar ao nível de uma máquina substituir integralmente o ser humano: É o ser humano que programa os robôs, então eles vão até onde nós queremos. Por outro lado, o robô também possui limitações estruturais, ou seja, as peças que compõem os robôs desgastam-se e, por isso, a máquina tem um determinado tempo de validade, de bom funcionamento. Nós queremos que a inteligência artificial possa se aproximar ainda mais da inteligência natural, mas isso aí é um grande desafio para os pesquisadores da área de inteligência artificial. Então, ainda há muito que descobrir, inclusive sobre nosso próprio cérebro, pontua Roseli

A robótica, ao seu mais alto nível, vai entrar diretamente na sociedade dentro de pouco tempo e irá invadir as nossas casas. Assim, segundo uma previsão tecnológica, dentro de alguns anos poderemos ter no nosso lar robôs auxiliando nas tarefas do dia-a-dia, como se fossem parte da família, auxiliando nas tarefas de limpeza, abrindo a porta da rua, servindo cafezinho, água etc.: Num futuro próximo, a existência de robôs caseiros será tão natural como hoje existirem computadores na casa das pessoas, remata a pesquisadora.

No Brasil, a robótica ainda está em desenvolvimento: Existe a iniciativa de criar um centro de robótica da USP de São Carlos, que certamente vai facilitar o desenvolvimento das pesquisas. Foi uma união de vários grupos, um esforço comum de nos unirmos e montarmos esse centro que está em operação desde 2011. Ainda não temos o prédio, mas daqui a dois anos acredito que teremos finalmente o tão sonhado Centro de Robótica, que vai facilitar a integração das pesquisas realizadas no Campus, refere a palestrante.

Contudo, a ideia também é estar disseminando o conhecimento desta área por todo o Brasil e pretendendo-se que essa infraestrutura seja um centro de referência nacional e internacional: ?Nós temos boas perspectivas, temos projetos em conjunto com várias universidades internacionais, principalmente na Alemanha e EUA, mas, acima de tudo, o que pretendemos é resolver os problemas nacionais inseridos nessa área de conhecimento. Queremos robôs que possam resolver os nossos problemas. E nós estamos formando um pessoal, temos muitos alunos em formação, então acredito que em breve estaremos marcando presença no cenário nacional e internacional?, finaliza Roseli Romero.

Quem são os robôs? Os desafios da Robótica
play-sharp-fill

Quem são os robôs? Os desafios da Robótica

13 de março de 2018

Dirigíveis na sociedade moderna: uma volta ao passado?

A palestra abordará o retorno da tecnologia denominada mais leve que o ar e seus possíveis desdobramentos em nossa sociedade. A tecnologia mais leve que o ar pode ser considerada a reinvenção da aviação, pois introduzirá no Brasil um novo modo de transporte, complementar aos modos atuais, bem como os diversos usos possíveis para nossa sociedade. A correta reintrodução dessa tecnologia tem potencial de mudar o paradigma logístico nacional, com enormes benefícios para toda sociedade, e com mínimo impacto ambiental, quando comparado aos outros modos de transporte.Os tópicos abordados nesta palestra, serão:

1 –    Breve histórico da tecnologia mais leve que o ar;

2 –    Razões do desaparecimento dos dirigíveis do cenário mundial;

3 –    Os novos fatos e tecnologias que permitem a reintrodução da tecnologia;

4 –    Breve apresentação do atrito com o ar e a capacidade de carga de dirigíveis, mostrando porque a busca de grandes dirigíveis;

5 –    A iniciativa alemã mal sucedida para reintrodução de dirigíveis (case Cargolifter);

6 –    As vantagens do novo modal para o Brasil;

7 –    Os outros usos da tecnologia mais leve que o ar no Brasil;

8 –    As barreiras tecnológicas a serem vencidas para a iniciativa.

Download da apresentação


Resenha

James Rojas Waterhouse

O programa Ciência às 19 Horas, promovido mensalmente pelo IFSC, trouxe na sua edição do dia 11 de junho um tema que habitualmente desperta a curiosidade do público: Dirigíveis na sociedade moderna: uma volta ao passado? Magistralmente apresentada pelo Prof. James Rojas Waterhouse, docente da Escola de Engenharia de São Carlos (USP), a palestra sobre dirigíveis trouxe uma explicação de como funciona a tecnologia que é mais leve que o ar e sua reintrodução na atualidade. Falar de dirigíveis é quase a mesma coisa que falar da aviação, já que ambos os temas se diluem num só. Embora seja um assunto que nos remete a um passado que não é muito distante, já que estamos falando das duas primeiras décadas do século XX, o certo é que a eventual (re)introdução do novo (velho) dirigível, na versão transporte de carga, poderá revolucionar muitas áreas, como, por exemplo, logística de transportes, movimentação de cargas pesadas, comunicações e vigilância, entre outras.

A história recente nos mostra que, embora envolto em inúmeras experiências fracassadas ao longo dos anos, o dirigível não morreu por completo. Sabendo-se que os primeiros protótipos que cruzaram os céus foram os balões de ar quente, coube ao padre jesuíta português, Bartolomeu de Gusmão, ser um dos pioneiros nesse tipo de aventura, no ano 1709. Com efeito, Gusmão, nascido no Brasil, conseguiu fazer um balão de ar quente, batizado de Passarola, e subir nele nos céus.

Já em pleno século XX, o dirigível começou a ser utilizado para o transporte de passageiros, ficando registrada a construção do dirigível LZ 127 Graf Zeppelin, construído em 1928, com os seus 213 metros de comprimento e 5 motores, com capacidade para cerca de sessenta pessoas, entre passageiros e tripulação. O Zeppelin, conforme era conhecido, foi o primeiro objeto voador a dar a volta ao mundo, calculando-se que, durante sua vida útil, tenha transportado perto de 20 mil pessoas.

Em meados da década de 1930, o velho Zeppelin deu lugar ao LZ 129 Hindenburg, considerado o orgulho da engenharia alemã, com os seus 245 m de comprimento e 41,5 m de diâmetro, com capacidade de voar a uma velocidade de 135 km/h, com autonomia de 14 mil quilômetros: o monstro da engenharia alemã tinha capacidade para cerca de 100 pessoas. A vida do Hindenburg, bem como a era dos dirigíveis, terminou subitamente no dia 06 de maio de 1937, quando o aparelho explodiu perto do aeroporto de Lakehurst, New Jersey, Estados Unidos, matando todos seus ocupantes. Para James Waterhouse, a explicação para que este projeto fosse abandonado mundialmente teve a ver com a fragilidade e periculosidade dos materiais que constituíam estes modelos: Naquela época, o gás utilizado nos dirigíveis era o hidrogênio que, como sabemos, é altamente inflamável: se adicionarmos a periculosidade desse gás ao tipo de material que era utilizado na construção dos dirigíveis ? também ele altamente inflamável e pesado ? achamos a fórmula para o insucesso do projeto. A explosão do Hindenburg teve um impacto extraordinariamente negativo na sociedade. As imagens da explosão e do incêndio que se seguiu foram exibidas em todos os cinemas do mundo, na forma de documentário, e, claro, foi o fim de um sonho, principalmente no capítulo dedicado ao transporte de passageiros, comenta Waterhouse.

A partir de 1938, trocou-se o hidrogênio por outro gás, não inflamável, o hélio, que apresentou desde logo um aspecto negativo, que era a perda aproximada de 11% em termos de capacidade de sustentação: foi uma opção adotada para recuperar a imagem do dirigível, mas os dados estavam lançados e o projeto estava condenado, sendo que o golpe de misericórdia foi dado com o aparecimento do avião. Desde então, a utilização do dirigível ficou basicamente reduzida a exibições de propaganda e a passeios turísticos, tornando o projeto economicamente inviável para outros fins.

A evolução científica e tecnológica verificada nas últimas décadas ressuscitou o velho dirigível, dando-lhe novas aplicações e utilizações ao serviço da sociedade: Com a descoberta e desenvolvimento de novos materiais, mais leves, e com as inovações operadas nos motores e estruturas, também menos pesadas e compactas, o dirigível começa a fazer sentido em múltiplas aplicações, do nosso cotidiano, tornando-se mesmo uma alternativa viável, principalmente para transporte de carga. Os dirigíveis são apenas a ponta do iceberg da tecnologia que é conhecida como mais leve que o ar, canalizando-se uma de suas utilizações para o transporte de cargas pesadas. Por exemplo, você tem cargas extremamente pesadas e/ou volumosas, que não podem ser divididas e que precisam ser deslocadas em curtas distâncias, por exemplo, colunas de destilação para refinarias de petróleo, entre um porto e uma usina. Esse transporte precisa de carretas especiais, condicionamento ou mesmo interrupção no trânsito, a escolha de pistas e de estradas que comportem o peso e o volume da carga, a resolução para a transposição de pontes, etc., tudo isso colocando em risco a viabilização de projetos industriais. Então, você tem a possibilidade de utilizar balões de carga amarrados a caminhões e assim puxar essas cargas suspensas, explica Waterhouse.

Por outro lado, a eventual utilização dos dirigíveis poderá compreender outras situações, como, por exemplo, a vigilância da fronteira brasileira, através de pequenos aeróstatos presos em terra, elevados a dois ou três quilômetros de altura, conseguindo-se assim monitorar, 24 horas por dia, uma faixa ampla de terreno com o mesmo desempenho de um avião, mas sem o custo que ele acarreta para fazer a operação. Outras situações estão já equacionadas, como, por exemplo, segurança pública, monitoramento militar (no Afeganistão os dirigíveis já estão sendo utilizados para esse fim), busca e salvamento, e inclusive na área das telecomunicações, como explica Waterhouse: Em vez de termos antenas de celulares implantadas em torres, no meio das cidades, com todos os custos e riscos para a saúde, podia-se retirar a ponta da antena que está no topo da torre e colocá-la num dirigível localizado a 200 metros de altura, preso em terra. Só com essa antena você consegue cobrir uma cidade inteira, sem qualquer consequência ambiental e com custos muito reduzidos, comenta o pesquisador.

Podia-se pensar na eventualidade dos dirigíveis recuperarem a sua antiga função ? transporte de passageiros em longas distâncias -, mas James Waterhouse desmistifica o assunto, alegando que esse projeto não teria sucesso, já que os dirigíveis apenas atingem uma velocidade de 130 Km/hora. Segundo o pesquisador, a melhor opção, nesse capítulo, é usá-los para passeios turísticos, como acontece, por exemplo, na Turquia, aproveitando para dar a conhecer as paisagens e riquezas naturais deslumbrantes que o nosso país possui.

(Rui Sintra – jornalista)

Dirigíveis na sociedade moderna: uma volta ao passado?
play-sharp-fill

Dirigíveis na sociedade moderna: uma volta ao passado?

13 de março de 2018

O Nascimento do Universo

Desde a Antiguidade, o Homem tenta conhecer a estrutura e a história do Universo e, desde esses remotos tempos, foram desenvolvidos diversos mitos cosmológicos, na tentativa de explicá-las. Atualmente, desenvolvemos o nosso próprio mito, o Big-Bang, que tenta explicar exatamente a mesma coisa que na Antiguidade, mas desta vez com base nas leis da física. Nesta palestra iremos expor como se desenvolveu esta teoria, incluindo seus êxitos e dificuldades.

 

Download da apresentação

 

 


Resenha

Prof. Dr. Héctor Vucetich

Sempre bem humorado, permanentemente disponível, focado na sua áurea de conhecimento: estes são três dos predicados que conseguimos detectar, de forma espontânea, do perfil do Prof. Dr. Héctor Vucetich, docente aposentado e pesquisador da Faculdad de Ciencias Astronómicas e Geofísicas da Universidad Nacional de La Plata, Argentina, palestrante convidado de mais uma sessão do programa Ciência às 19 Horas, evento que ocorreu no dia 21 de maio, pelas 19 Horas, no Auditório Prof. Sérgio Mascarenhas (IFSC), que se encontrava completamente lotado.

O tema proposto para esta edição do programa Ciência às 19 Horas atraiu muita gente interessada em saber um pouco mais sobre os mistérios de tudo aquilo que nos rodeia: a palestra de Vucetich, intitulada O Nascimento do Universo, abordou as diversas formas como o Homem, desde a Antiguidade, vem tentando conhecer a estrutura e a história do Universo, inclusive influenciado, algumas vezes, por vários mitos cosmológicos, sempre na tentativa de obter mais explicações.

O Prof. Héctor afirma, em seu resumo referente à palestra, que o próprio Homem desenvolveu, na atualidade, seu próprio mito, o Big-Bang, só que desta vez baseado nas leis da física.

Na Antiguidade, a influência dos deuses sobre tudo o que rodeava o ser humano, dos comportamentos aos seus pensamentos, terá sido o mote para que o Homem tentasse explicar aquilo que, para ele, era de todo inexplicável: e o Universo era um dos cenários onde residia essa influência divina, era o lar do divino. Para Vucetich, a própria cultura Azteca comprova essa influência.

Foi a partir da civilização grega que o Homem iniciou as suas indagações racionais sobre o Universo, sobre o céu: Há fortes indícios que os gregos pensavam que o Universo sempre teria existido da mesma forma como eles o viam, sem qualquer alteração, um conceito que coincide com a filosofia cristã, até porque na Bíblia se pode ler que Deus criou o Universo em sete dias. E aí, claro, começaram a aparecer as perguntas: Mas, quando é que o Universo foi criado? Qual foi a data? A partir de Galileu, o Homem começou a querer saber a verdadeira história do Universo e, a partir desse momento, começou a descobrir que essa história estava intimamente ligada às leis da física, às leis da natureza, ou seja, indelevelmente ligada a conceitos científicos que passaram a ser estudados em laboratórios, comenta o pesquisador.

Para Vucetich, o Big-Bang se parece mais com um mito científico, até porque, para o palestrante, um mito nada é do que uma história que versa tempos remotos, antigos, cujos protagonistas são sempre individualidades prestigiosas, mas distantes do conceito real. Assim, Vucetich considera que as leis da natureza, que supostamente serão as protagonistas do Big-Bang, embora prestigiosas elas são distantes do panorama real: Considero o Big-Bang um mito científico: para outros, talvez seja um mito literário, refere o palestrante.

Em face de este ponto de vista de Héctor Vucetich, a dúvida permanece: então, de que forma é que o Universo foi formado? Segundo a opinião do pesquisador, o Universo nasceu graças à existência de minúsculas partículas, totalmente insignificantes, que foram se expandindo ao longo de milhares de milhões de anos, até chegarem ao ponto em que as conhecemos hoje, e aí as leis da natureza foram-lhes dando forma. Para Vucetich, isto é o que a teoria moderna e as consequentes observações têm demonstrado até hoje.

Para Héctor Vucetich, como em tudo na vida, todo esse trabalho tem tido êxitos e insucessos: Os principais êxitos que podemos referir com muita exatidão, já que, para os atingir, a complexidade dos trabalhos foi alta, são os inúmeros fenômenos e acontecimentos espetaculares que se observam diariamente no Universo e que são a base do nosso estudo e da evolução de nosso conhecimento, pontua Héctor. Por outro lado, o pesquisador refere que o principal fracasso é o fato de os cientistas ainda não terem algo que possa ser observado e testado em laboratório, por forma a aumentar e refinar o conhecimento: Ainda não conseguimos inventar uma substância com propriedades raras, por forma a escrever e a complementar, até a completar, a descrição do Universo, salienta o professor. Com a evolução científica e tecnológica, havia indícios de que se pudesse avançar mais no conhecimento do Universo, mas isso não tem ocorrido de forma veloz. Apenas 5% do Universo é conhecido, ou seja, 95% do que nos rodeia está por descobrir, em termos de sua composição, o que, para Vucetich, é um verdadeiro fracasso: Sim, é um fracasso! Sucesso seria você compreender tudo aquilo que vê, entender e explorar todas as substâncias que, para nós, são completamente misteriosas, refere Vucetich.

Tendo como uma de suas paixões a vida e morte dos asteroides, não resistimos a abordar esse tema, até com base no que ocorreu há alguns meses atrás, quando um asteroide caiu no Leste da Europa. Afinal, estamos ou não na rota de colisão de asteroides? Existem perigos não revelados? Vucetich sorri e afirma que pequenos asteroides são facilmente detectados e todos eles poderiam ser um perigo para nosso planeta, mas, contudo, o seu número é muito reduzido e cada vez que aparece um é imediatamente monitorada sua trajetória. O perigo maior vem de asteroides chamados escuros, que só são detectados quando estão muito perto do nosso planeta: Esse tipo de asteroide ainda está sendo estudado, refere Vucetich.

O curioso, neste tema, é que na maior parte das vezes Júpiter protege o nosso planeta desses asteroides que vêm de fora. Júpiter é tão grande, que suga grande parte desses asteroides, que acabam por se chocar contra ele. Segundo nosso entrevistado, a probabilidade de um desses asteroides colidir com a Terra é extremamente baixa, o que não quer dizer que não possa acontecer: É um problema muito complexo que está sendo estudado pela NASA e pela European Space Agency, completa Héctor Vucetich.

 (Rui Sintra)

O Nascimento do Universo
play-sharp-fill

O Nascimento do Universo

13 de março de 2018

Como funciona o GPS? E o pêndulo?

A Física é uma ciência experimental! Embora absolutamente correta, a afirmação dessa frase costuma ser ignorada, principalmente no ensino médio.

O resultado de uma medição tem sempre uma incerteza e essa deve, necessariamente, fazer parte da medida. A busca por precisões cada vez maiores é uma característica marcante da ciência moderna, que tem alcançado sucessos retumbantes. Com incertezas cada vez menores, muitas vezes o resultado de uma medida se torna incompatível com a teoria vigente. Nesse caso, é a teoria que deverá ser modificada, aprimorada ou mesmo abandonada, e não o experimento.

O funcionamento do GPS demanda uma alta precisão na medição de tempos. Nesta palestra, a medida do período de um pêndulo serve como exemplo de como se pode avaliar a incerteza e de como se pode aumentar a precisão.

Relógios Atômicos são pêndulos de período muito curto, que permitem a alta precisão necessária. Cada satélite do sistema GPS carrega um sofisticado relógio atômico, sendo que todos eles se encontram sincronizados entre si.  Contudo, o relógio ordinário que se encontra num aparelho GPS não é um relógio atômico, já que ele precisa ser sincronizado com os dos satélites, na hora da medição.

Download da apresentação


Resenha

Prof. Dr. Paulo Murilo Castro de Oliveira

Docente e pesquisador no Instituto de Física da UFF, Universidade Federal Fluminense, o Prof. Dr. Paulo Murilo de Castro Oliveira foi o convidado de mais uma edição do programa Ciência às 19 horas, que decorreu no dia 09 de abril, no Auditório Prof. Sérgio Mascarenhas (IFSC).

Desta vez, o público presente a esta palestra teve a oportunidade de entender um pouco melhor de que forma é que funciona o famoso GPS, bem como as características do pêndulo e a importância e as particularidades dos relógios atômicos que integram os satélites do sistema GPS, que se encontram altamente sincronizados entre si.

Contudo – e por muito bem sincronizados que estejam esses relógios atômicos -, existem sempre incertezas que estão relacionadas aos resultados de uma medição, por mais precisa que ela possa parecer. Na sua palestra, Paulo Oliveira explicou, com relativa simplicidade, que existem, de fato, dois tipos fundamentais de incertezas, ou de erros, se quisermos chamar assim: os primeiros são os erros sistemáticos, como, por exemplo, aqueles que são derivados de instrumentos que estão mal calibrados, e os segundos – os erros naturais aleatórios -, como, por exemplo, quando se mede a mesma coisa várias vezes seguidas, obtendo-se, de cada vez, um resultado diferente, mesmo que essa medida tenha sido realizada com um equipamento altamente calibrado, dentro de uma determinada faixa, como explicou o pesquisador: Por exemplo, se você medir um determinado tempo com um cronômetro vulgar, daqueles de mão, seja ele analógico ou digital, você terá que considerar o seu tempo de reação, ou seja, o tempo que o seu dedo pressiona o botão do cronômetro, quer para ligá-lo, quer para desligá-lo: se você fizer isso várias vezes, os tempos medidos nunca serão iguais. E isso ocorre não só por causa do tempo de reação humana, como também devido ao próprio aparelho, já que o instrumento também tem um determinado tempo de reação mecânica.

E é aqui que se entra no aspecto relativo à medida do período de tempo de um pêndulo, já que ele pode avaliar a incerteza de uma medição, pois a partir dessa realidade pode-se aumentar a precisão. Por exemplo, se pretendermos medir um intervalo de tempo de 10 dias, podemos fazer essa medição através do número de vezes que o Sol rodar durante esse período: isso dá o número 10. Contudo, aí tem uma incerteza, no valor de 1 dia, já que pode acontecer que essa medição possa ter começado em determinada hora e tenha terminado em outra determinada hora. Desta forma, quando referimos 10 dias, esse tempo pode ser para mais ou para menos, o que não acontece quando esse número é muito maior, como explica o docente da UFF: Se eu usar o Sol para medir um período de mil dias, a incerteza é a mesma, ou seja, de um dia, só que incide num total de mil dias: então, percentualmente, essa incerteza é muito menor?.

Na verdade, quando se mede um tempo existe a necessidade de se ter – ou utilizar  algo que nos dê uma periodicidade certa (algo periódico), como um pêndulo ou um relógio normal. No fundo, o que se faz é medir quantas oscilações é que ocorrem quando se pretende medir um determinado período de tempo e, se esse número for enorme, o erro será mais ou menos correspondente a uma oscilação: se o período do instrumento for muito pequeno, aí o erro percentual será mínimo. E é devido a estes fatores que se utilizam relógios atômicos nos satélites do sistema GPS, porque o período dos seus osciladores é muito pequeno.

 

A complexidade do sistema GPS

Os satélites com sistemas GPS carregam, como já foi dito acima, relógios atômicos e todos eles estão sincronizados entre si. Contudo, os aparelhos GPS apenas possuem relógios normais, comuns, o que gera alguma confusão para o público leigo: então, como é que se processa o diálogo, a conversa entre o GPS, o satélite e o relógio atômico, por forma a se obter a medição correta, ou seja, a se obter, no aparelho GPS, a medição certa sobre determinado ponto – um endereço, por exemplo? Para o Prof. Paulo Oliveira, essa questão desagua naquilo que ele chama de ideia genial de quem desenvolveu o sistema GPS. De fato, para se localizar um determinado ponto é necessário ter três referências: ?Se você tiver três satélites, consegue localizar com precisão um determinado ponto na superfície terrestre; mas, para isso acontecer, esses três satélites terão que ter seus relógios atômicos sincronizados entre si, que, por sua vez, deverão estar sincronizados com o relógio normal que se encontra instalado no aparelho GPS. Contudo, esses três relógios atômicos não conseguem ficar sincronizados com o relógio normal, porque este último está atrasado ou adiantado em relação aos primeiros. Então, como é que você acerta o relógio do GPS? Em vez de três satélites, você usa quatro satélites, ficando um deles sempre de reserva. Assim, você poderá usar os satélites 1,2 e 3, ou o 2,3 e 4, o 1,3 e 4, ou ainda o 1,2 e 4, deixando sempre um dos satélites de fora. Aí, você tem sempre quatro trincas possíveis. O aparelho indica os quatro pontos e calibra sua hora atual, para mais ou para menos, até o momento em que esses quatro pontos coincidam num único local. Quando isso acontecer, você acerta o relógio do GPS e é nesse momento que ele ficará sincronizado com os relógios atômicos dos satélites, dando, por esse motivo, a localização certa de onde você está?, explica o pesquisador.

No futuro, se houver a necessidade de se medirem períodos de tempo ainda com mais precisão do que acontece atualmente, poder-se-á utilizar uma radiação com período ainda mais curto. Assim, em vez de relógios atômicos com radiação Césio, que é a que se usa atualmente, poderá ser implementada uma radiação de nível nuclear, já que ela proporciona um período muito menor. Contudo – e por enquanto -, a precisão oferecida pelos atuais relógios atômicos é mais que suficiente para responder às necessidades tecnológicas de nossa sociedade.

 

Física: uma ciência experimental ignorada pelo ensino médio brasileiro

No resumo da palestra do Prof. Dr. Paulo Oliveira, estava uma afirmação algo contundente: o pesquisador afirmava que A Física é uma ciência experimental que é ignorada no ensino médio. Quisemos saber se o pesquisador se referia ao fato dos alunos do ensino médio apenas terem a oportunidade (obrigação) de deglutir milhares de páginas de livros e de não poderem aplicar aquilo que aprendem na teoria, já que mais de 90% das escolas brasileiras não possuem laboratórios. Para o pesquisador, esse é um dos motivos de sua afirmação, mas não só. Para Paulo Oliveira, – e talvez como consequência disso -, a mentalidade dominante é que a Física e a Matemática são a mesma coisa, já que o que é transmitido ao estudante é que Física é ele saber fazer contas, equações e decifrar fórmulas: Não é! Mas, infelizmente, é assim que acontece no ensino médio, no Brasil, concluiu nosso entrevistado.

Como funciona o GPS? E o pêndulo?
play-sharp-fill

Como funciona o GPS? E o pêndulo?

13 de março de 2018

Candido Portinari: Do Cafezal à ONU

A palestra começa mostrando como a trajetória de Portinari ilustra, literalmente, o famoso ditado do escritor russo Tolstoi: se queres ser universal, começa por pintar a tua aldeia. Seu coruscante itinerário começa em um humilde povoado perdido nas imensas plantações de café do interior do Estado de São Paulo e, após legar ao País um retrato emocionado e grandioso, em mais de cinco mil obras, do povo, da vida e da alma brasileira, vai atingir o seu ápice nos monumentais painéis Guerra e Paz, poderosa mensagem plástica, ética e humanista, presente do Brasil à Organização das Nações Unidas. Ao mesmo tempo, esta palestra focaliza o trabalho de 33 anos do Projeto Portinari, empenhado no levantamento, catalogação, pesquisa e disponibilização da obra e vida do pintor. Sua interface com as áreas de Ciência e Tecnologia, e sua atuação junto às crianças e jovens de todo o País. Em particular, sua conquista mais recente: a concretização de um antigo sonho, durante décadas julgado impossível, de, após obter da ONU a guarda dos originais Guerra e Paz durante o período 2010-2014, trazê-los para restauro e exposição no Brasil, e no exterior.

 

 

 


Resenha

Prof. Candido Portinari

O dia 19 de março do corrente ano ficou marcado por mais uma edição do programa Ciência às 19 Horas, uma iniciativa que decorreu, como habitualmente, no Auditório Prof. Sergio Mascarenhas, no IFSC, tendo como palestrante o Prof. João Candido Portinari, docente da Pontifica Universidade Católica do Rio de Janeiro e, simultaneamente, fundador e diretor – geral do Projeto Portinari.

Sair pelo mundo, divulgando o trabalho de um dos maiores artistas plásticos nacionais, não é fácil, tendo em conta, até, que esse périplo já dura há cerca de trinta e quatro consecutivos e que a primeira palestra proferida por João Candido Portinari data de 1980, como explica o palestrante: Na época, eu não tinha as imagens e não tinha sido feito o levantamento da obra; tínhamos poucas coisas e os equipamentos eram antidiluvianos para os parâmetros atuais. Só para se ter uma ideia, eu levava comigo catorze malas, com projetores de slides, torres etc. Eu tinha uma  picape e, então, colocava todo esse equipamento lá e ia dirigindo do Rio de Janeiro a Porto Alegre. E foi assim que percorri o Brasil inteiro dessa forma. Essa foi a primeira face do Projeto Portinari. Não havia outra maneira de conhecer o Projeto se não fosse dessa forma. E, naturalmente, em cada lugar que eu ia, sempre haviam jornalistas interessados em bater um papo para, depois, serem publicadas matérias, e foi assim que as pessoas, o público, passou a ter conhecimento do projeto. A sensação que tenho é de orgulho muito grande, sinto-me orgulhoso, sem falsa modéstia, sabe? Toda a minha equipe faz um trabalho muito grande.

Quando João Candido Portinari fala de sua equipe, sempre se manifesta na sua expressão um semblante sério; isso porque, segundo o nosso entrevistado, o Projeto Portinari esteve algumas vezes em risco ? na UTI, como ele próprio afirmou. Principalmente por questões financeiras, sempre João Portinari sempre lutou com muita dificuldade e, por isso, sua equipe nunca teve um número certo de colaboradores, até porque as pessoas sentiam-se inseguras do ponto de vista financeiro: O máximo de pessoas que eu consegui ter foi o que tenho agora, porque o projeto ?Guerra e Paz? tem uma logística muito complexa e exige uma equipe muito maior. Hoje, temos cerca de treze pessoas colaborando, mas tempos houve em que apenas consegui ter seis ou sete. O Projeto Portinari nasceu na universidade e foi criado na universidade ? algo raro para projetos culturais. Projetos culturais, no Brasil, por alguma razão que não sei explicar, estão longe das universidades: só que nós não estamos longe delas. Nós nascemos nos departamentos de ciência e tecnologia: por exemplo, eu era da matemática. Então, foi muito importante esse convívio com colegas da física, da informática, da matemática e de outras áreas do conhecimento, porque deu ao Projeto a oportunidade de trazer inovação para sua execução, praticamente na hora em que a inovação estava sendo feita. Quando você está na universidade, você passa o dia todo com os colegas e quando olha para o lado você está sentado ao lado de algum deles e pergunta, ?o que você está fazendo??; e ele responde: ?eu descobri uma coisa para tratar imagens, fazer o processamento de imagens…

Contudo, o Projeto Portinari conseguiu beneficiar-se do desenvolvimento da ciência e tecnologia nestes últimos trinta anos e, se fizermos uma pequena reflexão, o certo é que o Projeto tem a mesma idade que a indústria de microcomputadores. Quando tudo começou não existia escâner, base de dados, microcomputador, enfim, era tudo na mão; as fotos que se batiam eram de filme, slides, e então seus responsáveis percorriam o mundo inteiro fotografando a obra do Portinari e o que resultou disso foi o único registro visual colorido da obra dele em slides, que sabemos que são perecíveis e que vão se estragando, irremediavelmente: Ficávamos em pânico ao pensar de como poderíamos preservar aquilo: só que a ciência e tecnologia trouxeram a resposta, que é a digitalização em alta resolução, o tratamento cromático, compactação,… Todas as técnicas de tratamento de imagens foram necessárias. Um dos grandes problemas era como levar a obra do Portinari para todos, em qualquer lugar no mundo, e aí… surge a internet. Como íamos imaginar que ia surgir a internet quando começamos?

Desde o início do Projeto Portinari, foram levantadas mais de cinco mil obras, percorreram-se mais de vinte países da Europa, Oriente médio, das três Américas, visitando obras e proprietários, fotografando obras, pegando informações. E, nesse longo caminho conseguiu-se levantar, também, cerca de trinta mil documentos, entre eles, por exemplo, seis mil cartas que Portinari trocou com os grandes expoentes de sua geração, como Manuel Bandeira, Carlos Drummond de Andrade, Oscar Niemeyer, Vila Lobos, Mário de Andrade, e esse fato não é tão conhecido assim: ele, além de pintor, conviveu intensamente com sua geração, com abundantes trocas de ideias e de opiniões sobre os mais variados temas, principalmente relativas a preocupações de âmbito estético, artístico, cultural, social e político: tudo isso estão refletido nessas cartas.

A divulgação dessas cartas vai muito além do que todos nós possamos imaginar, como refere João Portinari: Essa divulgação vai muito além de Portinari, até porque essas cartas nos revelam como era o Brasil nessa época, o que aquela gente pensava a respeito de seu país, quais eram os caminhos estéticos, políticos, sociais, tudo. Então, além das seis mil cartas, existem ainda doze mil periódicos de jornais e revistas, de 1920 até hoje. Fizemos um programa que entrevistou setenta e quatro contemporâneos de Portinari, resultando em cento e trinta horas de gravação que, agora, estudantes e pesquisadores descobriram e estão começando a tirar benefícios disso. Temos também cinco mil obras – não as originais, mas o documento do levantamento -, que se traduzem em todas as informações que conseguimos recolher, mais as imagens, coloridas e em preto e branco. Temos mais de mil e duzentas fotografias de época, monografias, textos avulsos, cartazes,… Temos muitas coisas do que chamamos de ?memorabília?. Todo esse acervo foi o responsável pelo grande passo que demos agora, ao lançar o Portal Portinari. Tínhamos o site, mas ele não tinha uma interface muito amigável. Para uma criança da rede escolar, por exemplo, ou para um professor, não era muito amigável. Isso agora é diferente e está fazendo o maior sucesso entre as crianças.

As pessoas dizem que o Brasil não tem memória, que as pessoas não dão valor à cultura. Contudo, o nosso entrevistado desmistifica a frase, salientando que o Projeto Portinari teve a devida solidariedade da sociedade brasileira: Não importa a cor política da pessoa, não importa nada. Nós tivemos essa solidariedade de todos os setores da vida brasileira. Vou dar três exemplos, só para se ver a loucura que foi isso. Uma grande empresa de transportes aéreos, que era a Varig, durante décadas deu as passagens de graça para pesquisador e fotógrafo percorrerem o Brasil inteiro fotografando as obras. Eu duvido que a Air France ou a Panamerica fizessem isso em prol da memória de um artista europeu ou americano. Nunca ouvi falar de nada igual. E não somente a Varig fez isso, como também enviou telex para todas as agências Varig do mundo inteiro, pedindo que em cada lugar a agência Varig funcionasse quase como uma sucursal do Projeto Portinari, e identificasse quem tinha obras ou qualquer documento sobre Portinari, mandando organizar a logística das visitas e todo o apoio indispensável. O Ministério das Relações Exteriores mandou uma circular para todas as missões diplomáticas brasileiras no mundo inteiro, pedindo, também, que cada local apoiasse o Projeto. Isso foi valiosíssimos para nós! E o terceiro exemplo veio da maior rede de televisão do país – Rede Globo ? que, com o apoio da Fundação Roberto Marinho, fez uma campanha de chamadas nacionais e regionais, em todos os horários, inclusive nobres, que durou quase quatro anos, pedindo que, se qualquer pessoa tivesse qualquer documento sobre Portinari, que entrasse em contato conosco. Os Correios nos deram a caixa-postal 500, um número fácil de lembrar. Essa caixa-postal recebeu mais de três mil cartas do Brasil inteiro. Isso tudo aconteceu há trinta anos. Então, o brasileiro, quando acredita em algo, mobiliza-se; eu acho que todos eles acreditaram no Projeto Portinari, pois estamos falando de um artista muito amado, que diz algo fundo na alma dos brasileiros, pois todos sabem que ele retratou o Brasil, o brasileiro, a alma do país, e de uma maneira muito autêntica, crítica e emocionada de todos os aspectos do país. Eu acho que não se conhece no mundo inteiro nenhum pintor que tenha pintado mais um país do que Portinari pintou o seu. Portinari pintou os temas sociais, os temas históricos, religiosos, o trabalho no campo e na cidade, a infância, os tipos populares, a festa popular, os mitos, a fauna, a flora e a paisagem, ou seja, ele fez um grande retrato de uma nação. Isso é uma coisa que o Brasil agora está começando a ter: uma autoestima muito maior do que tinha no passado, quando achávamos que tudo que vinha de fora era melhor do que o nosso. E agora isso está mudando: estava na hora de mudar…

O Projeto Portinari está aí, para que todos o possam conhecer e transmitir seus valores, principalmente os jovens, e essencialmente nas escolas. João Candido Portinari rematou esta entrevista com uma frase profunda proferida pelo eterno compositor polaco Frédéric François Chopin, que ilustra a sensibilidade e devoção do nosso convidado do Ciências às 19 Horas: A arte é o espelho da pátria. O país que não preserva seus valores culturais jamais verá a imagem da sua própria alma. Se você não vir a imagem da sua própria alma, você não se conhece e, você não se conhecendo, você não pode ir a lugar nenhum.

Candido Portinari: Do Cafezal à ONU
play-sharp-fill

Candido Portinari: Do Cafezal à ONU

13 de março de 2018

Onde a Física e a Medicina se encontram: Física Médica e Neurofísica

O que pode fazer um físico em um hospital ou uma clínica? O físico médico é um físico ou é um médico? Como a Física pode auxiliar no entendimento do cérebro humano e suas doenças? Esta palestra responderá a estas e outras questões, abordando um pouco da história do entrelaçamento entre as áreas de Física e Medicina e descrevendo a profissão e áreas de atuação de um Físico Médico, profissional cuja demanda está aumentando no mercado de trabalho. Também falará sobre a área de pesquisa multidisciplinar conhecida como Neurofísica, em que não só a Física e a Medicina, mas também a Biologia, Psicologia, Computação e Química se encontram para desvendar os mistérios do cérebro humano.

 

Download da apresentação


Resenha

Chegou ao fim a programação estipulada para o ano de 2012 do programa Ciência às 19 Horas. Na última edição, realizada no dia 13 de novembro, que decorreu no Auditório Prof. Sérgio Mascarenhas (IFSC), foi dado destaque ao tema Onde a Física e a Medicina se encontram: Física Médica e Neurofísica, uma palestra apresentada pela Profa. Dra. Gabriella Castellano, docente Grupo de Neurofísica do Instituto de Física Gleb Wataghin (UNICAMP).

Nesta interessante palestra, a convidada incidiu seu olhar sobre a atividade de um físico médico, ainda pouco conhecida entre nós, bem como o entrelaçamento que existe entre as áreas da Física e da Medicina nesse seu trabalho.

As áreas mais importantes da designada física médica são a radioterapia, medicina nuclear e a radiologia ou radiodiagnóstico, sendo que todas elas envolvem o manuseamento de equipamentos complexos, lidando com radiação ionizante. Daí a necessidade, segundo a palestrante, de se ter um profissional que tenha conhecimento, aptidão e especialização neste tipo de radiação, sabendo como ela interage com os tecidos do corpo humano e que danos e benefícios ela pode causar nas pessoas: esse profissional é o físico médico.

Sempre que uma estrutura hospitalar possua equipamentos desse tipo, torna-se necessária a presença de um físico médico. Atualmente, os hospitais têm investido na compra de equipamentos de radioterapia, que servem, principalmente, para o tratamento de câncer: daí que os físicos médicos sejam considerados uma peça fundamental nesses procedimentos, porque uma vez que o médico diagnostica qual é o tipo de câncer que um paciente tem, prescrevendo um tratamento, quem irá fazer o planejamento desse mesmo tratamento, juntamente com o médico, será o físico médico, cabendo a este sugerir qual será o melhor tipo de terapia que irá ser utilizado para tratar esse tumor, de que forma é que a radiação irá ser canalizada, se haverá riscos de reações adversas, quais os ângulos que deverão ser aplicados na radiação, qual a intensidade dela, etc. E o objetivo é sempre tentar destruir o tumor sem danificar ou comprometer todo o tecido que se encontra em redor dele e que está são. Sobre o enquadramento legal desta atividade profissional, Gabriela Castellano explica:

Atualmente, existe uma legislação que obriga os centros de radioterapia a terem, no seu quadro de recursos humanos, a figura do físico médico. Contudo, para outras áreas, como a medicina nuclear e o radiodiagnóstico, ainda não existe legislação, mas está-se caminhando nesse sentido. Na medicina nuclear, o usual é utilizarem-se radiofármacos, que são moléculas que possuem elementos radioativos, e que ao serem ingeridas ou injetadas nos pacientes, essas moléculas emitem radiações internas que podem ser utilizadas para se fazerem imagens de determinadas partes do corpo humano. É óbvio que toda a manipulação desses radiofármacos precisa ser feita por profissionais altamente qualificados e especializados, que possam calcular a dose certa que pode ser administrada em determinado paciente, exatamente para que se possa fazer determinada imagem e não outra coisa qualquer que possa prejudicar esse paciente. Por outro lado, como os radiofármacos geralmente são feitos nos próprios centros de medicina nuclear, existe a necessidade de existirem físicos médicos nesses locais, por forma a que o trabalho deles tenha uma sequência lógica, principalmente na interligação com o pessoal de radiofarmácia.

A formação de um físico médico e sua saída para o mercado de trabalho

A física médica é uma disciplina multidisciplinar, onde o físico tem que ter conhecimentos vários, não só no aspecto da física comum, como também nas áreas de medicina, biologia, química e, inclusive, conhecimentos profundos de matemática e computação, porque esse profissional irá lidar  com softwares extremamente complexos e com algoritmos complicados, principalmente para captura e tratamento de imagens com definições de alto padrão, que nada têm a ver com as usuais imagens da radiologia convencional, os tão conhecidos Raios-X. Há quem questione se este profissional é um físico, ou se é um médico: na verdade, ele é um físico e não um médico, mas trabalha a par com os médicos, em parceria estreita com eles. Quanto à formação destes profissionais, a Profa. Gabriela Castellano elucida:

Vou dar o exemplo da UNICAMP, onde existe um curso de graduação em física médica, em que o aluno faz a maioria de suas disciplinas dentro da área da física básica, passando depois para disciplinas específicas: biologia, medicina, física aplicada à medicina, física de radioterapia, física de medicina nuclear, física de radiologia, etc., tudo isso já canalizado, como se vê, para a área médica. São quatro anos de curso, acrescido de um ano de estágio em um hospital ou clínica, e mais um período de residência em física médica num centro de radioterapia, para depois ingressar definitivamente em um hospital ou centro. Contudo, um dos problemas no Brasil, nesta área, é que existem pouquíssimos centros que oferecem esse tipo de residência na área de física médica, mas há a esperança de que esse panorama possa mudar, já que foi lançado recentemente um edital, tendo em vista a possibilidade de serem oferecidas mais bolsas destinadas à residência; como informação complementar, essas residências têm uma carga horária pesada ? cerca de 60 horas semanais ?, o que demonstra o quanto um físico médico fica preparado para exercer sua atividade.

No Brasil, a demanda por esses profissionais está crescendo muito, mas ainda existem dois problemas que necessitam ser resolvidos: o primeiro, diz respeito à legislação, porque embora seja importante a ação do trabalho do físico médico, esta profissão tem ainda que ser reconhecida legalmente na área específica da radioterapia e essa falta de reconhecimento faz com que muitas clínicas e hospitais ainda prescindam da contratação desses profissionais, o que, para nossa entrevistada, é um erro. O segundo problema diz respeito aos próprios médicos, que são proprietários ou possuem cargos de administração em hospitais, que ainda não perceberam a importância de ter um físico médico ao seu lado, até para gerir e manusear, de forma correta, equipamentos que são extremamente sensíveis e fidedignos, dependendo deles e dos resultados alcançados o sucesso dos diagnósticos e tratamentos, tendo em vista o bem-estar dos pacientes.

Fazendo uma comparação, nesta área, com a realidade norte-americana, o Brasil ainda está engatinhando:

Nos Estados Unidos, o físico médico é o profissional mais bem pago em todas as áreas da Física Aplicada e tem uma demanda muito grande. Por exemplo, no Brasil existem alguns (poucos) equipamentos de ressonância magnética e outros mais dedicados à medicina nuclear, enquanto que nos Estados Unidos existem largas centenas desses equipamentos que estão distribuídos pelos principais hospitais e clínicas. Por outro lado, no Brasil existe apenas um técnico, designado de Cientista Clínico, cuja sua missão, conjuntamente com os pesquisadores, é desenvolver protocolos específicos em ressonância magnética, principalmente no capítulo de geração de imagens: não só ele é o único no Brasil a fazer esse trabalho, como também ele é o único com essa especialidade abaixo da linha do Equador. Comparativamente, só nos Estados Unidos existem cerca de trinta cientistas clínicos para esse objetivo. Agora, imaginemos quantos equipamentos de ressonância magnética existem nos Estados Unidos e quantos existem no nosso país, conclui Gabriela Castellano.

 (Rui Sintra – Jornalista)

Onde a Física e a Medicina se encontram. Física Médica e Neurofísica
play-sharp-fill

Onde a Física e a Medicina se encontram. Física Médica e Neurofísica

13 de março de 2018

Surpresas do Mundo Quântico

No início do século XX, uma revolução conceitual transformou a visão que até então se tinha dos fenômenos naturais. A nova física quântica, desenvolvida por jovens como Einstein, Heisenberg, Schrodinger, Dirac, Bohr, Born, Pauli, Dirac e outros, revelou que as leis que regem o comportamento do mundo microscópico violam a intuição obtida através da observação dos fenômenos macroscópicos que fazem parte de nosso quotidiano.

Apesar de seu aspecto contra-intuitivo, as surpreendentes propriedades do mundo quântico resultaram, ainda no século XX, em aplicações importantes, como o laser, o transistor e a ressonância magnética nuclear.

No início do século XXI, questões importantes sobre sutis efeitos quânticos permanecem sem resposta, ao mesmo tempo que novas idéias surgem sobre outras possíveis aplicações, envolvendo a codificação de informações (criptografia) e computadores quânticos.

Esta palestra apresentará uma introdução aos fenômenos quânticos e algumas das possíveis aplicações que estão sendo consideradas atualmente.

Download da apresentação


Resenha

Prof. Dr. Luiz Davidovich

Quando usualmente se fala em transistores, lasers e RMN (ressonância magnética nuclear), não há qualquer tipo de dificuldade em identificar essas denominações, pois elas estão intrinsecamente ligadas às extraordinárias descobertas feitas no século XX. Passada que é a primeira década do século XXI, o mundo científico não quer abrandar a verdadeira revolução que iniciou há cerca de cem anos: o que era inovação ontem, está desatualizado hoje. A velocidade com que a ciência avança em todas as áreas do conhecimento é impressionante. Embora a física tenha contribuído ? e bastante – para esse incrível turbilhão tecnológico, o certo é que o século XXI traz com ele alguns enigmas que estão ligados ao rápido desenvolvimento científico e na procura por mais e melhor. E um dos exemplos de enigmas na física reside nos efeitos quânticos que, por enquanto, ainda não apresentam todas as respostas para os cientistas.

Para debater conosco este tema e suas particularidades, conversamos com um dos mais eminentes físicos brasileiros, o pesquisador, Prof. Dr. Luiz Davidovich, que por ocasião da segunda edição da SIFSC ? Semana Integrada do Instituto de Física de São Carlos, participou no habitual programa intitulado ?Ciência às 19 Horas?, que ocorreu no dia 16 de outubro, com a palestra subordinada ao tema Surpresas do Mundo Quântico.

 

O fenômeno do Emaranhamento

De fato, existem ainda questões em aberto na física quântica, relacionadas com problemas antigos que foram formulados em 1935 por Einstein, Podolsky e Rosen, através de um famoso artigo científico que resultou do designado Paradoxo de EPR, no qual se levantou um dos problemas mais fundamentais da teoria quântica ? saber se a mecânica quântica era uma teoria completa, ou se, pelo contrário, continha variáveis escondidas que tinham a ver com o fenômeno do Emaranhamento. Segundo Davidovich, esse fenômeno tem ocupado as mentes dos físicos durante décadas e provocou inúmeras discussões filosóficas entre os anos de 1935 e 1960.

Só em 1964 é que foi possível dar uma formulação matemática a todos esses debates, através da teoria de John Stewart Bell, que, no meu entender, foi uma das grandes contribuições da física no século XX. O que despertava a curiosidade e atenção dos físicos e filósofos dessa época era o fato de que o fenômeno do Emaranhamento, que Einstein classificou como fantasmagórico, poderia talvez ser explicado pela teoria designada de variáveis escondidas: por outras palavras, o Emaranhamento estava associado a correlações muito fortes entre dois objetos e acreditava-se que talvez uma teoria alternativa de física quântica poderia explicar essas correlações, comenta o pesquisador.

De fato, em 1964 John Bell mostrou que havia experimentos que poderiam diferenciar as previsões da teoria quântica e as previsões dessas teorias alternativas. Os experimentos foram realizados e estabeleceu-se que, de fato, as teorias alternativas não eram adequadas para descrever esse fenômeno. Ganhou-se, nos últimos anos, uma enorme compreensão sobre esse fenômeno do Emaranhamento, mas ainda há questões em aberto, conforme explica Davidovich.

Einstein, Podolsky e Rosen referiam-se ao Emaranhamento entre duas partículas, entre dois corpos. Hoje, são produzidos estados emaranhados de muitas partículas. Por exemplo, em laboratórios na Áustria, são produzidos estados emaranhados de catorze átomos. Como entender a matemática desses estados, como classificar o emaranhamento desses estados? Como ordenar esses estados de acordo com a quantidade de emaranhamento que possuem? Tudo isso é uma questão em aberto na física e na matemática e por isso é interessante verificar que essas questões, tão básicas da física contemporânea, encontram ainda sérios desafios muito fortes.

Também apareceram novas ideias para futuras aplicações, que envolvem a criptografia e o aparecimento dos computadores quânticos, tendo como base os trabalhos vencedores do Prêmio Nobel da Física ? 2012, da autoria do francês Serge Haroche e do americano David Wineland, que conseguiram manipular partículas quânticas sem as destruir. Para o Prof. Luiz Davidovich, essa história não está bem contada, pois os media ainda não souberam explicar, de forma correta, esses trabalhos:

De fato, isso de manipular partículas quânticas sem as destruir tem sido noticiado da forma como você refere, mas na verdade é um pouco mais complexo do que isso. Quando se detecta um fóton, a maneira usual de fazê-lo implica na destruição dele. A detecção de um fóton faz-se através de um aparelho chamado (logicamente) Fóton-Detector e ele tem a propriedade de absorver o fóton. Sabemos que o fóton estava lá a posteriori através do sinal emitido por esse aparelho, que o detectou e que o destruiu. No grupo de pesquisa de Serge Haroche utilizaram-se experimentos que permitiram detectar, por exemplo, o número de fótons existentes numa cavidade, sem os destruir. Não é que o estado do sistema fique inalterado, como se fala, mas é uma propriedade do sistema, ou seja, é o número de fótons que fica inalterado. Você detecta esse número de fótons com átomos que passam pela cavidade, e esses átomos sentem que os fótons estão lá, mas não os absorvem. Isso é o que se chama de Medida Quântica Não Demolidora, porque ela não destrói, não demole os fótons que estão na cavidade. Contudo, isso não significa que o estado fique inalterado, podendo-se mostrar que esses átomos, que mantêm o número de fótons inalterado, tornam a fase ? que é uma propriedade do campo eletromagnético ? completamente caótica. Eles alteram a fase do campo, mas não alteram o número de fótons: são propriedades complementares, refere o nosso convidado.

 

Computadores mais velozes e códigos criptográficos inquebráveis (?)

Nesse contexto, conforme explicou Davidovich, o que se chama de Medida Quântica Não Demolidora, em geral, mais não é do que uma medida que não altera a variável que está sendo observada, mas que pode alterar completamente a variável complementar. Pode-se fazer uma Medida Quântica Não Demolidora da velocidade de uma partícula, mas para se fazer isso não se destrói a posição da partícula. Os trabalhos de Haroche e Wineland prevêem, segundo os media, que num futuro próximo possam existir computadores ainda mais velozes e códigos criptográficos inquebráveis. Estas afirmações obrigaram-nos a questionar nosso entrevistado se essa é uma afirmação correta e o que estará para vir depois disso. Enfaticamente, Luiz Davidovich dividiu a questão em duas partes, debruçando-se primeiramente nos códigos inquebráveis ou invioláveis, explicando que a designada criptografia quântica permite a transmissão daquilo a que se chama usualmente de chaves criptográficas: então, o que é uma chave criptográfica?

Quando queremos enviar uma mensagem para uma pessoa amiga que está longe, e queremos codificar essa mensagem, precisamos ter uma chave para fazer isso. E o importante é que ambas as pessoas tenham essa chave ? a pessoa que envia a mensagem e a pessoa que vai recebê-la, para decodificá-la. Por isso mesmo, enviar chaves de um lugar para o outro é o ponto crucial dessa operação, referiu Davidovich, exemplificando com o clímax transmitido por qualquer filme de suspense, onde um espião dá a vida para capturar essas chaves, já que, na verdade, ele não está interessado nas mensagens propriamente ditas. Assim, se os espiões conseguem as chaves, eles poderão ter acesso a todas as mensagens.

O que a física quântica faz é permitir enviar uma chave, de tal forma que se alguém tentar olhar para ela, imediatamente se descobre que o fez isso. Isso está baseado na propriedade fundamental da física quântica, que diz que você não pode medir o sistema sem alterá-lo. Você pode até fazer medidas que não alteram certa propriedade do sistema, mas vai alterar outra. Então, se uma pessoa tenta descobrir qual a mensagem que está sendo enviada, ela necessariamente modifica essa mensagem. Assim, tanto a pessoa que envia a chave, como aquela que a recebe, podem descobrir que houve uma observação dela e aí a chave deixa de ser confiável, pois comparando ambas elas mostram diferenças, salienta o pesquisador.

Quando perguntamos ao Prof. Luiz Davidovich se isso poderá se tornar uma realidade, o pesquisador respondeu Já é uma realidade. Com efeito, em 2007, as eleições em Genebra (Suíça) foram feitas eletronicamente e os votos foram transportados (para serem contabilizados) através da criptografia quântica. Se alguém quisesse violar um voto que fosse seria descoberto imediatamente. Segundo o nosso entrevistado, esse método está sendo usado também na Áustria e na Suíça para conectar matrizes de bancos às suas filiais, em distâncias curtas, só que esta realidade não fica por aqui.

Hoje, estão sendo feitos experimentos para o envio de chaves quânticas a grandes distâncias. Existe uma cooperação que está sendo realizada entre a China, Europa e Austrália, para fazer tudo isso através de satélites, ou seja, serão usados satélites artificiais para estabelecer chaves quânticas. Fantástico, não é? Então, essa é uma fase da informação quântica que já está sendo implantada, remata Davidovich.

Quanto à computação quântica, que é a segunda parte relacionada com a primeira questão que colocamos, segundo o nosso entrevistado, ela promete muito, tendo começado a despertar um grande interesse, principalmente em determinadas agências governamentais dos Estados Unidos da América, nomeadamente na NSA ? National Security Agency, a partir do momento em que houve uma proposta de um matemático que trabalhava nos laboratórios da ATAT ? American Telephone and Telegraph Corporation, que mostrou que alguém que possuísse um computador quântico poderia faturar um número em um espaço de tempo exponencialmente mais rápido do que num computador clássico. Mas, o que é faturar um número? Luiz Davidovich explica.

É decompor em números primos, pontua o pesquisador. Por exemplo, 15=5×3. Até aqui, nada de anormal, todo mundo sabe isso. Agora, um número como 3.873.984, fica mais difícil descobrir os fatores primos dele. De fato, nos computadores clássicos, o melhor algoritmo conhecido hoje para faturar um número, leva um tempo relativamente longo. Por isso mesmo, a faturação de números grandes é a base do método criptográfico muito usado atualmente ? método RSA -, extremamente utilizado quando estabelecemos contato com os bancos pela Internet. Assim, quem possuir um computador quântico vai poder quebrar todos os códigos existentes e daí a preocupação da NSA.

A partir desse pressuposto, a NSA implantou uma estratégia muito interessante: ela abriu completamente o tema, sem segredos, e passou, através de funcionários altamente capacitados, a frequentar as conferências para as quais eram convidadas pessoas de todo o mundo. Na China, que é onde decorre a maior parte dessas conferências, lá está sempre um funcionário de alto escalão – na maioria das vezes, matemático – devidamente credenciado e identificado pela NSA. A agência americana não quer saber de mais nada a não ser verificar se alguém violou algo, por forma a poder mudar imediatamente seus códigos. Contudo, para fazer com que um computador quântico fature números com mais eficácia de que um computador convencional teria que existir uma máquina com um poder quase inimaginável.

Esse computador imaginário teria que ter 1.000 qbits, colocando esse número num estado emaranhado, o que é algo extremamente difícil, quase impossível. Agora, se vai aparecer o computador quântico baseado nas idéias atuais, para quebrar códigos, eu tenho as minhas dúvidas. Por outro lado, atualmente estão sendo feitas demonstrações muito interessantes de computação quântica, usadas para simular sistemas físicos, e nessas simulações consegue-se fazer coisas extraordinárias, como, por exemplo, simular movimentos de camadas de ar na atmosfera, o que é um tema interessantíssimo para a área de meteorologia, explica o palestrante.

 

Luiz Davidovich versus Serge Haroche

O Prof. Davidovich é amigo pessoal e um dos colaboradores brasileiros mais próximos de Serge Haroche, um dos vencedores do Prêmio Nobel da Física deste ano, e essa colaboração vem de há vinte ou vinte cinco anos. Davidovich desloca-se frequentemente a França, onde participa de conselhos de diversos organismos europeus, e propôs-se a falar um pouco sobre essa relação de trabalho com o pesquisador francês, que remonta ao ano de 1986, quando Luiz Davidovich ainda estava na PUC do Rio de Janeiro.

Foi graças a uma licença sabática que decidi ir para França, onde passei um ano com a equipe de Haroche. Quando cheguei lá, a minha intenção era fazer um experimento sobre um dispositivo chamado micro-maser: o maser é um laser que funciona na região de microondas, na área da luz. O micro-maser é um maser microscópico que funciona com apenas alguns átomos de cada vez, numa cavidade ressonante, e esse micro-maser era algo baseado na transição de dois fótons. Eu achei interessante e comecei a trabalhar na teoria desse micro-maser, uma teoria que, para essa especificação, ainda não tinha sido realizada. Cheguei na França com muita vontade e trabalhei dia e noite, durante fins-de-semana: eu estava cheio de gás. Então, deparei-me com problemas de vária ordem que levaram muito tempo para resolver ? inclusive, houve um problema que eu resolvi, imagine, no cinema, em plena exibição de um filme. Então, o que eu fiz foi desenvolver essa teoria e o interessante foi que ela demonstrou que o experimento que estávamos planejando com Haroche tinha que ser modificado e mais tarde comprovou-se tudo isso, na experimentação. Foi fantástica essa experiência, esse trabalho em colaboração com Haroche e sua equipe, que tinham a particularidade de ter um humor deveras refinado, extraordinário, recorda nosso entrevistado, sorrindo.

Depois desse ano na França, Davidovich começou a viajar com freqüência para lá, sempre trabalhando junto com Haroche e sua equipe em diversos projetos e idéias, sendo que algumas delas não passaram para a fase experimental por falta de equipamentos, mas que, mesmo assim, estão prontas para isso, como é o caso da teleportação.

De fato, o nosso artigo sobre teleportação foi o primeiro a propor o experimento e, curiosamente, mostrou que dava para fazer a teleportação fazendo uma determinada operação lógica entre átomos e campo, que na verdade mais não era do que uma porta lógica alimentada por computação quântica. Claro que na época não sabíamos isso; apenas chamávamos de porta de fase. Seguidamente, trabalhamos na designada Medida Quântica Não Demolidora, propondo experimentos; no artigo que foi feito com base nesse trabalho conjunto com a equipe de Haroche ? que é um dos artigos mais citados ?, tivemos a idéia de fazer um experimento que envolveria a produção de um estado do campo eletromagnético análogo ao Gato de Schrodinger, teoria datada de 1935, da autoria do físico Erwin Schrodinger. Nesse experimento, seria produzido, numa cavidade, um campo que estaria numa superposição de dois estados, ou seja, uma cavidade acesa e apagada, ao mesmo tempo, uma superposição dessas duas situações. Era uma superposição que você pode interpretar, classicamente, cada uma delas ? sabemos o que é uma cavidade acesa e o que é uma cavidade apagada, mas uma cavidade acesa e apagada, ao mesmo tempo, é difícil de imaginar, é impossível imaginar: é como o Gato de Schodinger, que está vivo e morto, ao mesmo tempo. No entanto, isso é uma possibilidade quântica. Na sequência desse artigo, publicamos, em 1996, um outro artigo em que mostramos como é que poderia ser medida essa superposição, mostrando, igualmente, como é que, com o tempo, essa superposição quântica estranha se transforma numa alternativa clássica. Em outras palavras, as propriedades quânticas desaparecem devido ao contato daquele sistema com o ambiente, ou seja, o ambiente destrói as propriedades quânticas. Nós provamos isso, na teoria, explica Davidovich.

Esse experimento foi feito ainda no decurso de 1996 e foi muito badalado nessa época, exatamente pela propriedade da perda de coerência. Davidovich e Haroche tiveram ainda uma outra cooperação na área do laser, que incidiu sobre uma teoria do laser microscópico.

Foi um trabalho intenso nessa época. Em 1994 transferi-me para a UFRJ e a partir daí dediquei-me exclusivamente á teoria, ao ponto de criar um laboratório ? para pasmo da comunidade de físicos. É um laboratório para teóricos, mas com uma interligação fortíssima com a área experimental, que acolhe nomes de grandes pesquisadores. São verdadeiramente fantásticos os resultados obtidos nesse laboratório, com artigos de grande impacto publicados em diversas revistas, como, por exemplo, na Nature ou na Science, recorda o pesquisador.

A colaboração com França deu e continua a dar frutos muito importantes, principalmente para a ciência brasileira. Luiz Davidovich e Serge Haroche orgulham-se de sua amizade e de seus trabalhos, continuando a trocar experiências científicas e a se visitarem mutuamente. Contudo, existem outras colaborações científicas com França, não necessariamente com o grupo de Haroche, que têm contribuído ? e muito – para o desenvolvimento da ciência nacional. E as universidades brasileiras estão aí, como prova disso.

Surpresas do Mundo Quântico
play-sharp-fill

Surpresas do Mundo Quântico

13 de março de 2018

O que é a massa? E o bóson de Higgs?

Faremos um breve relato das origens de massa e inércia, e, através da evolução de nossos conceitos sobre a constituição da matéria, argumentaremos que a massa dos corpos macroscópicos se deve à massa e interações de seus constituintes, ou seja, os átomos, núcleos atômicos e partículas elementares, como quarks e elétrons.

Finalmente, discutiremos o problema da origem da massa no contexto das teorias atuais, que descrevem as interações (forças) entre corpos, como um processo de troca de partículas ditas intermediárias.

Por um lado, tais teorias baseiam-se em princípios de simetria que exigem que as partículas intermediárias tenham massa nula. Por outro lado, estas mesmas teorias dizem que o alcance da força é tanto menor quanto maior for a massa daquelas partículas.

A descrição das forças nucleares, que sabemos ser de curto alcance, exige a ruptura das simetrias sobre as quais nossas teorias são baseadas. O conflito é resolvido, magistralmente, pelo chamado mecanismo de Higgs, que implica a existência do famoso bóson de Higgs e que talvez tenha sido descoberto, recentemente, no acelerador de partículas LHC do laboratório CERN, em Genebra, Suíça.


Resenha

Prof. Dr. Carlos Garcia Canal

Subordinada ao tema O que é a massa? E o bóson de Higgs, decorreu no dia 18 de setembro, no Auditório Prof. Sergio Mascarenhas, mais uma edição do programa Ciência às 19 Horas, tendo desta vez como palestrante convidado o Prof. Dr. Carlos Garcia Canal, docente do Departamento de Física da Universidad Nacional de La Plata ? Argentina.

A palestra apresentou um breve relato das origens de massa e inércia, e, através da evolução de conceitos sobre a constituição da matéria, foi apresentada a argumentação que a massa dos corpos macroscópicos se deve à massa e interações de seus constituintes, ou seja, os átomos, núcleos atômicos e partículas elementares, como quarks e elétrons.

Finalmente, o palestrante lançou a discussão sobre o problema da origem da massa no contexto das teorias atuais que descrevem as interações (forças) entre corpos, como um processo de troca de partículas ditas intermediárias, enfatizando os últimos passos dados rumo à descoberta do bóson de Higgs.

Antes mesmo de começar sua palestra e em conversa informal com a Assessoria de Comunicação do IFSC, Carlos Garcia Canal afirmou que a principal intenção de sua participação no programa Ciência às 19 Horas era tentar partilhar com o público o entendimento que se tem da massa, mas a um nível microscópico, já que existem diferenças nos conceitos tradicionais da mesma em nossa vida cotidiana.

A massa clássica, que é uma medida da inércia que está relacionada com o nosso peso , o peso de um ser humano, sofre modificações conceptuais quando está em causa a relatividade, ou seja, quando a física se coloca perante uma velocidade próxima à velocidade da luz. Por outro lado, a física também está sendo toda ela repensada ao nível da mecânica quântica, já que ela tem uma vigência nos níveis atômico e subatômico. Através da relatividade, aprendemos que a massa e a energia podem se correlacionar; se você dispõe de energia, ela pode ser materializada em partículas quânticas, comenta Garcia Canal.

Para o palestrante, a massa está diretamente relacionada com as interações fundamentais da Natureza, elétrica e magnética, interações fortes que têm a ver com a composição dos prótons e neutrons do núcleo atômico; e as interações fracas, que estão relacionadas com a desintegração dos núcleos por emissão de elétrons.

Neste momento trabalhamos com uma teoria relativa às partículas que intervêm nas interações e que são desprovidas de massa; mas, na realidade, quer as partículas da matéria, quer as partículas que levam à interação fraca, que são as portadoras da interação fraca, todas elas têm massa. Então, o conflito entre uma simetria que é a base da compreensão das interações e o fato de que essa simetria não permite a presença de massa é resolvido através de uma situação muito particular, que é a realização de uma simetria incompleta; ou seja, a simetria está presente nas equações e no sistema, mas ela não apresenta nas soluções. É a isto que chamamos de mecanismo de Higgs. Para colocarmos em marcha esse mecanismo precisamos que exista um novo ingrediente da teoria, o bóson de Higgs, refere o palestrante.

No último dia 04 de julho, no acelerador de partículas LHC do laboratório CERN, em Genebra, Suíça, foi descoberto um bóson compatível com o tal bóson de Higgs, que a comunidade científica mundial pensa existir, mas onde não há ainda uma demonstração precisa da sua existência. Esta recente descoberta faz o Prof. Carlos Garcia Canal acreditar que se está muito próximo dessa descoberta, embora o que se tenha descoberto em julho último seja apenas um bóson compatível, mas constituído apenas por uma imagem que necessita ter melhor definição.

É de fato uma imagem entusiasmante, mas temos que conseguir obter, através de vários experimentos, outros dados que confirmem que todas as características desse bóson que foi descoberto coincidam plenamente com as características que devem fazer parte do bóson de Higgs, por forma a completar a teoria, sublinha o pesquisador. Confesso que esta descoberta do dia 04 de julho me entusiasmou muito. Repare que há cerca de um século o homem desconhecia que a matéria tinha elétrons e hoje a vida, como a conhecemos, é inconcebível sem os elétrons. É claro que o bóson de Higgs não irá ter o mesmo papel ou impacto que teve o elétron, até porque se tratam de coisas diferentes; mas vai proporcionar uma compreensão relativa à estrutura da matéria, mais íntima, interessante e detalhada, com um ingrediente que eu acho interessantíssimo, que é o fato do bóson de Higg produzir a massa das partículas por interação e, por isso, o campo de Higgs fazer parte do nosso cotidiano, estar em nosso redor, por toda a parte, conclui o cientista.

Todas as dúvidas sobre a existência do bóson de Higgs poderão ser tiradas até ao final deste ano – ou no máximo até aos primeiros meses de 2013 -, até porque o acelerador de partículas do CERN deveria ter já parado seu funcionamento, por motivos de manutenção, calibração e afinação e isso não aconteceu.

A descoberta realizada no dia 04 de julho alterou todo o planejamento e os cientistas estão trabalhando vinte e quatro horas por dia para poderem coletar novas informações que poderão comprovar (ou não) a consistência do famoso bóson de Higgs.

O que é a massa? E o bóson de Higgs?
play-sharp-fill

O que é a massa? E o bóson de Higgs?

13 de março de 2018

Planetas extra-solares gigantes e super-terras

Conhecemos hoje mais do que 700 planetas em órbita ao redor de estrelas próximas. A maioria desses planetas são gigantes, bem maiores do que Júpiter. Alguns deles, entretanto, são apenas pouco maiores do que a Terra.

A saga das descobertas de outros mundos teve início no século XX, com as primeiras buscas (infrutíferas) de pequenos movimentos das estrelas no céu, que pudessem revelar a presença de um planeta ao seu redor, e prosseguiu com enorme sucesso a partir da década de 1990 com medidas cada vez mais precisas das velocidades radiais das estrelas (efeito Doppler).

Hoje, podem-se medir variações na velocidade com que uma estrela se afasta ou se aproxima da Terra com uma precisão inferior a 1 m/s ( 3.6 km/h). A essas observações vieram se ajuntar observações de variação do brilho das estrelas capazes de revelar a passagem de um planeta pela sua frente. Foi desta forma que os telescópios espaciais CoRoT e Kepler descobriram as primeiras super-terras, planetas rochosos com grandes núcleos metálicos, maiores de que a Terra, mas bem menores que os gigantes análogos a Jupiter que predominam entre os planetas até agora descobertos.

Mais recentemente, os maiores telescópios instalados em vários pontos da Terra tem permitido obter imagens diretas de alguns grandes planetas perto de estrelas próximas, em geral muito jovens, mostrando os confins de sistemas planetários maiores do que o Sistema Solar, alguns dos quais ainda envoltos no disco de poeira que lhes deu origem.

Download da apresentação


Resenha

Prof. Sylvio Ferraz de Mello

Subordinada ao tema Planetas extra-solares gigantes e super-terras, decorreu no dia 14 de agosto, pelas 19 horas, no Auditório Prof. Sergio Mascarenhas, no IFSC, mais uma palestra integrada no programa Ciência às 19 Horas, tendo como convidado o Prof. Dr. Sylvio Ferraz de Mello, pesquisador e docente do IAG-USP.

Nos momentos que antecederam sua palestra, o Prof. Sylvio trocou algumas idéias com a Assessoria de Comunicação do IFSC sobre a temática que iria ser apresentada e debatida: a paixão demonstrada pelo pesquisador sobre sua especialidade impeliu-nos a colocar uma primeira questão que, à primeira vista, parecia ter uma resposta relativamente fácil, mas que obrigou nosso convidado a fazer um compasso de espera para responder a ela: como é que está o nosso Universo? Ele está estável, equilibrado? A primeira reação do pesquisador foi: (…) essa é a questão mais fácil ou a mais difícil que vão colocar? (…) De fato, para o Prof. Sylvio de Mello, o que se sabe é que o nosso Universo está se expandindo cada vez com maior rapidez, o que traz algumas conseqüências, que não podem ser interpretadas como ?perigos?:

Tudo no Universo está-se afastando, graças a essa expansão, mas repare, eu estou falando num período de tempo muito grande. Daqui a bilhões de anos, se ainda houver vida na terra, não se enxergará as estrelas como hoje acontece, ver o céu estrelado, etc. Mas isso é uma conseqüência dessa expansão que falei, o que necessariamente não quer dizer perigo. E algo que se expande, necessariamente cria vazios: e é isso que está acontecendo, ou seja, a criação de enormes vazios ? pontua nosso convidado.

Entrando diretamente no tema que nosso convidado iria apresentar, um dos aspectos que nos intrigou desde que lemos o resumo de sua palestra, foi a forma como se mede a velocidade com que uma estrela se afasta ou aproxima de nosso planeta, e o exemplo dado por Sylvio de Mello ajudou na compreensão.

Da mesma forma que se nota a diferença do som de um trem que se aproxima ou se afasta de você ? primeiro um som agudo e logo, na sequência, um som grave, assim acontece com a velocidade das estrelas, só que através de sua coloração. As estrelas ficam mais vermelhas quando se afastam da Terra e ficam mais azuis quando se aproximam de nosso planeta; e é através dessa mudança de cor que é possível determinar suas velocidades. E é assim que também medimos, ou calculamos a expansão do Universo ? explica o pesquisador.

Outro assunto que o Prof. Sylvio Mello abordaria em sua palestra foi a existência das designadas super-terras e como se distinguem no Universo. De fato, segundo o docente, temos elementos que permitem saber qual é a massa de cada planeta, sendo que essa mesma massa está diretamente relacionada à forma como o planeta interage com as estrelas mais próximas, até na sua própria rotação:

Se a massa de um planeta for grande, ele tem uma interação maior. Em alguns casos ? poucos ? foi já possível verificar que existem dois ou três planetas que têm uma massa três ou quatro vezes superior à massa da Terra e esses são os designados super-terras, eminentemente rochosos, maiores que o nosso planeta, mas muito parecidos com ele. Os demais planetas que se conhece são os gigantes, que nem Júpiter – explica Sylvio de Mello.

Um Universo que se expande, que cria vazios de enormes proporções, sistemas planetários muito maiores que o nosso, super-terras e gigantes. Com esta imensidão universal, será a espécie humana a única forma de inteligência existente? Será ela única? Esta é uma questão que, certamente, milhões de pessoas já fizeram. Para o Prof. Sylvio de Mello, a resposta é: Seguramente, não! Para o nosso convidado, com certeza que devem haver outras formas de vida inteligente no Universo, só que nós ainda não as encontramos:

Eu acho que na escala de tempo em que as coisas acontecem ? que é de bilhões de anos ? a vida é um processo natural. Qualquer planeta parecido com a Terra, que tenha alguns bilhões de anos de idade, que tenha condições climáticas parecidas com o nosso planeta, tem todas as chances de aí aparecer vida: é uma conseqüência natural da química ? as moléculas vão se combinando, vão formando aminoácidos e naturalmente surge a vida. Nada acontece graças ao sobrenatural, tudo acontece por mero acaso, de forma natural. O leão na caça gazelas e outros animais? Porque é que ele faz isso? Instinto de sobrevivência… Isso é algo natural, relacionado com a própria vida. Não há nenhum ser sobrenatural que obrigue esse leão a matar, a não ser a sua sobrevivência, que é uma das consequências naturais da vida – afirma o docente.

Apaixonante, mas complexa, delicada e algo misteriosa, a Astronomia ainda é, de alguma forma, uma área pouco procurada pelos jovens estudantes e, a partir daí, torna-se complicado descobrir de que forma é que se podem atrair jovens para essa área do conhecimento. Para o palestrante deste edição do Ciência às 19 Horas, o problema coloca-se mais num vetor um pouco diferente.

Nós temos é que trabalhar para não espantar aqueles que se aproximam desta área do conhecimento e isso não é tarefa fácil. Numa certa proporção da juventude, a curiosidade existe ? ou seja, existe a chamada vocação ? e temos que preservar isso nos jovens através de novas e melhores técnicas de ensino; temos que, acima de tudo, ensinar os jovens a gostar de matemática, já que ela faz parte da vida de todos nós. E quem não gosta de matemática é porque foi vítima de um mau professor. O problema de preservar o interesse pela ciência é mais sério e mais importante do que criar o interesse pela ciência e isso tem que ser uma missão do ensino básico ? conclui o Prof. Sylvio de Mello.

Quando exerceu as funções de diretor do IAG-USP, o Prof. Sylvio de Mello foi o responsável pela oferta do telescópio que ainda hoje se encontra em pleno funcionamento no Observatório Dietrich Schiel, do Setor de Astronomia do CDCC ? Centro de Difusão Científica e Cultural, localizado no Campus I da USP, em São Carlos.

(Rui Sintra – jornalista)

Planetas extra-solares gigantes e super-terras
play-sharp-fill

Planetas extra-solares gigantes e super-terras

13 de março de 2018

Christiaan Huygens, a Helena da geometria e o tempo aprisionado

O matemático, físico e astrônomo holandês Christiaan Huygens desenvolveu uma obra fascinante, com diversas observações astronômicas, incluindo a descoberta de um anel em torno de Saturno, estudos sobre mecânica, em particular sobre pêndulos, e estudos sobre ótica. Huygens passou décadas de sua vida tentando aprimorar cronômetros marítimos.

Aprisionar o tempo com precisão era crucial para a medição da longitude, tão necessária para as navegações da época. Nesta palestra, descreveremos como Huygens construiu um pêndulo isócrono (de período independente da amplitude), pois achava que isso seria muito útil para o funcionamento dos relógios de pêndulo em alto mar. Huygens não teve êxito em suas tentativas iniciais, mas acabou beneficiado pelo acaso.

Em 1658, o filósofo, matemático e físico francês Blaise Pascal foi acometido por uma forte dor de dente que só diminuiu depois que ele, em um ato de desespero, tentou se distrair resolvendo vários problemas sobre a ciclóide, curva que se tornou conhecida como “Helena da Geometria”, tantas foram as disputas causadas por ela entre os geômetras.

Relataremos como a dor de dente de Pascal mudou o curso da história, levando Huygens à construção de um pêndulo isócrono. Trata-se de um episódio fascinante da história da ciência onde não só a genialidade e o trabalho árduo de um cientista estiveram presentes, mas também o acaso conspirou a favor.

Download da apresentação


Resenha

Prof. Dr. Carlos Farina de Souza

A edição de junho do programa Ciência às 19 Horas, organizado mensalmente pelo IFSC, contou com o Prof. Dr. Carlos Farina de Souza, docente do Instituto de Física da UFRJ, da Universidade Federal do Rio de Janeiro, para falar da vida e obra do matemático, físico e astrônomo holandês, Christiaan Huygens, um dos mais proeminentes cientistas do Século XVII. A palestra de Carlos Farina de Souza realizou-se no dia 19 de junho, pelas 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC-USP) e foi subordinada ao tema Christiaan Huygens, a Helena da geometria e o tempo aprisionado.

Nascido em berço de ouro, no ano de 1629, na Holanda, Christiaan Huygens cresceu no seio de sua família abastada, sempre rodeado de inúmeras personalidades influentes na área científica, social e política, o que terá contribuído para que se tornasse uma das maiores figuras nas áreas da matemática, astronomia e física, tendo, inclusive, desenvolvido novos conceitos que viriam a ser utilizados para uma melhor observação do céu, através dos telescópios.

Embora não tenha sido o percursor do telescópio, Galileu conseguiu observar coisas incríveis no céu e percebeu que aquilo que parecia perfeito, à primeira vista, afinal não era: o Sol tinha uma enorme mancha escura, a Lua afinal não tinha uma superfície lisa, Júpiter tinha luas em seu redor, etc. Por seu turno, Huygens tentou, então, criar telescópios com maior alcance e precisão, por forma a descobrir coisas que Galileu não tinha condições de fazer. Desta forma, Huygens dedicou-se a matematizar a Natureza e, com seu trabalho, se tornou, talvez, no primeiro físico-matemático da história, tentando responder a qualquer questão que se apresentasse em forma de enigma; o intuito dele era responder às questões deixadas por terceiros e sempre apelava à matemática como a linguagem privilegiada para dar resposta a essas questões existentes na sua época.

Huygens criou coisas tão fantásticas, que mesmo hoje, ao se rastrear os primórdios de determinados temas, vê-se que existe a semente de Huygens, como explica o Prof. Farina de Souza: É verdade. Por exemplo, o caso das tangentes e curvas que ele chamou de evolutas e involutas, e que deram origem à atual geometria diferencial. Várias coisas começaram com ele, sempre na tentativa de responder a problemas físicos, utilizando a matemática.

Huygens também se destacou na astronomia, principalmente devido ao fato de ter desvendado o mistério de Saturno. De fato, no Século XVII ninguém conseguia entender ou explicar o que acontecia com aquele planeta, que apresentava diversas formas ao longo do tempo. Galileu chegou a pensar que a mudança de forma poderia estar relacionada com a existência de um sistema de três estrelas, mas, de fato, seu telescópio não tinha uma resolução eficaz para fazer uma observação mais pormenorizada. Então, Huygens consegue perceber, pela primeira vez, que ao redor de Saturno existia um anel que não tocava no planeta e isso causou uma verdadeira surpresa na comunidade acadêmica mundial. Huygens explicou, então, que de acordo com o movimento do planeta, a projeção do anel sofria variações angulares. Contudo, todo esse trabalho do cientista holandês demorou anos para se concretizar, por forma a ter a plena certeza de sua descoberta.

Porém, Huygens é essencialmente um físico-matemático e durante cerca de quatro décadas de sua vida ele tentou aprimorar relógios e cronômetros marítimos, que era algo bastante importante para a época, atribuindo-se a ele o primeiro relógio de pêndulo, que, inclusive, originou uma patente. Contudo a maior obra do cientista holandês foi o Horologium Oscillatorium, conforme explica o Prof. Farina de Souza: Sim, essa foi a maior obra de Huygens. O Horologium Oscillatorium é um trabalho que foi publicado em 1673 e embora o nome sugira que seja apenas um tratado sobre relógios, o certo é que esse trabalho é muito mais que isso, já que essa obra contém cinco partes, em que uma delas é uma descrição de relógio, enquanto que na maior parte das outras áreas são descritas as tais definições evolutas e involutas. Huygens generaliza resultados de Galileu no movimento de partículas sobre superfícies curvas, e praticamente ele enuncia, pela primeira vez, a conservação da energia mecânica. Nesse trabalho, o cientista holandês conclui uma conta realizada por Galileu relacionada a força centrífuga, além de, igualmente pela primeira vez, falar do momento de inércia, que é um fator importante no contexto do movimento de rotação, já que não bastava saber qual era a massa do corpo, mas também saber como essa massa estava distribuída. E, nesta particularidade, Huygens queria analisar um relógio de pêndulo, sabendo que o cordão desse pêndulo possuía massa e que essa massa não estava apenas concentrada na esfera de metal. Esse raciocínio demonstra que Huygens sempre se baseava em um problema de física para ir mais além e realmente este trabalho Horologium Oscillatorium é verdadeiramente espetacular, comenta nosso entrevistado.

Sendo uma figura proeminente na ciência mundial, Huygens é devidamente estudado pelos jovens estudantes brasileiros? A esta pergunta, Farina de Souza responde, sim. E a afirmativa vem exemplificada através do denominado Princípio de Huygens, que aparece em um tratado de óptica chamado Tratado da Luz, que é, segundo o nosso entrevistado, uma obra-prima: Todos os estudantes do ensino médio já ouviram falar desse princípio, porque ele afirma que quando você tem uma frente de onda , por exemplo, gerada por uma pedra que é jogada num lago – , para saber a frente de onda, no instante posterior, você imagina que cada ponto de uma frente de onda é fonte de uma onda secundária, e a envoltória das diversas ondas secundárias corresponde à frente de onda no instante posterior. Então, esse é um princípio qualitativo em que você consegue explicar várias coisas, como a lei da reflexão. lei da refração, etc. No ensino médio, tudo que se sabe sobre Huygens se resume a esse princípio, mas ele é muito mais que isso. Huygens poderá não ser tão conhecido, ou seu nome não constituir grande impacto, principalmente porqaue ele ficou um pouco ofuscado pelo genial Newton, cuja diferença de idade era de treze anos apenas. Contudo, Huygens é um dos maiores cientistas do Século XVII e o próprio Newton nutria por ele forte admiração, pontua Farina de Souza.

Na divulgação desta palestra do Prof. Farina de Souza, é referido que uma dor de dente do filósofo, matemático e físico francês, Blaise Pascal, mudou o curso da história, levando Huygens a construir o primeiro pêndulo isócrono. Com um sorriso largo no rosto, Farina de Souza afirmou que esse parágrafo apenas constituía uma forma de criar curiosidade no auditório. De fato, segundo explicou nosso entrevistado, o pêndulo isócrono é um pêndulo que tem um período de movimento independente de sua amplitude de oscilação, ou seja, quando se solta, seja de que forma for, ele tem sempre o mesmo período, o que não acontece com um pêndulo normal, que é isócrono apenas para pequenas amplitudes de oscilação. Huygens sabia que havia necessidade de colocar obstáculos laterais, encostando o fio do pêndulo, porque conforme o pêndulo vai oscilando, o fio vai encostando-se a esses obstáculos: é como se o pêndulo ficasse com um comprimento mais curto. Então, Huygens sabia que, independente do obstáculo, poderia compensar o período. Mas, a pergunta surgiu quase que imediatamente: que forma deveria ter esse obstáculo? O cientista holandês tentou achar a resposta, de uma forma empírica, mas não conseguiu e parou por aí. O que viria a seguir foi bastante curioso, conforma relata o Prof. Farina de Souza:

Blaise Pascal, que havia abandonado a ciência para se dedicar a retiros espirituais e religiosos, foi acometido por uma dor de dente insuportável. Com o intuito de tentar se abstrair de tão forte dor, Pascal decidiu se concentrar em determinadas questões científicas, na esperança de que, com isso, a dor diminuísse. Uma das questões que ele procurou se concentrar foi em uma determinada curva, designada cicloide, problema esse que foi repassado para ele por outro matemático e teólogo, Padre Mersenne. Pascal ficou tão concentrado na resolução desse problema que sua dor de dente sumiu e ele interpretou esse fato como um sinal divino, como uma mensagem de que ele deveria continuar a pensar na resolução do problema da ciclóide. De fato, Pascal resolveu muitos problemas relacionados à cicloide, mas, entretanto, levantava novas questões e, em vez de as publicar, o cientista francês resolveu fazer um concurso que chamou a atenção de inúmeros físicos e matemáticos, entre eles Huygens. Huygens não participou diretamente nesse concurso, mas manteve assíduos contatos escritos com Pascal, trocando informações sobre o tema, o que o transformou num perito sobre o assunto cicloide. Quando Huygens parou de pensar no concurso, chegou à conclusão que a curva que tão insistentemente procurava para resolver seu problema do pêndulo isócrono, era, afinal, a ciclóide, conclui Farina de Souza.

(Rui Sintra, jornalista)

Christiaan Huygens, a Helena da geometria e o tempo aprisionado
play-sharp-fill

Christiaan Huygens, a Helena da geometria e o tempo aprisionado

13 de março de 2018

Ciência mais que divertida

Através de experimentos simples e atraentes associados a uma análise histórica das repercussões do desenvolvimento científico, será destacado o papel central da Ciência para a transformação social. Em particular, serão explorados aspectos da educação e divulgação científica.

 

 

 

 

 

 


Resenha

Antonio Carlos Pavão

O Prof. Dr. Antonio Carlos Pavão, docente do Departamento de Química Fundamental da Universidade Federal de Pernambuco, foi o palestrante convidado de mais uma edição do programa ?Ciência às 19 Horas?, que decorreu no dia 29 de maio, no Auditório Prof. Sérgio Mascarenhas.

Na palestra intitulada Ciência mais que Divertida, o pesquisador destacou o papel central da ciência para a transformação social, tendo abordado aspectos relacionados com a educação e divulgação científica.

Mas, será que a ciência, como agente de transformação social no país, sempre assumiu esse papel ao longo dos anos? Para o convidado do IFSC, sim, a ciência sempre assumiu esse papel, tendo enfatizado que o Brasil não é um país isolado de seus pares no mundo e que existem exemplos marcantes na História da Humanidade onde o conhecimento determinou o rumo dessa mesma história.

Repare, por exemplo, que o Brasil foi descoberto devido à Química. Ficou admirado dessa minha afirmação? Eu explico. Os portugueses chegaram ao nosso país no dia 22 de abril e logo no dia 02 de maio parte da frota lusitana rumou para a Índia, em busca de especiarias (cravo, canela, menta, etc.). Então, porque é que eles fizeram essas navegações tão complexas? Porque o mercantilismo estava se desenvolvendo de uma forma rápida, precisa ganhar novos mercados e algumas das especiarias não serviam apenas como temperos; elas serviam, também – e principalmente – para conservar os alimentos e isso era crucial para as viagens. Por exemplo, repare que o cravo tem uma substância que é um antibiótico natural, que tem a propriedade de conservar os alimentos por muito mais tempo. Atualmente, todos os alimentos contêm aditivos químicos e as especiarias, nessa época remota, faziam o papel que esses aditivos fazem hoje ? refere o pesquisador.

Para Pavão, quem detém o conhecimento detém o poder e, no Brasil, a produção científica não se reflete propriamente na produção industrial. Quando o governo passa a investir mais em ciência e tecnologia, o país tende a se desenvolver mais, e para o acadêmico não existem dúvidas de que no Brasil é fundamental que isso aconteça, mas, para ele, ainda há um longo caminho para ser percorrido.

Contudo, existem questões que precisam ser respondidas: como é que a ciência pode contribuir para a educação dos jovens e o que precisa mudar para que essa educação atinja os níveis desejáveis, até para que nosso país fique mais próximo da excelência internacional?

Para estas questões, o Prof. Antonio Pavão sublinha que é necessário melhorar o ensino dedicado às ciências exatas, porque hoje ainda existe o estigma de que a ciência é chata, rotineira; que o aluno não percebe as conexões que existem entre aquilo que ele está aprendendo e o mundo que o rodeia. Para o pesquisador pernambucano, o que precisa ser feito com urgência é motivar os alunos para que construam e aprofundem seus conhecimentos em ciência e tecnologia. Mas, de que forma?

Motivando! ? acrescenta nosso convidado – E uma das alternativas é colocar problemas reais, verdadeiros, para que os alunos resolvam. Por exemplo, colocar para eles a questão de como despoluir um rio, de como medir o Ph em fontes naturais de água, questioná-los sobre quantas e quais as espécies de árvores que existem em São Carlos; fazê-los pesquisar a vida cotidiana das formigas ou das baratas, seus habitats, a importância que esses bichinhos têm para o equilíbrio ambiental; ensinar os alunos a medir a velocidade do vento e como aproveitar essa energia Tudo isso pode motivar os alunos e ajudar a que eles se apaixonem pela ciência e tecnologia, tendo sempre presente que tudo o que estão fazendo tem uma ação direta sobre o nosso próprio planeta. Tudo isso é um conjunto de experimentos verdadeiros, com resultados que podem surpreender, e isso é estimulante para o aluno. A isso eu chamo de experimento final aberto e seria muito importante começar a implantar isso junto de nossos jovens ? acrescenta Antonio Pavão.

Se existem dificuldades para que os alunos brasileiros se apaixonem e trabalhem com ciência, também é certo que os temas científicos não suscitam grande interesse por parte do cidadão comum, e isso é um fator preocupante para o convidado do IFSC. Antonio Pavão insiste que para uma eficaz difusão do conhecimento, a divulgação científica é fundamental, até para a construção de um país novo, de um mundo novo.

Para o exercício da cidadania você tem que se apropriar de conhecimentos sobre ciência e tecnologia ? por exemplo, avaliar a qualidade e as especificidades do celular que você quer comprar, de um carro, de um eletrodoméstico, ou de outros bens de consumo -, senão você corre o risco de ser manipulado e enganado. Além disso, a sociedade nos coloca questões cotidianas em que o cidadão tem que se posicionar, como, por exemplo, se você é a favor ou contra a clonagem, se concorda com a utilização de células-tronco para tratamentos de doenças, se concorda com usinas termonucleares, etc. Para o cidadão se posicionar sobre essas e outras questões, ele tem que conhecer os temas, tem que estar por dentro das questões relacionadas com ciência e tecnologia. Por isso existe a necessidade de aprofundar a divulgação científica. Toda a produção científica tem que estar associada à sua divulgação, de forma abrangente, quer seja nas escolas, no cinema, na mídia, na rua ou em casa junto com a família ? acrescenta o cientista.

Antonio Pavão concorda que o Brasil tem progredido bastante na área científica, só que ainda carece de qualidade. Repare-se que nosso país é o maior produtor de artigos científicos da américa latina, mas, por outro lado, se prestarmos atenção aos fatores de impacto, por exemplo, aí já a Argentina fica na frente. Antonio Pavão afirma que o Brasil deve afinar seu rumo e trabalhar em uma produção de conhecimento que tenha objetivos muito claros de melhoria da condição de vida de toda a população, pensando o planeta como um todo.

(Rui Sintra – jornalista)

Ciência mais que divertida
play-sharp-fill

Ciência mais que divertida

13 de março de 2018

A Física do Futebol

Entender a Física do futebol provavelmente não vai fazer ninguém jogar melhor, mas com certeza vai ajudar a compreender um pouco mais esse jogo apaixonante e fascinante. E para quem quer compreender as leis do movimento, estudar a Física do futebol é a maneira mais descontraída de fazê-lo.
Futebol e Física são inseparáveis. Futebol é movimento, mas não um movimento qualquer, desordenado, sem leis. Cada jogador é um criador num cenário com leis já determinadas. Cada ação do jogador tem sua intenção, que é em parte moldada pelas leis (regras) do futebol e pelas leis da natureza. Tentaremos mostrar aos boleiros e curiosos da Física, a Física que há no futebol.

 

 

 

 

 


Resenha

Profa. Dra. Emico Okuno

Pela primeira vez, desde que foi criado, o programa Ciência às 19 Horas abordou um tema que é muito querido para todos os brasileiros: o futebol. Essa abordagem não se deu através de aspectos esportivos, competitivos ou técnicos, mas sim utilizando a Física como forma de explicar inúmeros conceitos inerentes a como marcar o golo perfeito, como fazer a bola descrever um ângulo em sua trajetória, ou a forma como reduzir as chances de um goleiro defender um pênalti.

Esta interessante palestra, que decorreu no dia 17 de abril, a partir das 19 horas, no Auditório Prof. Sérgio Mascarenhas (IFSC-USP), esteve sob a responsabilidade da Profa. Dra. Emico Okuno, pesquisadora e docente do Instituto de Física da USP, ao apresentar o tema ?A Física do Futebol?. Com bacharelado em Física na Faculdade de Filosofia, Ciências e Letras da USP, em 1960, e doutorado na mesma área e universidade, em 1971, a Profa. Okuno fez pesquisa científica em Raios Cósmicos com o Prof. Cesare Lattes, entre 1959 e 1962, tendo estagiado com o Prof. Masatoshi Koshiba (Prêmio Nobel da Física 2002). Experiente na área de Física-Médica – efeitos biológicos das radiações ionizantes e não-ionizantes, proteção radiológica, e biomecânica, e de outras temáticas relacionadas com desastres e acidentes nucleares, Emico Okuno é autora e co-autora de seis livros, entre os quais se conta aquele que deu o título a esta palestra ? ?A Física do Futebol? ?, uma obra escrita em parceria com o Prof. Dr. Marcos Duarte, igualmente docente da USP.

De trato muito fácil, extraordinariamente alegre, ativa e atenta, a Profa. Okuno sente-se como peixe na água ao falar de Física, a ponto de, por vezes, esquecer que já está aposentada compulsoriamente há cerca de cinco anos: Como eu continuo a dar aulas regularmente, por vezes esqueço que já estou aposentada faz tempo. Mas dou aulas com muito prazer, porque gosto de ensinar, gosto de formar jovens. Tanto Okuno como Marcos Duarte dão aulas a alunos que não pertencem à área da Física ? biólogos, farmacêuticos, biomédicos, etc ?, ou que simplesmente não gostam dessa área do conhecimento: Esse é o aspecto mais curioso desta nossa postura, devido ao fato de sempre termos apostado ? e vamos continuar apostando ? na formação dos estudantes. Temos que os atrair para esta magnífica área do conhecimento que se encontra presente em tudo na nossa vida ? refere a Profa. Okuno.

A ideia de se falar sobre a Física do Futebol nasceu porque o futebol é a paixão nacional e mundial, sendo que o único país que não se sente tão atraído por este esporte é os Estados Unidos. Até no Japão o futebol é, agora, uma paixão. Os conceitos da física, no futebol, são muito complexos e variados e encontram-se sempre presentes nos jogos. Okuno dá o exemplo da marcação de um pênalti: Você calcula a força do chute do jogador, a intensidade e direção do vento, humidade no ar, o impacto da chuteira na bola e da bola na grama, a velocidade e o tempo que ela percorre até ao goleiro: impossível defender, a não ser por uma questão de sorte, que é o que acontece habitualmente. Repare que muitos goleiros fixam o olhar na coxa de quem vai rematar, tentando adivinhar para que lado é que a bola vai, quando deveriam olhar exatamente para a bola, pois é nela que os efeitos da física acontecem. Geralmente, o posicionamento do corpo de quem remata a gol não indica para que lado vai a bola ? muito pelo contrário. Se repararmos com atenção, na grande maioria dos pênaltis os goleiros saem do gol antes dos remates: portanto, como eu já disse, é uma questão de sorte eles pegarem a bola. Por outro lado, quando você vê a bola de futebol descrever uma curva após um remate ou um cruzamento, essa trajetória não é ocasional; o jogador treinou bastante tempo para dar esse particular efeito na bola, ou seja, treinou diversos componentes da Física, sem sequer se aperceber disso. Imagine se ele tivesse estudado um pouco de Física e pudesse aplicar esse aprendizado no jogo: ele seria, possivelmente, muito mais perfeito e eficaz no seu desempenho em campo. Se ponderarmos sobre isso tudo, se essas equações fossem aplicadas nos treinos dos jogadores, acredito que eles aumentariam substancialmente seu desempenho, refere nossa entrevistada.

Os conceitos da física no futebol não passam apenas por aquilo que foi referido acima; eles também passam pela própria estrutura da bola. Antigamente, as bolas de futebol tinham 18 gomos, depois passaram a ter 12 e, seguidamente, apresentaram 32 gomos. Na última copa do mundo, a famosa Jabulani tinha pouquíssimos gomos e tudo isso tem uma influência drástica em termos da física, explica Emico Okuno: Essa questão da Jabulani foi bastante debatida nessa copa, quando muitos jogadores reclamaram da bola, já que eles tiveram bastantes dificuldades, quer no domínio da bola, em passes, cruzamentos, remates, porque ela se comportava de forma estranha, tomava trajetórias diferentes ao que o jogador queria, escorregava e saltitava nas mãos dos goleiros, tudo isso devido à sua composição estrutural.

Quando se realizou o lançamento do livro que deu título a esta palestra do programa Ciência às 19 horas, A Física do Futebol, a Profa. Okuno esperava que apenas comparecessem à cerimônia alunos e colegas da USP, mas, de fato, apareceu muita gente ligada ao esporte e ao futebol, em particular, alguns técnicos de futebol e profissionais ligados à área da educação física. No exterior utiliza-se já a ciência para melhorar aspectos competitivos, incluindo o futebol; então, questiona nossa entrevistada, porque não fazer isso também no Brasil, que é o país do futebol?

Para a nossa entrevistada, não é só no futebol que os conceitos da física se fazem presentes, mas sim em todos os esportes que utilizam ,ou não, uma bola. Daí que, na opinião da pesquisadora, se todos os atletas tivessem uma formação básica na área da física, eles iriam apresentar um maior desempenho competitivo.

(Rui Sintra – jornalista)

A Física do Futebol
play-sharp-fill

A Física do Futebol

13 de março de 2018

Pesquisa e inovação em medicamentos no Brasil: os desafios para reduzir nossa dependência externa

O desenvolvimento de novas drogas é um processo longo, caro e de alto risco. Apesar dos avanços científicos recentes, e de o Brasil estar entre os 10 maiores mercados de medicamento do mundo, as empresas farmacêuticas brasileiras dependem em grande escala da importação de princípios ativos. Entre os entraves para a inovação no setor farmacêutico no Brasil estão a dificuldade para se estabelecer interações entre indústria e universidade, a burocracia nas agencias regulatórias, baixa concentração de cientistas nas indústrias e, a ausência de institutos de pesquisa e inovação no país.
Nas últimas décadas, o nosso grupo de pesquisa na UFSC estabeleceu várias colaborações com a maioria das empresas brasileiras de produtos farmacêuticos, tentando desenvolver novos medicamentos, especialmente aqueles derivados de produtos naturais, notadamente de plantas da nossa biodiversidade. Apresentaremos alguns casos de sucesso que surgiram a partir de tais parcerias.
O esforço recente de vários ministérios, para estimular a inovação, e a criação da política industrial brasileira, traz esperanças, de que o Brasil, poderá superar o atual cenário, e se tornar a médio e longo prazo, um pais autossuficiente na produção dos seus medicamentos essenciais, fator que terá certamente grande impacto econômico e social, com reflexos diretos no sistema único de saúde.

Download da apresentação


Resenha

João Batista Calixto

O programa “Ciência às 19 horas” retomou sua atividade neste ano de 2012, recebendo a visita do Prof. Dr. João Calixto, docente e pesquisador do Centro de Ciências Biológicas, Departamento de Farmacologia da Universidade Federal de Santa Catarina, que proferiu a palestra intitulada: Pesquisa e Inovação em Medicamentos no Brasil: os desafios para reduzir nossa dependência externa, evento que decorreu pelas 19 horas, no auditório Prof. Sérgio Mascarenhas (IFSC-USP), no dia 20 de março.

Sabendo-se que o Brasil está entre os dez maiores mercados mundiais na área de medicamentos, existe algo contraditório, já que as empresas farmacêuticas nacionais ainda dependem da importação de princípios ativos, principalmente vindos da Índia, China e Coréia, na maior parte das vezes de origem laboratorial duvidosa. João Calixto concorda com essa afirmação, acrescentando que essa é uma questão que não é só aplicada à área dos medicamentos, sendo, também, um problema que acontece em diversas áreas relacionadas com a média e alta tecnologia:

São problemas que ficam claros quando se observa o déficit comercial brasileiro em quase todas essas áreas. Quanto à área dos medicamentos, que é considerada um bem essencial, envolve uma tecnologia altamente complexa e importante. As grandes empresas que fabricam medicamentos encontram-se sediadas, basicamente, em seis países, mas isso não justifica que o Brasil tenha ficado para trás nessa corrida ou nessa disputa. Extrair petróleo do fundo do mar é mais fácil do que fazer um medicamento: então, porque é que um dá certo e outro não? É tudo uma questão de política de Estado. Principalmente a partir da época do governo militar, foram definidas algumas estratégias consideradas como prioridades do Estado, Petrobrás, Embraer e Embrapa, e que duram até afora, com sucesso. Nesse período, quer a área de medicamentos, quer algumas áreas dedicadas à eletrônica não foram entendidas como prioritárias. Curiosamente, a ciência evoluiu bastante e, hoje, o Brasil ocupa uma posição estratégica em nível mundial, na área científica, mas não conseguiu acompanhar esse ritmo de desenvolvimento. Por outro lado, as empresas brasileiras, embora tenham parques fabris importantes, ainda têm um peso excessivo de empreendedorismo familiar, ou seja, trabalham em nichos de mercado, sobrevivendo, em grande parte, dos designados medicamentos genéricos, que foram criados há dez anos ? refere o pesquisador.

Com efeito, e segundo a opinião do Prof. João Calixto, o Brasil possui grandes empresas farmacêuticas, principalmente no Estado de São Paulo -, com capital nacional, mas elas não possuem laboratórios de pesquisa, fazem pouca inovação e quase não se articulam com o meio acadêmico. Sabendo-se que o mercado brasileiro de medicamentos ocupa o sétimo ou oitavo lugar, no mundo, é curioso verificar que existe um déficit, recorde-se que o medicamento é um bem essencial, de caráter estratégico. A população vai envelhecendo, vai necessitando de mais cuidados, e o Brasil está com déficit na balança comercial na ordem dos US$ 11 bilhões nas áreas médica e hospitalar. Em comparação, a Índia continua a dar cartas, como explica o pesquisador:

Porque é que a Índia exporta toneladas de princípios ativos? Em 1996/97 houve uma pressão internacional muito forte através da lei de patentes e, nessa época, o Brasil tinha uma dívida externa monumental, quase impagável, e essa questão da lei foi negociada de forma quase impositiva, no nosso país. O Brasil aceitou a pior lei de patentes que se podia imaginar, com implantação imediata, mas retroagindo. Por sua vez, a Índia também foi pressionada, mas ela conseguiu condicionar a sua participação na lei até 2006, ou seja, ela ficou copiando formulações, chamou especialistas do exterior e teve tempo de se modernizar, transformando-se, por fim, num polo importante, jogando o Brasil lá para trás. Daí que tenha sobrado para as empresas brasileiras o conhecido medicamento genérico, mas de uma forma algo desarticulada, sem se ter tido determinados cuidados com sua fabricação. O Brasil importa os princípios ativos, mas depois existem problemas de qualidade do produto, incertezas nas dosagens, variação de preços, etc. Estamos numa situação difícil; somos a sexta economia mundial, um dos países no topo do desenvolvimento científico e, por outro lado, temos estas descompensações, comenta o pesquisador.

As relações entre empresas e universidades

Ao longo dos anos e até ao atual momento, as universidades e as empresas continuam de costas voltadas, cada uma falando seu idioma: não há uma interação plena, não há diálogos, apenas monólogos, fato que também tem contribuído para espécie de estagnação no setor. João Calixto não sabe se esse problema é uma causa ou uma consequência do que foi dito acima. Na opinião do pesquisador, para algumas pessoas a desculpa poderá estar no fato da ciência brasileira ser ainda muito jovem, mas segundo ele isso não é justificativa, já que a ciência pode ser jovem mas nascer moderna.

No Brasil, a ciência virou uma mercadoria de luxo, uma plataforma para enriquecer currículos, um status, em que as pessoas olham para o seu próprio umbigo e não estão nem aí para o país. Dizem, apenas eu sou um cientista e isso não existe em nenhum outro país. O cientista tem que estar inserido socialmente onde vive. A ciência não tem pátria, mas o cientista tem: ele tem um compromisso com seu país, que o está financiando. Essa falta de relacionamento e de diálogo entre universidades e empresas teve origem no falso conceito de que o cientista era dominado pelos interesses econômicos e produtivos das empresas; não há muito tempo atrás, qualquer grupo de pesquisa que trabalhasse com empresas era imediatamente rotulado por seus colegas como mercenário, e isso é uma ideia completamente retrógrada. O mundo mudou e a visão tem que ser abrangente, moderna e flexível e temos que deixar de construir clones de nós mesmos (alunos). Todo mundo quer estudar para fazer concurso público, para ter um emprego estável, ninguém, quer ser inovador, ninguém quer arriscar; o próprio cientista não quer arriscar. E, não tendo riscos, esta nova geração de estudantes, de doutores, vai trilhar os mesmos caminhos de seus mestres e esses caminhos a gente sabe onde vão dar a uma ciência sem inovação. Para que as ideias, projetos e ações não fiquem amorfos, sempre tem que existir a crítica, salutar e pertinente, construtiva. Já reparou que nosso modelo científico e tecnológico não tem crítica há longos anos. Parece um clube que só quer ter elogios, onde todos querem dinheiro mas ninguém fala que é necessário mudar o rumo da ciência do país, que é preciso mais comprometimento, mais e melhor avaliação, mais inserção social, da necessidade de ter o setor produtivo do lado dos cientistas. O que todo o mundo quer é ter uma zona de conforto, escrever papers ou ver seu nome inserido em alguns, para falsamente engrossar seu currículo: só isso não basta, desabafa João Calixto.

A Burocracia do Estado

A burocracia das agências de fomento à pesquisa é um apêndice da burocracia do Estado e, por isso, muita coisa no Brasil foi feita para não funcionar. Esta humorística afirmação de João Calixto foi feita com um sorriso de tristeza, ao exemplificar, de seguida, casos verdadeiramente impensáveis:

Vou dar para você um exemplo relacionado com biodiversidade, onde os cientistas recebem dinheiro do Estado para desenvolver pesquisa e que, na sequência, esses cientistas estão proibidos, por lei, de aplicá-la. Temos casos de indústrias que foram recentemente punidas pelo Estado, porque fizeram experimentos sérios na área de biodiversidade, desenvolvendo produtos inovadores, na sequência de pesquisas subsidiadas. Assim não dá! Por outro lado, a burocracia do Estado cobre e protege muita incompetência de todo esse processo; contudo, a burocracia não é culpada de tudo o que acontece. Há no Brasil uma série de leis que justificam aquilo que não devia ser justificado e a burocracia é uma delas. Não se pode reclamar que não existe dinheiro. Existe e muito! Só que o dinheiro que é investido não é proporcional aos resultados que se obtém; não há uma verdadeira estratégia nacional, uma política de Estado para as áreas de ciência e tecnologia, pontua João Calixto.

O futuro

Já que o Brasil não possui centros capazes de fazer inovação, o Prof. João Calixto foi desafiado pelo governo federal para ajudar a neutralizar o grande gargalo que existe na área de medicamentos, através da criação e construção de um centro, com padrão internacional, que seja capaz de fazer essa ligação. O desafio foi aceito, o centro está praticamente pronto, mas o pesquisador se confronta agora com algo inusitado:

Você não imagina o quão difícil está sendo apetrechar o centro com recursos humanos de alta qualidade. É um drama! Você chega à conclusão que, apesar do Brasil formar dezenas de milhar de doutores, não existe gente altamente qualificada nas áreas de ponta, ou seja, o país é obrigado a trazer especialistas de fora. As pessoas ficam assustadas, mas o certo é que se o país nunca fez medicamentos, como é que se resolve esse problema? Trazendo especialistas de fora para nos ensinar, para nos atualizar e modernizar. Isto é sério! Os cientistas perdem a noção da realidade, pois não saem de dentro da universidade e perdem o compasso, refere João Calixto.

Para o nosso entrevistado, o futuro não vai ser fácil, até porque o país está adiando muitas decisões que já deveriam ter sido implantadas há pelo menos dez anos. Para o nosso entrevistado, o Brasil está formando doutores clones de seus mestres e a tendência é perpetuar procedimentos:

A área de Ciências Exatas está déficit no país e isso é altamente prejudicial ao desenvolvimento nacional. O país tem que alterar rapidamente o rumo, mas essa mudança de quadrante não vai agradar a muita gente, especialmente aos políticos. Estamos enviando milhares de estudantes para o exterior, através de bolsas de estudo, por forma a se capacitarem, e isso é extraordinariamente positivo, mas levanta uma questão: para que universidades é que esses estudantes e pesquisadores estão indo? Elas são de qualidade? Quando esses estudantes e pesquisadores regressarem, qual será o retorno desse esforço nacional? Não seria mais eficaz e mais barato trazer gente de fora, altamente capacidade, para nos ensinar ? como fez a China, Índia e Coreia? Só que os espaços que existem para se fazer estas discussões e reflexões são muito pequenos, ou simplesmente não existem. O futuro está difícil.

(Rui Sintra – jornalista)

Pesquisa e inovação em medicamentos no Brasil, os desafios para reduzir nossa dependência externa
play-sharp-fill

Pesquisa e inovação em medicamentos no Brasil, os desafios para reduzir nossa dependência externa

12 de março de 2018

A ciência como agente de transformação social

Como cientistas brasileiros, radicados no exterior, poderiam contribuir para o desenvolvimento econômico e sociocultural de seu país natal?
Como resposta a essa indagação, surgiu a idéia de criar um projeto privado, cuja principal meta seria construir institutos de pesquisa independentes que promoveriam pesquisa científica básica e aplicada, de nível mundial, em áreas estratégicas consideradas vitais para o desenvolvimento do Brasil.
A principal missão desses institutos não estaria limitada à produção de pesquisa acadêmica, mas também incluiria o estabelecimento de iniciativas educacionais e sociais, com o intuito de fortalecer as comunidades excluídas da região.
Desse anseio e filosofia surgiu o projeto do Instituto Internacional de Neurociências de Natal Edmond e Lily Safra (IINN-ELS), gerido pela Associação Alberto Santos Dumont para Apoio à Pesquisa (AASDAP). Localizado no estado do Rio Grande do Norte, o IINN-ELS pretende contribuir para o processo de minimização das desigualdades sociais e econômicas entre as diferentes regiões do país, descentralizando a produção e a disseminação do conhecimento, e tornando a educação científica qualificada acessível a crianças e jovens do ensino público.
Em atividade desde 2003, a AASDAP integra atualmente dois centros de pesquisas em neurociências (Natal e Macaíba ? RN); um centro de educação científica, com três unidades (Natal e Macaíba, no RN e Serrinha, na Bahia), para 1400 crianças e jovens de 11 a 17 anos de escolas públicas da região; e, um centro de saúde voltado aos cuidados materno-infantis em Macaíba. Começando a dar frutos, essa experiência tem demonstrado o grande potencial transformador de iniciativas que agregam pesquisa científica a uma missão social.


Resenha

Miguel Nicolelis

O médico Miguel Nicolelis foi o palestrante convidado na última edição de 2011 do programa CIÊNCIA ÀS 19 HORAS, que decorreu no dia 22 de novembro, pelas 19 horas, no Auditório Prof. Sérgio Mascarenhas, IFSC-USP. Subordinada ao tema A CIÊNCIA COMO AGENTE DE TRANSFORMAÇÃO SOCIAL, a palestra de Nicolelis excedeu todas as expectativas, perante um numeroso público que lotou o auditório.

O mote foi dado através da ideia da criação de um projeto privado com o objetivo de se construírem institutos de pesquisa independentes que possam promover a pesquisa científica básica e aplicada, de nível mundial, em áreas estratégicas consideradas essenciais para o desenvolvimento do Brasil. Mais do que a produção de pesquisa acadêmica, a missão é estabelecer iniciativas educacionais e sociais com o intuito de fortalecer as comunidades mais excluídas.

Foi com base nessa filosofia que Nicolelis avançou na criação do Instituto Internacional de Neurociências de Natal Edmond e Lily Safra (INN-ELS), gerido pela AASDAP: Associação Alberto Santos Dumont para Apoio à Pesquisa, no Estado do Rio Grande do Norte, onde já foram dados importantes passos para um processo local de minimização das desigualdades sociais e econômicas entre diferentes regiões do país, descentralizando a produção e a disseminação do conhecimento e tornando a educação científica qualificada acessível a crianças e jovens do ensino público.

Em atividade desde 2003, a AASDAP integra, atualmente, dois centros de pesquisa em neurociências (Natal e Macaíba, RN), um centro de educação científica, com três unidades (Natal e Macaíba, RN e Serrinha, BA), para 1400 crianças e jovens com idades entre os 11 e os 17 anos, oriundos de escolas públicas da região, bem como um centro de saúde inteiramente voltado para os cuidados materno-infantis em Macaíba.

Segundo Nicolelis, o objetivo deste projeto, desde seu início, tem sido levar a ciência para as comunidades instaladas no entorno do Instituto:

Ele foi concebido como uma estrutura que teria uma ação dedicada à transformação social nas comunidades da periferia de Natal e na cidade de Macaíba. Assim, o projeto já nasceu com a ideia de ser criado um programa denominado ?Escola para toda a vida?, que começa no atendimento das mães, no decurso do pré-natal, e que foi desenvolvido no nosso centro de saúde, onde hoje se faz cerca de 12 mil atendimentos por ano em mulheres residentes na periferia; até há bem pouco tempo essas mulheres não tinham qualquer atendimento pré-natal, principalmente o relacionado com alto risco. Foi o início de tudo. Em quatro anos que dura este nosso projeto, conseguimos reduzir a zero a mortalidade materna no pré-natal ? que era uma das mais altas da região = 85 mortes por cada 100 mil mulheres, refere Nicolelis.

O resultado foi que, a partir desse processo, as crianças já têm a chance de nascer com um potencial neurobiológico perfeitamente normal, ou seja, elas não perdem a oportunidade de desenvolver o seu sistema nervoso em todas as suas potencialidades. Foi a partir desse momento que o Instituto decidiu construir uma escola, que ficará pronta em meados do ano que vem, com capacidade para cinco mil crianças, e que funcionará em tempo integral, envolvendo desde crianças do berçário até ao final do ensino médio, conforme explicou o palestrante:

Nosso trabalho começou nas escolas públicas da região, onde criamos um programa dedicado a mil crianças e que funcionou no turno oposto ao praticado nas escolas. Ou seja, foi uma aposta na educação científica desenvolvida de forma totalmente prática, onde as crianças aprendem todos os conceitos fundamentais da ciência moderna, fazendo experimentos da mesma forma que nós, pesquisadores, fazemos nos nossos laboratórios de pesquisa. Este projeto começou em 2005 e, atualmente, temos cinco unidades funcionando no Estado do Rio Grande do Norte e uma escola em Serrinha, na Baía. No próximo ano iremos inaugurar o denominado CAMPUS DO CÉREBRO, que constitui a maior ação da AASDAP, numa parceria com a Universidade Federal do Rio Grande do Norte. Esse CAMPUS receberá o nosso Instituto, que terá uma área de 13 mil metros quadrados, e uma escola com uma área de quinze mil metros quadrados, e cujo nome será ESCOLA PARA TODA A VIDA. O nosso trabalho inicia-se com o nascimento da criança e todo o seu acompanhamento, em tempo integral, até ao final do ensino médio. É o primeiro projeto nacional de escola em tempo integral, pontua Miguel Nicolelis.

Através da primeira turma formada pelo Instituto, que começou em 2007, Nicolelis afirma que o nível de evasão escolar se fixou em 3% (atualmente, no Brasil, a evasão escolar situa-se em 50% no ensino fundamente). Ou seja, todos os alunos abrangidos por esse curso de educação continuam no ensino médio e, pela primeira vez na história local, crianças dessas comunidades começaram a entrar na Universidade Federal do Rio Grande do Norte:

O desempenho acadêmico dessas crianças mudou completamente, sinal que elas começaram a acreditar e a desenvolver seu potencial intelectual, a ponto de se transformarem, neste momento, na elite educacional local. Demonstramos, assim, que o casamento entre neurociência e pedagogia tem um futuro muito promissor,  refere o palestrante.

O governo tem estado muito atento a este projeto, dando, paulatinamente, apoio ao desenvolvimento do mesmo, segundo afirma Nicolelis. O Instituto já está mantendo diálogos aprofundados com o MEC sobre a possibilidade de expandir esse projeto por todo o Brasil:

Já apresentei o programa aos Presidentes Lula e Dilma, bem como a Ministro da Educação, Fernando Haddad ? cujo seu ministério é nosso parceiro desde há quatro anos. A ideia é criar um programa chamado ALBERTO SANTOS DUMONT: EDUCAÇÃO CIENTÍFICA, que seja disseminado por todos os institutos federais e de tecnologia do país, com o objetivo final de atingir um milhão de crianças, acrescenta Nicolelis.

Segundo o palestrante, todo esse projeto não é mais do que uma forma de se tentar formar novos cidadãos:

Queremos que essas crianças aprendam a pensar, a valorizar a própria cultura e as suas raízes, mas principalmente para que eles aprendam que é possível agir na sociedade, uma vez que eles irão usar o método científico aplicado ao seu cotidiano, conclui Miguel Nicolelis.

O programa CIÊNCIA ÀS 19 HORAS voltará a partir do mês de março de 2012.

Aguardamos sua visita na série de palestras que decorrerão todos os meses no IFSC-USP.

Até lá!

Rui Sintra – jornalista

A ciência como agente de transformação social
play-sharp-fill

A ciência como agente de transformação social

Fale conosco
Instituto de Física de São Carlos - IFSC Universidade de São Paulo - USP
Programa Ciência às 19 horas
Obrigado pela mensagem! Assim que possível entraremos em contato..