“Então, vamos ao museu?” Novidades e desafios dos museus do nosso tempo

Visitação ao ônibus espacial Discovery no Smithsonian Institution’s National Air and Space Museum. Foto: Getty Images.

Responda rápido: qual foi a última vez que você esteve em um museu? É bem possível que sua resposta seja “foi há bem pouco tempo”. E essa é uma excelente notícia!

Nos últimos anos, especialmente após a pandemia da COVID-19, as pessoas voltaram a frequentar os museus. No Brasil, segundo dados do Google Trends, as buscas cresceram 22% no ano de 2024 (o mais recente da pesquisa), e a média anual de visitação já supera os 30 milhões de pessoas. E os próprios museus estão na “boca do povo”: MASP, MON, Museu do Amanhã, Museu da Língua Portuguesa, Museu Histórico Nacional, Museu Catavento, Museu Imperial…

Além disso, dados globais mostram que, a cada ano, os cem maiores museus do mundo recebem cerca de 175 milhões de visitantes – e este número está crescendo.

Os museus oferecem um caminho lúdico e instigante de conexão com o conhecimento. Foto: Getty Images.

Mas, por que o interesse das pessoas pelos museus aumentou?

Porque essas instituições se modernizaram, trazendo temas instigantes e oferecendo experiências que vão muito além da imagem “clássica” de peças na vitrine ou de depósitos de patrimônio.

Os museus, enfim, estão mais vivos do que nunca. Valorizando, preservando, compartilhando e construindo História, Ciência, Arte e Conhecimento. Mas há, é claro, desafios que também devem ser conhecidos.

Nesta edição da série #EducaçãoHumaniza – em homenagem ao Dia Internacional dos Museus, que será celebrado no próximo dia 18 de maio – vamos falar sobre a origem, a evolução e os desafios dos museus.

A visita já vai começar – venha com a gente!

Ciência lúdica: em um museu de ciência é possível interagir com artefatos como o Gerador de Van de Graaff, que acumula eletricidade estática e literalmente “arrepia os cabelos”. Foto: Getty Images.

A coleção do rei

Para muita gente, a primeira ideia que vem à mente quando se fala em “museu” é a de uma coleção de objetos que contam coisas: pinturas, estátuas, múmias, fósseis, moedas, animais empalhados, armaduras, peças religiosas, máquinas e mais. Essa imagem faz todo sentido.

Porque os museus surgiram, de fato, como “coleções para mostrar e contar”. E nasceram há muito tempo, na Antiguidade, em culturas como a mesopotâmica, a egípcia, a grega e a romana.

Detalhe de relevo que mostra as tropas do imperador romano Tito desfilando com tesouros saqueados de Jerusalém. Peças como essas formavam as primeiras coleções. Fonte: Wikipedia.

Os poderosos de então – comandantes militares, reis, imperadores – reuniam grandes botins e queriam compartilhá-los com seus semelhantes, mostrando suas conquistas, o alcance de suas jornadas e até o “estranho e maravilhoso” que ficava para além das fronteiras do próprio reino. Queriam “apresentar o mundo”, demonstrando riqueza e, principalmente, poder.

Essa forma de “ser museu”, aliás, perdurou por muito tempo. No período colonial, impérios como o Espanhol, Francês, Russo ou Britânico faziam exatamente o mesmo. Montavam grandes coleções de peças retiradas de seus domínios e de regiões invadidas, expondo-as, agora, para os pares e, agora, para o povo.

Situado em São Petersburgo, Rússia, o Hermitage possui uma das maiores coleções de arte e etnologia de todo o planeta. Foto: Getty Images.

Visitando o “Gabinete de Curiosidades”

Ao ler os parágrafos acima, você provavelmente ficou com a impressão de que os museus, no início, tinham como grande finalidade mostrar uma visão de mundo ligada a poder e, também, a uma ideia de “nós e eles”, de povos mais civilizados e de povos “exóticos”. E é isso mesmo!

O colecionar, então, era visto como um traço de superioridade sobre aquelas culturas que não colecionavam. Some-se a isso, em tempos mais modernos, a Revolução Científica (do século XVI, com grande expansão nos séculos XVIII e XIX), que gerou um enorme movimento de descoberta, catalogação e publicidade dos achados – animais, insetos, plantas, fósseis, antigos textos, peças arqueológicas etc. Vivia-se, então, entre a realidade do “Gabinete de Curiosidades” e a das primeiras tentativas de catalogar, organizar e mostrar descobertas científicas.

Conchas, pintura, estátuas: detalhe de um “Gabinete de Curiosidades” pintado em 1636 pelo pintor flamengo Frans Francken. Fonte: Wikipedia.

Os primeiros museus modernos

O primeiro museu moderno, aquele que inaugura o que conhecemos como tal, foi o Ashmolean Museum, fundado em 1683 na cidade inglesa de Oxford. Elias Ashmole herdou e assumiu os direitos sobre uma enorme coleção dos naturalistas John Tradescant (pai e filho) e a doou à Universidade de Oxford.

A instituição construiu um edifício para abrigar esse acervo, dando origem ao Ashmolean. Atualmente, o museu segue sendo um dos principais do mundo, com um acervo de mais de um milhão de peças, abrangendo do Antigo Egito ao Japão, passando por obras de Michelangelo, moedas, máscaras funerárias e muito mais.

Ashmolean Museum, em Oxford: o primeiro museu “moderno. Foto: Getty Images.

Outro museu (na verdade, um conjunto de museus) pioneiro e extremamente importante é o do Vaticano, que a partir de meados do século XVIII começou a organizar seu acervo em galerias e abrir estes espaços à visitação. O acervo dos Museus Vaticanos é um verdadeiro tesouro – são 70 mil peças de arte e arqueologia distribuídas em nada menos do que 1.400 salas na própria cidade-Estado do Vaticano!

O terceiro dos museus “fundantes” da Era Moderna é o do Louvre, que passou de coleção real de arte a museu nacional francês em 1793, na esteira da Revolução Francesa. Com 38 mil peças – e um acervo que cresceu muito ao longo da Era Napoleônica e de todo o século XIX –, o Louvre é, atualmente, o maior museu de arte do mundo! Em tempo: é, também, o mais visitado, com cerca de 10 milhões de visitantes por ano (uma média de 27 mil visitantes por dia!).

Outros museus que não podem ficar de fora desta lista de “pioneiros incríveis” são o Hermitage, inaugurado em 1764 na cidade russa de São Petersburgo, o Museu Britânico (fundado em 1753), de Londres, e o Metropolitan Museum of Art, de Nova Iorque (1870). Há, é claro, muitos outros museus magníficos (que vamos listar no final deste artigo), mas os citados são os pioneiros.

O “pulo do gato” dos museus

O século XX e as primeiras décadas do século XXI trouxeram grandes novidades. Estamos falando do cinema, da tevê, do rádio, da computação e de avanços extraordinários nas técnicas da indústria gráfica. Todas essas novidades, todas essas tecnologias, refluíram para os museus a partir do momento em que eles mudaram de paradigma.

E que mudança foi essa? Eles deixaram apenas de “mostrar acervos” de forma acrítica e passaram a envolver os visitantes em experiências mais profundas, comunicacionais e sensoriais. O museu, enfim, deixou de ser o “Gabinete de Curiosidades” e passou a oferecer uma experiência viva, que comunica o acervo e vai além.

As coleções dos museus colocam as pessoas em contato com elementos materiais da História. Foto: Getty Images.

Essa mudança se conecta a uma transformação na museologia, que, especialmente a partir dos anos 1960 e 1970, caminhou para oferecer algo diferente e encantador. Mudanças na arquitetura dos prédios, exposições que caminham para fora do espaço museológico, temas e acervos voltados a públicos específicos como as crianças, oferta de experiências científicas (no caso dos museus de ciência e tecnologia) e interações digitais “romperam a vitrine” do passado e colocaram os acervos mais perto das pessoas. Essas mudanças, que efetivamente promoveram um retorno das pessoas aos museus, também foram importantes para o financiamento das próprias instituições – todas elas têm gastos importantes com a conservação, a pesquisa e a expansão dos acervos.

Museus que se mexem!

Muito bem: você quer exemplos de museus modernos e altamente interativos? Vamos a eles! O paulistano Museu da Língua Portuguesa, com suas muitas experiências interativas dentro do nosso idioma, é um deles. O Museu de História Natural de Nova York (AMNH), com seu teatro imersivo 360° e aplicativos de realidade aumentada que “dão vida” a dinossauros extintos, é outro. No campo da tecnologia, merecem destaque o Deutsches Museum, de Munique (Alemanha) – o mais antigo museu do gênero no mundo, fundado em 1903 –, e o Seoul Robot & AI Museum (RAIM), inaugurado em 2024 – o primeiro museu do mundo dedicado à robótica e à IA.

Nosso Museu Nacional, atualmente em fase final de reconstrução – fundado em 1818, ele foi destruído por um incêndio devastador em 2018 –, também promete estar entre os mais importantes e interativos do mundo. E por quê? Porque, entre seus desafios, estão atrair público e, especialmente, recuperar e recontar a história das peças destruídas – algo que só será possível pela soma entre pesquisa de alta qualidade e entrega digital precisa.

E os desafios?

Mas, como fazer isso? A resposta a esta pergunta pode representar um novo salto para os museus. Há, porém, desafios importantes. O primeiro: levar essa transformação para um número muito maior de instituições. Para além dos grandes museus, afinal, há dezenas de milhares de outros que, muitas vezes, ainda reproduzem o modelo “Gabinete de Curiosidades”. Apenas para se ter uma ideia: no Brasil há 4.024 museus cadastrados no Instituto Brasileiro de Museus (Ibram) – muitos, em especial os das cidades menores, ainda não “deram o salto” de qualidade.

Outro desafio, monumental, diz respeito ao repensar dos governos e das gestões dos museus em relação aos seus acervos. Na medida em que muitas coleções foram construídas no período colonial – em muitos casos, a partir de saques, confiscos e compras ilegais –, há uma questão séria que envolve a titularidade dos acervos e a necessidade de repatriação de peças.

Apenas para ficar em alguns exemplos, entre os acervos “problemáticos” estão coleções associadas às religiões e religiosidades de povos originários (como objetos rituais e até restos humanos de grupos indígenas americanos), peças saqueadas em guerras e relíquias arqueológicas como os bronzes do Benin, África (hoje, em vários museus), os frisos do Parthenon, em Atenas (atualmente no Museu Britânico), o busto da rainha egípcia Nefertiti (atualmente no Neues Museum, em Berlim) e a Pedra de Rosetta (peça-chave na decifração dos hieróglifos egípcios, hoje no Museu Britânico).

Mas, não seria simples apenas repatriá-los, devolvendo-os às sociedades de origem? Sim e não. Se, por um lado, já há movimentos importantes nesse sentido – como a entrega, ao Brasil, de mantos tupinambás em penas de guará (do século XVII) que estavam no Museu Nacional da Dinamarca –, por outro há questões econômicas envolvidas. Peças como o busto de Nefertiti, por exemplo, são “estrelas” que atraem milhares de pessoas do museu. Sem contar o risco, que não deve ser desprezado, de as peças retornarem a lugares sem capacidade de conservar e mostrar os acervos. Algo que, em tese, poderia ser resolvido por uma expansão dos museus e da cultura museológica, o que demanda investimentos e interesse político.

Conclusão

Neste artigo, pudemos perceber como os museus evoluíram. E evoluíram, em essência, porque refletem a evolução das sociedades e da tecnologia. Esse processo, porém, também marca conflitos que cresceram nas últimas décadas. O maior deles, o do respeito às culturas do mundo e à necessidade de promoção da interculturalidade nas relações entre os povos. Outro desafio é o da democratização desse novo modelo, que deve alcançar os milhares de museus do mundo e não apenas as grandes instituições.  

Se conseguirmos dar esse salto, os museus – esses espaços vivos de memória e descoberta – terão, de fato, encontrado o caminho para o futuro. Um passo importante nesse sentido é o interesse das pessoas pelos seus museus. Assim, deixamos o convite: vá aos museus! Prestigie o museu da sua cidade!

O Museu do Palácio Nacional, em Taipei, possui uma das maiores coleções de arte e História da China de todo o mundo. Foto: Getty Images.

Museus para conhecer:

O mundo possui milhares de museus, e muitos deles são simplesmente sensacionais. Abaixo, listamos apenas alguns deles que podem ser conhecidos pela internet:

Hermitage Museum, São Petersburgo

Instituto Inhotim, Brumadinho, Minas Gerais

Metropolitan Museum of Art (MET), Nova Iorque

Museo Nacional del Prado, Madrid

Museu de Arte de São Paulo (MASP), São Paulo

Museu Britânico, Londres

Museu da Acrópole, Atenas

Museu de História Natural (AMNH), Nova Iorque

Museu do Louvre, Paris

Museu Imperial, Petrópolis, Rio de Janeiro

Museu Nacional, Rio de Janeiro

Museu Oscar Niemeyer (MON), Curitiba

Museus do Vaticano, Roma

National Palace Museum, Taipei, Taiwan

New York Hall of Science (NYSCI), Nova Iorque

Novo Museu Egípcio, Cairo

Smithsonian National Air and Space Museum, Washington

Tate Modern, Londres

Ciência: afinal, quando começou a IA? E o que pode vir por aí?

(*) – Todas as imagens que ilustram este artigo foram geradas por IA (Google Gemini. e Copilot)

Há coisa de dois anos ou pouco menos, computadores pessoais e smartphones foram alcançados por um serviço diferente. Softwares e aplicativos de inteligência artificial (IA) começaram a dar respostas, inclusive às nossas perguntas mais tolas, e apareceram nos serviços de busca.

E passaram a fazer desenhos segundo nossas orientações, melhorar fotos, traduzir, criar música, diagnosticar, escrever, ler mapas, montar aulas e muito mais. Algumas vezes, errando e “delirando”, mas, na média, com entregas que atendem as expectativas.

Uma transformação ainda mais surpreendente pelo inusitado de seu surgimento: de repente, a IA entrou na vida das pessoas comuns.

Uma entrada disruptiva, sem dúvida. Mas, será que a descoberta também foi disruptiva? Ou ela nasceu de um processo mais longo, com base – será – na Antiguidade?

Nesta edição da série #EducaçãoHumaniza, vamos investigar a origem da IA, dando uma passadinha, também, por seu futuro. Venha com a gente!

Mas afinal, o que é Inteligência Artificial?

Essa é uma boa pergunta para iniciar nossa jornada. Afinal, a tecnologia chegou às pessoas com o nome de Inteligência Artificial (IA) – e isto, definitivamente, humanizou nossa percepção da tecnologia.

Mas o que é, exatamente, inteligência? E o termo “artificial”, por que foi usado?

A palavra inteligência vem do latim intellegere e significa, literalmente, “ler entre” ou saber escolher entre diferentes objetos ou alternativas. Para a ciência, não existe um único conceito de inteligência – em nosso texto, porém, adotamos a definição científica geral de que ela é a capacidade de adquirir e aplicar conhecimentos, resolver problemas, adaptar-se a novas situações e aprender com a experiência.

E, em relação ao termo artificial (também de origem latina), a ideia é de que se trata de algo que se tornou possível graças a um artifício, ou seja, a uma habilidade ou técnica desenvolvida pelo homem. E que age fora do cérebro humano.

Assim, inteligência artificial pode ser entendida como a capacidade de adquirir e aplicar conhecimentos, resolver problemas, adaptar-se a novas situações e aprender com a experiência – algo eminentemente humano – instalada em um dispositivo construído por um ser humano.

A IA, então, não é apenas uma imitação ou emulação da comunicação humana, mas uma tecnologia que também gerencia conhecimentos e aprende com a própria experiência.

A partir daqui, podemos descobrir quando começou a jornada de “implantar inteligência na máquina”.

Sonhos, reflexões e estudos

Podemos dividir nossa investigação em dois aspectos que acabam se conectando.  

Em um primeiro momento, temos o sonho humano, o desejo de construir autômatos e seres dotados de inteligência.

Ele aparecia nos mitos e no pensamento filosófico grego (como nos autômatos construídos pelo deus ferreiro Hefesto – imagem abaixo), entre os judeus medievais com o Golem (um autômato construído magicamente por rabinos) – e também na China, com aqueles que são considerados os primeiros robôs humanoides, descritos em textos clássicos.

Por muito tempo, foi só um sonho; nascido, porém, de mentes que também criariam a filosofia e, a partir dela, desenvolveram o pensamento científico, na Europa a partir do século XVII.

E é exatamente nesse período, com pensadores como René Descartes (1596-1650) e Gottfried Leibniz (1646-1716 – imagem), que têm início esforços no sentido de se “traduzir a razão” em termos matemáticos, com a lógica e o raciocínio mecânico (o mesmo que “dá vida” às calculadoras).

“Ombros de gigantes”

A referência, neste subtítulo, é a uma frase escrita por Isaac Newton (que ele emprestou de um pensador medieval, Bernardo de Chartres) para indicar que a ciência é cumulativa.

Os avanços na Matemática e na Ciência da Computação propiciados por pesquisadores como Leibniz, George Boole (1815–1864), Charles Babbage (1791–1871) e Ada Lovelace (1815–1852) serviram de base para que, no século XX, outros cientistas chegassem mais perto de um “pensamento computacional” e da arquitetura mais próxima do que conhecemos como IA. Esses trabalhos avançaram pela lógica simbólica (que possibilitou a invenção dos circuitos digitais), o cálculo universal (que permitiu as linguagens formais) e a programação.

A “máquina universal”

Em 1936, Alan Turing (1912–1954) formulou o conceito de “máquina universal”, um modelo que mostra que uma única máquina pode realizar qualquer tarefa computacional desde que seja programada corretamente. Esse conceito fundamenta os computadores de uso geral.

Pouco mais tarde (1945), John Von Neumann (1903-1957) estabeleceu o que conhecemos, hoje, como arquitetura de programa armazenado, que está em praticamente todos os computadores (e que prevê uma unidade central de processamento, CPU, memória e dispositivos de entrada/saída).

Em 1950, no artigo “Computing Machinery and Intelligence”, Turing (imagem) propôs um teste para avaliar se uma máquina poderia ser considerada “inteligente”. Esse teste, que se conecta diretamente à ideia de IA, estabelece o seguinte: “se um interrogador humano, em uma conversa escrita, não conseguir distinguir entre as respostas de um humano e de uma máquina, então podemos dizer que a máquina ‘pensa’”.

Nasce a IA

Cada contribuição foi essencial para a moldagem da IA que conhecemos.

Entre os anos 1960 e 1980, os estudos caminharam para a “IA simbólica”, que se baseava em lógica formal e representações simbólicas para simular o raciocínio humano em computadores e modelos matemáticos.

Em 1966, o programa de computador “ELIZA” ficou famoso por simular conversas com um psicoterapeuta; e os sistemas “especialistas” começaram a aplicar regras de conhecimento para resolver problemas de Medicina e Engenharia.

Nos anos 1980, os primeiros jogos digitais de RPG também “namoravam” com uma característica da IA: quando perguntavam ao usuário “O que devo fazer agora?” esperando uma resposta que permitisse avançar na jornada, simulavam a interação humana – uma característica essencial da IA. Essa característica, aliás, é chave no Teste de Turing.

O salto

Nos anos 1990 houve uma nova expansão. Se, até então, os sistemas que simulavam inteligência se baseavam em regras fixas e mais “duras”, eles começaram a incorporar dados estatísticos e algoritmos (equações) de aprendizado.

Com isso, ganharam flexibilidade de resposta – outra característica humanizante. Ao mesmo tempo, surgiram aplicações computacionais que focavam em reconhecimento de padrões, como os de escrita e voz.

Em 1997, um choque: pela primeira vez, um supercomputador – o Deep Blue, da IBM –, derrotou um superenxadrista, Garry Kasparov, mostrando a proximidade entre sua forma de “raciocinar” e o pensamento complexo humano.

Nos anos 2000, se unem ao processo (depois de um desenvolvimento de quase 50 anos) as redes neurais artificiais, modelos matemáticos inspirados no funcionamento do cérebro humano. Elas são compostas por camadas de neurônios artificiais (linhas de programa ou mesmo chips) que recebem dados, processam e transmitem resultados. Conectadas à IA, forneceram a “autonomia intelectual” que vemos hoje nesses sistemas.

Os sistemas, então, conseguiam falar e “sabiam pensar”.

Para a etapa seguinte, que estamos vivendo agora (mas que começou por volta do ano 2000), faltava apenas conhecimento, isto é, acesso a uma massa de dados (Big Data) que permitisse aos sistemas expandir a capacidade de processamento e construção de respostas.

Essa massa de dados está na internet, nos trilhões de informações que chegam a cada dia aos bancos de dados e que alimentam os algoritmos.

Aí, inclusive, reside a chave da chamada IA Generativa (vista em ferramentas como ChatGPT, MidJourney, Copilot e DeepSeek), em que não há uma simples organização-repetição de dados conhecidos, mas a gestão e a criação de novos conteúdos. É nesse estágio que nos encontramos agora.

Conclusão: esta IA é IA de verdade? E o que vem por aí?

Quando falamos de IA, não costumamos relacioná-la, por exemplo, com emoções ou subjetividade. E você sabe por quê? Porque esses elementos não estão lá! Eles são tão sofisticados – e emergem de uma estrutura tão complexa, o cérebro humano – que a ciência ainda não os alcançou.

Diante disso, é possível afirmar que a IA, hoje, é uma simulação extremamente bem-feita, e que pode ser cada vez mais refinada para uma mimese quase completa com os seres humanos. Não mais do que isso, porém.

E o que faltaria para a criação de uma inteligência artificial real, isto é, modulada por emoções e dotada de subjetividade? Que fosse indistinguível da inteligência humana, a ponto de perder o qualificativo “artificial”?

A ciência, é claro, trabalha nessa questão. Ainda não há meios, porém, para esse novo salto – o salto definitivo? – da IA. Dotar a máquina de uma noção de “Eu”, fazê-la sentir emoções (a chamada IA afetiva), permitir que tenha objetivos e vontade própria, que tenha um corpo físico capaz de fornecer informações que um sistema digital simplesmente não alcança.

Um avanço tão exponencial, porém, implicaria questões éticas sérias e reflexos profundos na vida das pessoas. Que exigiriam discussão prévia, normatização e acompanhamento cuidadoso pela sociedade. Esse debate, aliás, deveria começar agora, em escolas, universidades e governos.

Na sua opinião, a humanidade estaria pronta para essa nova etapa?

Povos Indígenas: uma jornada pelo direito e pelo reconhecimento

#EducaçãoHumaniza: o Brasil celebra no 19 de abril o Dia Nacional dos Povos Indígenas. Uma data de reflexão e de ação, que mobiliza muitas pessoas por um motivo essencial – o respeito à vida e à cultura dos povos originários.
Mas, você sabe o que significa, de fato, o termo “indígena”? Ele vem do latim e significa, literalmente, “aquele que nasceu dentro”. Mais exatamente, aquelas pessoas, aqueles povos, que já estavam dentro de um território, que já viviam ali havia muito tempo, quando outros povos – conquistadores ou invasores – chegaram e impuseram sua presença e sua cultura.
A ideia de povo “indígena” se aproxima, portanto, da ideia de povo “originário”, que é aquele que tem sua origem, seu berço, em uma dada região.

Onde vivem os povos indígenas?
Quando pensamos em povos indígenas, normalmente pensamos nas Américas, bloco continental onde, de norte a sul, há centenas de etnias antiquíssimas, pré-colombianas, com suas culturas, línguas, conhecimentos, hábitos e territorialidades.
No entanto, há milhares de povos indígenas em todos os continentes. Os aborígenes australianos, por exemplo, são indígenas, assim como os ainus do Japão (foto – crédito: Getty Images), os bosquímanos (ou San) do sul da África, os lapões (sámi) da Finlândia e até os bascos da Espanha.
Mas, o que define a condição de indígena para além daquilo que já descobrimos ao conhecer o significado da palavra “indígena”?

Uma questão de território… e de poder
A condição de indígena também está associada ao poder. Isso porque, na maioria absoluta dos casos ao longo da história, aqueles povos que “nasceram dentro” foram contatados, tiveram seus territórios invadidos por outro povo e acabaram submetidos pela força. E, muitas vezes, foram exterminados pela potência invasora.
Os atuais povos indígenas, porém – aqueles que se declaram e são percebidos assim –, têm uma enorme força. A força de sua própria cultura, da resistência cultural, da luta por direitos e pela preservação da língua, dos mitos e crenças religiosas, do território. A força de sua presença, enfim, a despeito de todas as tentativas de apagamento.

Roma: um caso emblemático
É interessante a gente pensar, por exemplo, que quando os romanos surgiram como civilização – em meados do século VIII a.C. (na foto abaixo, uma representação dos fundadores míticos de Roma, Rômulo e Remo, sendo amamentados por uma loba – foto: Wikipedia) –, eles estavam deixando a condição de povo originário, de povo indígena, para assumir aos poucos a posição de povo dominador, colonial ou imperial.
A começar porque os romanos também nasceram da fusão de outros povos “anteriores” (latinos, gregos e etruscos), e também porque, ao se expandir como civilização, eles foram contatando, enfrentando e assimilando (ou destruindo) outros povos nos territórios da Europa.

Alguns exemplos de povos europeus conquistados ou assimilados pelos romanos: lusitanos, celtiberos, galaicos, vascões, gauleses (celtas), belgas, helvécios, bretões, icênicos, trinovantes e pictos. Esses povos viviam, todos, em territórios que atualmente formam parte dos países da Europa Ocidental (Portugal, Espanha, França, Países Baixos, Dinamarca, Alemanha e Grã-Bretanha).

E por que falar de Roma em um artigo sobre povos originários?
Porque a mais poderosa civilização da Antiguidade no Ocidente foi a responsável por criar esse “modelo” imperial, de dominação, que inspirou todos os impérios que vieram na sequência – inclusive, as potências coloniais que a partir do século XVI contataram e conquistaram muitos territórios em todo o planeta. De certa maneira, Roma estabeleceu essa diferença entre “nós” – “civilizados” – e “eles” – “bárbaros”.
A partir dessas percepções, podemos nos aproximar dos povos indígenas brasileiros.

Os povos originários do Brasil
Em 1500, quando desembarcaram no Brasil oficialmente pela primeira vez, os portugueses foram recebidos pelos tupinambás, grupo da família linguística tupi-guarani que habitava uma extensa faixa do litoral entre a Bahia e São Paulo. Os tupinambás formavam uma comunidade poderosa. Eram, porém, apenas um entre centenas de povos.

Órgãos como o IBGE e a Empresa Municipal de Multimeios do Rio de Janeiro (Multi.Rio) estimam que, no século XVI, havia entre 1.200 e 1.500 povos indígenas vivendo no território que viria a formar o Brasil. Uma população de entre 2 milhões e 3,5 milhões de pessoas pertencentes a quatro grandes grupos etnolinguísticos – Tupi, Jê, Aruaque e Karib. Apenas para se ter uma ideia, na mesma época, Portugal possuía cerca de 1,5 milhão de pessoas.
Os portugueses não vieram com a intenção de trocar, mas de conquistar. Isso, aliás, era típico daquele momento histórico europeu. Na arrancada da “Era das Navegações”, os reinos nascentes queriam acumular riquezas comprando e vendendo especiarias, abrindo rotas de comércio e conquistando os territórios de potenciais fornecedores. Tudo com o suporte da fé religiosa.

Encontro e choque
A despeito de ter assinalado sua presença e “domínio” do território na viagem de Pedro Álvares Cabral – que, de fato, se dirigia à Índia –, os portugueses se estabeleceram mesmo no território brasileiro apenas por volta de 1530.
E chegaram com a “receita” típica da era colonial: somando interesses econômicos, tecnologia militar superior (leia-se: pólvora, arcabuzes, navegação, mapas etc.), burocracia e o desejo de impor sua religião católica e seu modo de vida aos povos originários. De quebra e inadvertidamente, também trouxeram doenças como a varíola, o sarampo, a gripe, a peste bubônica, a malária e o tifo – que, em algumas regiões das Américas, acabaram dizimando populações inteiras.

Submissão e resistência
Os portugueses necessitavam dos indígenas por uma série de razões, a começar porque estes povos conheciam o território; também por conta de seus conhecimentos sobre os alimentos da terra; e, é claro, por sua força de trabalho, tão necessária para a exploração econômica da terra. Para isso, porém, era preciso submetê-los, começando por sua conversão ao catolicismo.
O processo, é claro, não foi bem-sucedido. Se, por um lado, a submissão desses povos gerou aos portugueses certas vantagens, por outro deu início a um processo de apagamento e marginalização que dura até hoje – e que é uma causa central da existência de um Dia Nacional dos Povos Indígenas em nosso país.
As populações indígenas perderam seu território e viram seus mitos e crenças condenados; foram escravizadas e, muitas vezes, precisaram se deslocar em busca de regiões mais afastadas, onde não pudessem ser encontradas pelo invasor.
Apenas para se ter uma ideia do alcance da dominação portuguesa, foi apenas em 1680 que o rei de Portugal determinou a proibição da escravização de indígenas; a prática, porém, permaneceu em várias regiões pelos séculos seguintes – e isto somente acontecia porque essas pessoas não eram vistas como cidadãs.

Um tempo de redescoberta e resgate
Pelos séculos seguintes, na Colônia, Império e República, os indígenas brasileiros continuaram sendo vistos como não cidadãos – ou melhor, como pessoas que “não se encaixavam” no projeto de país desejado pelos grupos dominantes.
Nas ondas de expansão do Estado brasileiro pelo território, nos séculos XIX e XX (até o início dos anos 1970), dezenas de povos foram contatados e dizimados em enfrentamentos ou por doenças trazidas pelos brancos. Muitas vezes, tendo sido assimilados, chegavam à sociedade como cidadãos de “segunda categoria”, assentados nas periferias e sem acesso a educação, saúde ou emprego decente. Sem acesso – e isto é algo fundamental – aos seus próprios valores culturais e crenças.

A situação começou a mudar (e sinalizamos, aqui, que ela ainda está longe do ideal) a partir de 1988, com a Constituição Federal, que reconheceu a cidadania dos povos originários, assim como seu direito à terra e à manutenção e promoção de sua cultura e língua e religião.
Uma das mudanças principais, aliás, foi a mudança de posição em relação à ideia de “assimilacionismo”, que previa que esses povos deveriam ser integrados à sociedade brasileira. O direito, agora, passava a ser à diferença com proteção e respeito.

Um Brasil de muitos povos
O Brasil comemora o Dia Nacional dos Povos Indígenas de 2026 com cerca de 1,7 milhão de pessoas que se identificam como indígenas, distribuídas em 391 etnias e falando 295 línguas (o que coloca o nosso país como campeão de diversidade idiomática). Os dados, extraídos do Censo de 2022, mostram um crescimento em relação a 2010, quando a pesquisa registrou 305 povos e 274 línguas.

Esse crescimento, aliás, é sintomático da valorização e, principalmente, da conscientização dos próprios indígenas e da sociedade a respeito de sua importância. Há, evidentemente, muito em que avançar, da questão da terra ao respeito às crenças religiosas.
E, certamente, no cuidado com os chamados “povos isolados” – grupos indígenas que vivem em regiões da Amazônia e que não foram contatados pela sociedade brasileira. Segundo dados da Fundação Nacional dos Povos Indígenas, são 29 grupos não contatados reconhecidos pelo Estado. Esse número, porém, pode chegar a 115, dependendo de outros estudos e validações.

Conclusão: todo valor dos povos indígenas
Não existe cultura brasileira, não existe sociedade brasileira, sem a presença indígena. Que está nos valores, conhecimentos e saberes, artes, crenças, remédios, comidas (do milho ao açaí, da mandioca ao tacacá e mais) e, é claro, nos nomes dos lugares (30% dos municípios brasileiros têm nomes indígenas) e das pessoas.
E que está, é claro, na nossa genética (ao menos 13% dos brasileiros, 27 milhões de pessoas, têm ancestralidade indígena). Só somos brasileiros, enfim, porque temos uma de nossas raízes nos povos indígenas. E isso merece ser lembrado, celebrado e cultivado com ações concretas dos governos – como, por exemplo, no reforço à proteção dos direitos indígenas – e da própria sociedade – reconhecendo as contribuições, afirmando a identidade, celebrando o ser indígena.

Imagens: Getty Images

As raízes africanas do Carnaval brasileiro

Carnaval Brasileiro. Fonte: Getty Images.

Multidões nas ruas, música, alegria, calor, brilho, criatividade e muito trabalho conjunto. Só quem vive no “país do Carnaval” tem a dimensão da importância sociocultural que a festa pode alcançar. Outros países, é claro, também festejam o Carnaval – uma celebração de origem europeia relacionada ao calendário da Igreja desde a Idade Média, há pelo menos mil anos –, mas só no Brasil houve essa fusão criativa de culturas com resultados tão brilhantes.

Nesta edição momesca de #EducaçãoHumaniza, vamos investigar as origens africanas do Carnaval brasileiro. Aqueça os tamborins… e venha com a gente!

A busca por uma origem

Quando buscamos as raízes africanas do Carnaval brasileiro, a pergunta a se fazer é: como se deu essa aproximação? Afinal, como apontamos acima, a festa está diretamente ligada ao catolicismo europeu. O Carnaval é uma “compensação prévia”, feita de excessos e alegria, antes da quaresma, período de observância de jejuns, abstinência e oração.

Dito isso, vem a pergunta: o que, afinal, os povos africanos – muitos dos quais, originalmente seguidores de religiões tradicionais próprias ou, então, muçulmanos – tinham a ver com esse calendário?

A resposta passa pela política colonial portuguesa, que somava a violência da escravização, a economia transatlântica e a imposição religiosa. Vamos saber mais.

Representação de Carnaval medieval por Pieter Bruegel, o Velho (1559). Fonte: Wikipedia.

Um drama em dois continentes

Só de imaginar o processo de escravização aplicado pelos portugueses (e por outros povos europeus) entre o século XVI e a primeira metade do século XIX, a gente já se arrepia. Não é caso, porém, de só imaginar, uma vez que ele está bem documentado em obras como “O Navio Negreiro”, de Castro Alves, a trilogia “Escravidão”, de Laurentino Gomes, e em “Casa Grande e Senzala”, de Gilberto Freyre. É, sim, caso de indignar-se – e de tentar acrescentar uma camada extra de compreensão sobre a história do nosso país.

No tráfico transatlântico, mulheres, homens e crianças eram arrancados de sua terra natal na Costa Ocidental Africana (Golfo de Benin, Angola, Congo, Moçambique) –, sequestrados ou, então, vendidos como prisioneiros para mercadores de pessoas – e enviados ao Brasil.

Aqui, se sobrevivessem às condições duríssimas da travessia, eram revendidos e empregados na lavoura extensiva de culturas como a cana-de-açúcar e café (o chamado “eito”), atividades domésticas e obras públicas.

Nesse processo, em nome do controle por seus dominadores, eram convertidos à força ao catolicismo, religião oficial do império português. Tinham suas práticas religiosas originais proibidas, eram batizados com nomes cristãos (muitas vezes, os sobrenomes de seus “senhores” ou, então, de ordens religiosas) e eram obrigados a participar de cerimônias e rituais do calendário litúrgico. E é justamente esse o ponto de intersecção, o ponto de partida da relação entre o Carnaval e as culturas africanas.

Plano construtivo do navio negreiro inglês “Brooks” (séc. XIX). Fonte: Wikipedia.

Espaços de resistência

Movimentos de resistência à dominação passam, muitas vezes, pela percepção daqueles espaços em que é possível entrar e afirmar a própria identidade. Foi exatamente isso que aconteceu em relação ao Carnaval, festa popular que, por seu caráter disruptivo e irreverente, abriu espaço para manifestações culturais africanas. Uma festa de ruídos, bulha e inversão criativa, como bem observou o filósofo Mikhail Bakhtin, grande especialista no tema e em sua relação com a cultura.

Nesse momento tão interessante, tão peculiar, essas manifestações negras – que, por sua relação com a quaresma, se ligavam à “aceitação” da fé católica – surgiam e, aos poucos, também iam sendo incorporadas e transformadas em algo novo.

É nesse encontro entre repressão e criatividade, entre opressão e resistência, que surgem os batuques, os cortejos e os ritmos que moldaram o Carnaval brasileiro. Ou seriam “os Carnavais brasileiros”? É o que vamos ver agora.

“O Berimbau”, desenho de Jean-Baptiste Debret (1768-1848). Fonte: Wikipedia.

A presença negra nos muitos carnavais brasileiros

Antes de avançar para as contribuições africanas ao carnaval brasileiro, é interessante observar que o nosso país não possui apenas um carnaval, mas carnavais. A festa é uma só, mas com características culturais locais.

É bem verdade que, nas últimas décadas, essa diversidade cedeu terreno a uma festa mais uniforme, mediada pelos meios de comunicação; mesmo assim, em várias regiões ainda há festas bem características, bem tradicionais, como os afoxés da Bahia e os Papangus do Carnaval de Bezerros (Pernambuco).

Nesse contexto, as fontes culturais que formam o nosso carnaval – europeias, indígenas e africanas – podem aparecer com maior ou menor prevalência. A presença africana, porém, é sempre muito poderosa, em especial na sonoridade da celebração.

Papangus do Carnaval de Olinda, Pernambuco. Fonte: Wikipedia.

Do barulho aos ritmos carnavalescos

Bumbos, pratos, cornetas, matracas e gritos sempre fizeram parte do Carnaval. A “barulheira” era uma das características da celebração medieval, que se opunha justamente ao silêncio que deveria ser guardado a seguir, na Quaresma.

Foi esse o contexto de entrada dos instrumentos musicais africanos tradicionais; eles não vieram, porém, apenas como “máquinas de fazer barulho”, mas chegaram trazendo ritmos, marcações e um sentido musical, o que contribuiu de forma decisiva para a musicalidade do Carnaval brasileiro em todas as suas vertentes – dos afoxés ao “partido alto”, do frevo ao axé. Ou seja: boa parte da música carnavalesca tem, sim, suas raízes na África.

Tocadores de tambor de Gana, África Ocidental. Fonte: Wikipedia.

E que instrumentos africanos – ou herdeiros deles – encontramos no nosso Carnaval?

O mais célebre deles é o pandeiro, cuja origem não é apenas africana, mas que chegou a partir da África com os próprios escravizados ou, então, com os portugueses sob influência dos povos árabes do Norte da África.

Pandeiro. Fonte: Getty Images.

Outra “figurinha carimbada” é a cuíca, instrumento originalíssimo, comum no Carnaval carioca, herdeiro dos instrumentos africanos de fricção. Sua ideia é interessante: materiais distintos são friccionados junto a uma caixa de ressonância, gerando um “gemido” muito peculiar. E, com habilidade, o sambista consegue fazer o instrumento “falar”!

Protagonistas nas cerimônias das religiões de matriz africana, os atabaques – tambores altos em forma de pinhão – estão muito presentes nos blocos afro e afoxés, imprimindo uma cadência poderosa às músicas.

No caso do agogô, o próprio nome indica a origem do instrumento. É uma palavra de origem iorubá, de povos que vivem no oeste da África (Nigéria, Benin e Togo) e têm uma cultura musical muito rica – uma das grandes matrizes da nossa música carnavalesca. O agogô é um tipo de sino normalmente metálico que, quando percutido com uma haste, gera um som agudo que participa diretamente da marcação do ritmo.

Agogô. Fonte: Getty Images.

“Bum-bum, bum-bum, bum-bum…” – quando você está acompanhando um samba-enredo e percebe aqueles “batidões” lá no fundo, graves e poderosos, pode ter certeza de que está escutando um ou mais surdos em ação. Esses grandes tambores, cujas dimensões e profundidades podem variar, são essenciais no Carnaval brasileiro. E, é claro, têm origem nos tambores cerimoniais africanos.

Conclusão: a mão que toca o tambor

Instrumentos musicais não chegam sozinhos a uma festa e, evidentemente, também não tocam sozinhos. Por trás deles há pessoas e intencionalidade, conhecimentos prévios e cultura. Dito isso, podemos retomar uma ideia colocada alguns parágrafos acima, de que os povos africanos não apenas trouxeram instrumentos, mas colaboraram de forma decisiva para os ritmos e para a riqueza da música de carnaval – e, é claro, para a própria Música Popular Brasileira (MPB). Com inteligência sonora, criatividade e sensibilidade.

Não se pode esquecer, também, que a presença negra – africana e afro-brasileira – também colaborou e colabora muito para a estética do Carnaval do Brasil e para a sua temática. Nas danças, na corporeidade e nos enredos – sobre suas lutas, desafios, saudades, referências às culturas, religiões e religiosidades da África. E é justamente isso que faz do Carnaval Brasileiro um espetáculo de alcance global.

Para saber mais

Museu Nacional da Cultura Afro-Brasileira (MUNCAB), Salvador – O MUNCAB é um museu com ênfase na valorização de aspectos da cultura de matriz africana, destacando a sua influência sobre a cultura brasileira.

Museu Afro Brasil Emanoel Araujo, São Paulo – Fundado em 2004, é uma instituição da Secretaria de Cultura, Economia e Indústria Criativas do Estado de São Paulo. Localizado no Parque Ibirapuera, ocupa 12 mil m² e abriga um acervo com mais de 8 mil obras.

Museu do Samba, Rio de Janeiro – O Museu do Samba nasceu como Centro Cultural Cartola, fundado em 2001 pelos netos de Cartola e Dona Zica, lideranças da comunidade onde a instituição está sediada, na cidade do Rio de Janeiro, RJ. Desde 2007, é responsável pela salvaguarda das Matrizes do Samba do Rio de Janeiro registradas como patrimônio imaterial pelo IPHAN.

Instrumentos Musicais Tradicionais Afro-Brasileiros e Africanos – Da coleção do Centro Cultural Solar Ferrão, de Salvador, Bahia.

Dicionário Cravo Albin da Música Popular Brasileira – Único dicionário brasileiro dedicado exclusivamente à Música Popular Brasileira, iniciado em 1995 pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), por meio do Departamento de Letras, e pela Editora Francisco Alves, com o apoio técnico do IES – Engenharia de Informática e Sistemas. Em 1999, o Ministério da Cultura retomou o projeto do Dicionário por meio da Fundação Biblioteca Nacional.

#EducaçãoHumaniza: a origem das universidades

“Universidade”: quando a gente lê a palavra, pensa imediatamente em ensino superior. E é isso mesmo: ela é o lugar para a formação especializada em uma infinidade de áreas, da Geologia à Medicina, da TI à Pedagogia, e até em “zonas do conhecimento” que, neste exato momento, estão sendo imaginadas!

Universidade também é o lugar do encontro de pessoas para a troca e a construção de conhecimentos, de olho no desenvolvimento da civilização. Uma criação humana notável, que tem tudo a ver com a ideia de que a Educação Humaniza, mote da Editora Opet para 2026. Nesta edição da série #EducaçãoHumaniza, investigamos o surgimento das universidades. Venha com a gente!

O nome universidade tem a ver com universo?

A resposta é sim: universidade vem do termo latino universus, formado por unus (um) e versus (voltado para), gerando a ideia de algo “voltado para o todo”, capaz de abranger o conjunto das coisas.

Ou seja, universo é o conjunto de tudo o que existe e que é percebido assim, em conjunto, em suas conexões. E isso nos permite entender porque, na Astronomia, ele é usado para identificar o espaço sideral, a matéria, a energia e o tempo.

Esse é um começo instigante. Mas, como a palavra acabou identificando o que, hoje, conhecemos como universidade? A ideia de um lugar voltado a todos os saberes é boa e faz muito sentido. Para chegar mais perto de uma conexão com seu início histórico, porém, é preciso voltar no tempo, mais exatamente para a Idade Média ocidental, que é quando o termo começou a ser utilizado nesse sentido. 

“Universitas magistrorum et scholarium”

Essa é a resposta! Na Europa, por volta do século XI – na passagem da Alta Idade Média para a Baixa Idade Média, em áreas de países como França, Itália e Alemanha – essa expressão era utilizada para identificar os primeiros grupos modernos ocidentais especializados em trocar e produzir conhecimentos.

“Universitas magistrorum et scholarium” significa, exatamente, o “conjunto (universitas) de professores (magistrorum) e estudantes (scholarium). Eureka! 

Mas, voltemos a esses grupos. Por que eles se reuniam? E como eles conseguiam se manter?

A ideia de um grupo de especialistas transmitindo conhecimentos tem suas raízes na própria Baixa Idade Média – período que antecedeu a Idade Moderna – e no ressurgimento das cidades e do comércio. 

Um começo “corporativo”

Ela tem tudo a ver com as corporações de ofício (de alfaiates, sapateiros, ferreiros, carpinteiros, pedreiros, marceneiros, padeiros, etc.), mas com um objeto um pouco diferente. Se as corporações se organizavam para fornecer conhecimentos técnicos e padrões para a produção de bens materiais e serviços, no caso das universidades o foco era outro. Mais exatamente, os do Direito, Medicina, Filosofia e Teologia – áreas de saberes “imateriais”, mas tremendamente relevantes para a vida das sociedades porque conectadas à organização e à gestão do Estado (naquele momento, os Estados modernos estavam começando a aparecer).

​A arte da gestão

O valor do que esses grupos produziam, a importância que possuíam, nos permite entender quem os financiava. Vale lembrar que seus conhecimentos não geravam ganhos diretos como os produzidos pela venda de uma espada ou a construção de uma igreja; porém, eram muito importantes porque permitiam aos mandatários fortalecer a arrecadação de impostos, armar exércitos para financiar guerras, relacionar-se com as grandes casas bancárias (que já existiam), firmar acordos diplomáticos e de casamentos reais, encontrar dinheiro para os gastos pessoais dos reis, justificar estes gastos…

As universidades eram bancadas pelas próprias cidades (burgos), pelos reis que começavam a aparecer depois de um longo período de feudalismo, pela Igreja (que detinha a maior parte do conhecimento letrado no Ocidente) e, também, por pessoas de posses – burgueses e pequenos nobres – que, estrategicamente, queriam formar seus filhos para as “profissões do futuro” daquele momento.

Mas, quais foram as primeiras universidades?

Resposta na ponta da língua: as primeiras universidades são as de Bolonha, na Itália (fundada em 1088), Oxford, na Inglaterra (cerca de 1096), e Paris (cerca de 1150).

Ótimo! Só que não! Isso porque elas são as primeiras e, ao mesmo tempo, não são! 

Como assim?! Elas foram, efetivamente, as primeiras, porém dentro dos limites da cristandade de então, ou seja, nos territórios do Velho Mundo de maioria cristã – mais exatamente, as Europas Ocidental e Central. 

Dito isso, podemos chegar a universidades ainda mais antigas, que funcionam até hoje. São duas: as de Al-Qarawiyyin, situada em Fez, no Marrocos (fundada em 857), e Al-Azhar, no Cairo, Egito (fundação: 988). 

O que essas instituições têm em comum? Elas nasceram em países de maioria islâmica. Na Idade Média, vale observar, boa parte dos conhecimentos antigos – gregos e latinos –, assim como novas investigações (nos campos que viriam a produzir a Química, a Biologia, a Astronomia e a Medicina), foram preservados e cultivados pelos povos islâmicos. 

No caso dos conhecimentos religiosos, é interessante pontuar que, no Islã, eles se aproximam das leis civis; o que significa dizer que, neste contexto, as figuras e o papel do clérigo e do advogado muitas vezes se misturavam.

As universidades, porém, não ficaram só nos limites das ciências “imateriais”. É o que vamos ver a seguir.

Reis, fortalezas… conhecimento e poder

A chegada da Idade Moderna – marcada, em termos esquemáticos, pela conquista de Constantinopla pelos turcos otomanos no ano de 1453 – trouxe à Europa o fim do feudalismo e o nascimento dos Estados Modernos. 

Iam saindo de cena os feudos e entrando em cena os reinos (e, depois, os impérios). Com eles, nesse grande movimento, também vieram tecnologias decisivas como as da pólvora e da bússola, vindas da China e convertidas em grandes ferramentas de poder. Os interesses de comércio “destravaram” as navegações, aumentando muito seu alcance e gerando a Era Colonial ou “dos Impérios” (Portugal, Espanha, Reino Unido, França).

As universidades, então, se expandem para outras áreas bem mais “materiais”, como as de Engenharia de Fortificações, Metalurgia e Balística (para se alcançar o uso mais eficiente dos canhões), Astronomia e Cartografia

Muitas vezes, inclusive, esses centros de ensino eram exclusivamente voltados a essas áreas, e se aproximavam de exércitos que também iam se profissionalizando. Três exemplos: a Academia Militar de Turim, Itália, fundada em 1678, a École du Génie de Mézières, nas Ardenas, França (de 1748), e a Real Academia de Fortificação, Artilharia e Desenho, em Lisboa, Portugal (1790). 

​Em certa medida, é possível afirmar que muitos dos atuais centros de pesquisa associados à formação de oficiais – como os nossos Instituto Tecnológico da Aeronáutica (ITA) e Instituto Militar de Engenharia (IME) – são herdeiros diretos dessas instituições pioneiras. 

Da mesma forma, também é possível associar as antigas “universidades militares” às atuais universidades politécnicas, voltadas à formação de engenheiros e outros profissionais de ciências exatas. O saber técnico-militar abriu caminho para o saber científico-industrial. A primeira universidade politécnica, aliás, nasceu no calor da Revolução Francesa, na passagem para a Idade Contemporânea: estamos falando da École Polytechnique de Paris, fundada em 1794 para formar engenheiros e cientistas em áreas aplicadas.

O sucesso político, econômico e militar global das potências europeias ao longo de boa parte dos últimos quinhentos anos teve nas universidades (e no conhecimento gerado por elas) uma de suas bases. E, é claro, ajudou a espalhar o modelo de universidades pelo mundo – Américas, África, Ásia, Oceania. 

E isso significa dizer que, em outros lugares, não existiam iniciativas semelhantes? 

Sim e não! Sim, porque as “universidades” em um sentido europeu (e eurocentrado) nasceram, mesmo, na Europa, dos contextos e configurações próprias da região – como as decorrentes do poder da Igreja, do mundo feudal, do renascimento das cidades e do comércio etc. Esse modelo acabou prevalecendo em todo o mundo.

não, porque outras civilizações possuíam demandas semelhantes por profissionais ligados à administração pública e às ciências aplicadas – e criaram suas próprias instituições. 

O caso mais ilustrativo, aqui, é o da China, que viu sua primeira universidade – a de Beijing – ser fundada apenas no final do século XIX, em 1898. No entanto, a mesma China possuía academias imperiais desde, pelo menos, o século II. Essas instituições eram encarregadas de formar burocratas para a enorme máquina administrativa chinesa – e também se ocupavam de pesquisas científicas e temas filosóficos. Ou seja: cumpriam boa parte do que entenderíamos, deste lado do mundo, como universidade… só que eram muito mais antigas! 

As primeiras universidades americanas

O poder colonial europeu nos séculos XVI-XVII gerou vastos impérios que tinham entre seus territórios toda a América, repartida entre Espanha, Portugal, França e Reino Unido. Esse domínio incluiu, também, a fundação de escolas de ensino superior, muitas das quais eram diretamente relacionadas à Igreja. Enquanto os portugueses não autorizavam universidades fora da “metrópole” – o que forçava as elites das colônias a se formarem em Portugal, reforçando seus laços com o poder central –, espanhóis e ingleses não pensavam da mesma maneira. 

As primeiras universidades americanas são a Universidade de Santo Domingo, na República Dominicana (1538), a Universidade Nacional Maior de São Marcos, no Peru (1551), a Universidade Nacional Autônoma do México (1553), a Universidade São Tomás, na Colômbia (1580), a Universidade de Harvard, nos Estados Unidos (1636), a Universidade Nacional de San Antonio Abad del Cusco, no Peru (1692), e a Universidade de Havana, Cuba (1728). 

No Brasil, as primeiras faculdades nasceram no início do século XIX, com a chegada da família imperial portuguesa, e as primeiras universidades surgiram a partir de então. Há quem aponte que a Escola Politécnica da UFRJ nasceu da antiga Real Academia de Artilharia, Fortificação e Desenho, fundada em 1792 pelos portugueses – o que situaria a instituição carioca, em definitivo, como a mais antiga do Brasil.

Conclusão: a universidade… universal!

Neste artigo, abordamos a etapa inicial das universidades, que se conecta a uma fantástica jornada humana relacionada ao conhecimento, à ciência, ao fim das superstições e ao poder político. Em 2026, segundo dados do QS World University Rankings, há entre 25 mil e 30 mil universidades em todo o mundo, sem contar faculdades isoladas e centros universitários. Esses números demonstram a relevância dessas instituições, que, a cada ano, formam incríveis 45 milhões de pessoas, segundo estimativa do UNESCO (os matriculados chegam a 264 milhões).

Em um momento de aceleração tecnológica e alta especialização dos conhecimentos, as universidades são forçadas a encarar grandes mudanças, como a de oferta de novos cursos ou, mesmo, de novos formatos de ensino que permitam, por exemplo, formações “híbridas”. E fazem isso com o mesmo espírito que as fundou – o de universitas, ou seja, de um olhar amplo sobre um todo vivo, complexo e vibrante. 

Edição Genética: chegou a era dos genes sob medida?

Edição genética: um dos maiores avanços da ciência também gera preocupações éticas. Fonte: Canvas IA.

O ano era 1866: em um mosteiro na cidade de Brno (na atual República Tcheca), um monge cientista olhava atentamente para vasos de ervilhas em busca de semelhanças, diferenças e padrões entre as plantas. Seu nome era Gregor Mendel e ele tinha certeza de que o estudo era interessante. Talvez não se desse conta, porém, de que suas observações, sobre as leis da hereditariedade, acabariam por transformá-lo no fundador de uma nova ciência: a Genética!

Georg Mendel. Fonte: Wikimedia Commons

Cento e cinquenta anos depois, os estudos genéticos avançaram de uma forma que impressionaria o próprio Mendel, em uma jornada que passa por descobertas marcantes: a identificação dos cromossomos como portadores dos genes (Thomas Morgan, 1910), a confirmação de que o DNA é o material genético (Avery, MacLeod e McCarty, 1944), a descoberta da estrutura da dupla hélice (Watson, Crick e Franklin, 1953), a decifração do código genético (Nirenberg, Khorana e Holley, nos anos 1960), e, a partir dos anos 1970, o surgimento das primeiras técnicas de manipulação genética.

Em 2025, já não tratamos apenas de “testemunhar” a genética, mas de modificá-la com ferramentas como o CRISPR-Cas9, que tornou os genes literalmente editáveis para curar doenças, criar plantas resistentes à crise climática e permitir a desextinção de espécies. O que, é claro, também coloca questões éticas inadiáveis. A humanidade estará preparada para lidar com tamanho poder? Nesta edição de #FuturoPresente, vamos investigar a edição genética.

Os genes “sob medida” – o que é edição genética e como ela começou?

Quando falamos em “edição”, pensamos em ferramentas digitais para vídeo, áudio ou arquivos gráficos para acessar, recortar e moldar algo novo a partir de peças pré-existentes. Nada de estranho nisso. No momento em que a ideia é transferida para uma escala nanométrica, porém, gera dúvidas: neste caso, o uso de “edição” não seria muito mais uma licença poética do que algo real?  Na verdade, o termo é exato, e diz respeito, de fato, ao uso de ferramentas de alta tecnologia, físicas, químicas e biológicas, para transformar genes.

A principal analogia para a edição genética é a da edição digital. Fonte: Getty Images.

Quanto ao desenvolvimento da edição genética, é possível presumir que uma técnica tão sofisticada seja resultado de uma trajetória que envolveu muitos cientistas e, em alguns momentos, saltos disruptivos. Exatamente!

Combinando genes

Tudo começa no início dos anos 1970, partindo das descobertas anteriores. Nessa década, a ciência já conseguia decifrar os genes, cujos estudos, aliás, renderam prêmios Nobel a pesquisadores nos anos de 1933, 1958, 1962 e 1968.

Paul Berg. Fonte: Wikimedia Commons.

Em 1972, Paul Berg, pesquisador da Universidade de Stanford, desenvolveu o chamado DNA recombinante, uma “partícula de vida” estável que unia os genes de dois organismos diferentes. Para isso, ele usou uma “tesoura molecular” formada por enzimas para cortar trechos específicos do DNA. Em seguida, trouxe os componentes que queria incorporar e usou uma “cola” – um componente chamado “DNA ligase” para unir o conjunto. Resultado: Uma molécula artificial estável, que misturava genes de espécies diferentes – algo que, até então, só a natureza fazia por mutações ou recombinação natural.

Cada célula do nosso corpo, com exceção dos glóbulos vermelhos, contém uma molécula chamada DNA (ácido desoxirribonucleico), que carrega a informação genética de que necessita e define quem somos e como somos. E Berg, ao unir porções distintas, fez algo que até então era uma exclusividade da natureza e dos processos evolucionários. Por questões éticas e de biossegurança, porém, ele utilizou apenas fragmentos de vírus e bactérias – nenhum ser vivo foi modificado no processo.

Logo depois, em 1973, os pesquisadores Stanley Cohen e Herbert Boyer (das universidades da Califórnia e Stanford) deram o passo além, criando os primeiros organismos vivos geneticamente modificados. Eram bactérias editadas que poderiam se replicar transmitindo a nova carga genética para seus herdeiros. Essa técnica pioneira abriu caminho para a insulina humana produzida por bactérias – a primeira terapia geneticamente modificada, no ano de 1978. Em síntese: nascia, oficialmente, a Engenharia Genética.

Letramento genético

O resultado prático dos estudos de Berg, Cohen e Boyer acelerou os estudos em genética. Uma das grandes questões dizia respeito à precisão na leitura dos genes. Faz todo sentido: afinal, se a ideia é trabalhar com as peças de um quebra-cabeças, é preciso saber onde elas estão e como são.

E foi por aí que seguiu o trabalho de Frederick Sanger, que em 1980 recebeu o prêmio Nobel de Química (junto com Walter Gilbert) por desenvolver o primeiro método eficiente de sequenciamento do DNA, o “sequenciamento por terminação de cadeia”, a partir da ordem das bases que formam a molécula (A, T, C, G).

O método de Sanger foi essencial para outra etapa crítica dos estudos em genética: o mapeamento do genoma humano, realizado pelo Projeto Genoma Humano, iniciado em 1990 e concluído em 2003. Em tempo: os seres humanos possuem algo entre 20 mil e 25 mil genes – um número menor de genes que o da cebola, que chega a 60 mil!

Atualmente, os cientistas utilizam técnicas mais avançadas de sequenciamento. Contudo, o método de Sanger é tão confiável que é utilizado para a validação de resultados em pesquisas e diagnósticos.

PCR: a genética chega ao “CSI”

Nos anos seguintes, mais novidades. Em 1983, o bioquímico Kary Mullis desenvolveu a técnica de PCR – sigla, em inglês, para Reação em Cadeia da Polimerase (Polymerase Chain Reaction) –, que possibilitou a amplificação de fragmentos de DNA. Uma descoberta tão importante que garantiu a Mullis o prêmio Nobel de Química de 1993, junto com Michael Smith.

Mas, o PCR é importante por quê? Para responder, pense nos filmes tipo “CSI”: quando usam a técnica para copiar e “ampliar” um trecho específico de DNA (extraído de uma mancha de sangue ou suor, por exemplo), os cientistas forenses geram uma quantidade de moléculas que permite comparar e identificar o dono da amostra.

A mesma expansão-identificação permite identificar vírus em testes-diagnóstico, obter informações sobre restos arqueológicos e paleontológicos, realizar investigações de ancestralidade e – chegamos ao ponto do nosso artigo – sequenciar, clonar e editar genes.

CRISPR: a chave das sequências repetidas de DNA

Quem lê matérias sobre edição genética fatalmente encontra uma sigla: “CRISPR”, que aparece tanto porque se conecta ao “corta-e-cola” de genes. CRISPR é o acrônimo para Clustered Regularly Interspaced Short Palindromic Repeats – Repetições Palindrômicas Curtas, Organizadas em Grupos e Regularmente Interespaçadas. São sequências repetitivas de DNA que aparecem dentro dos conjuntos de genes.

Bactérias Eschericchia coli. Fonte: Wikimedia Commons.

Elas foram descobertas em 1987 pelo pesquisador Yoshizumi Ishino, à época doutorando pela universidade de Kyoto, Japão, durante uma investigação sobre os genes da Escherichia coli, bactéria causadora de infecções gastrointestinais graves.

No início, os cientistas não sabiam o porquê dessas sequências repetitivas de genes. No início do século XXI, porém, eles chegaram à conclusão de que elas faziam parte do sistema de resposta imunológica das bactérias contra vírus. Isso porque, em seus interstícios, elas guardavam uma espécie de biblioteca viral com fragmentos destes invasores. E foi então que a história deu um salto!

A “biblioteca-tesoura” do DNA

Em 2007, os biólogos moleculares Philippe Horvath e Rodolphe Barrangou perceberam que as bactérias usavam as próprias sequências CRISPR para identificar, cortar e destruir o DNA de vírus invasores.

Fantástico! Mas, e se a gente usasse essa “biblioteca-tesoura” do CRISP para cortar sequências de DNA? Foi isso que, em 2012, fizeram as cientistas Jennifer Doudna e Emmanuelle Charpentier, das universidades de Umea (Suécia) e Berkeley (EUA) – a descoberta lhes rendeu o prêmio Nobel de Química de 2020. Em 2013, Feng Zhang, do Massachusetts Institute of Technology (MIT), conseguiu adaptar o sistema CRISPR para as células humanas, o que tornou possível a edição genômica voltada à saúde – o que, por sua vez, gerou grandes descobertas e, também, sérias preocupações éticas.

Jennifer Doudna e Emmanuelle Charpentier. Fonte: UNESCO/Fundação L’Oréal.

Um grande dilema

Imagine a hipótese de editar genes para criar seres humanos com características específicas – fisicamente mais fortes, mais resistentes a certas doenças, mais dóceis, mais brigões… afinal, isto seria algo bom ou ruim? Essa pergunta é crucial na discussão sobre edição genética.

Uma primeira edição de genes humanos buscando corrigir falhas congênitas foi feita em 2015 pelo pesquisador Junjiu Huang, da universidade Sun Yatsen (China), em uma tentativa de eliminar um defeito no gene HBB, responsável pela beta-talassemia, doença sanguínea hereditária e fatal. Em 2017, cientistas dos Estados Unidos também usaram o CRISPR para corrigir mutações genéticas nocivas em fetos.

Até aí, em princípio, tudo parecia bem – ainda que, para muitos cientistas, essas intervenções fossem consideradas arriscadas justamente pela falta de maiores conhecimentos, por exemplo, sobre respostas genéticas secundárias decorrentes da edição.

Até que, em 2018, alguém “ultrapassou a linha”: He Jiankui, então na Universidade de Ciência e Tecnologia do Sul da China, que anunciou o nascimento de dois bebês cuja genética havia sido editada para evitar a contaminação pelo vírus HIV. Eram embriões sem defeitos genéticos que foram deliberadamente “editados”. Como a República Popular da China – e a maioria dos países que possuem legislação a respeito – proíbe edições genéticas desse tipo (em embriões saudáveis), ele acabou processado, demitido da universidade e condenado a dois anos de prisão.

O futuro com a tesoura na mão

Na medida em que as tecnologias avançam, o dilema ético fica mais claro. Os países devem definir e transformar em lei normas claras e rigorosas em relação ao CRISPR, que deve ter como foco, exclusivamente, a correção de problemas genéticos preexistentes.

A edição genética também pode ser utilizada para o desenvolvimento de espécies agrícolas mais resistentes às mudanças climáticas (como no caso de uma pesquisa brasileira que busca uma soja mais resistente à seca) e, também, para a “desextinção” de espécies, algo de que tratamos em uma edição anterior da série #FuturoPresente.

O “segredo” da desextinção reside na manipulação genética com técnicas de “editam”, “costuram” ou “somam” genes ao DNA. Fonte: Getty Images.

Mesmo essas finalidades, porém, devem ser examinadas com cuidado, até porque elas geram questões relevantes. Por exemplo: vale mais a pena investir na desextinção ou na proteção de espécies ameaçadas?

Novidades extraordinárias

Feita essa reflexão – o debate vai muito mais longe –, podemos passar às pesquisas mais recentes. Em 2023, o Reino Unido – país-chave na pesquisa genética – aprovou a primeira terapia CRISPR para tratar a anemia falciforme e a beta-talassemia, doenças genéticas graves que afetam muitas pessoas.

No ano passado, uma nova técnica de edição, chamada “Prime Editing” – mais precisa que o CRISPR tradicional, que se mostra impreciso em certos alvos –, entrou em fase de testes clínicos em seres humanos para o tratamento de males hereditários como a doença de Tay-Sachs, que provoca deterioração neurológica.

E, há algumas semanas (junho de 2025), os cientistas do projeto Synthetic Human Genome (SynHG), formado por pesquisadores baseados no Reino Unido, anunciaram o objetivo de produzir sequências genéticas avançadas do zero, ou seja, sintéticas.

É um passo além, uma edição ainda mais profunda: ao invés de utilizar fragmentos genéticos naturais, os cientistas querem construí-los a partir das “bases nitrogenadas” – Adenina (A), Timina (T), Citosina (C) e Guanina (G) – para, em seguida, montá-los em sequências. Ou seja: além de acessar e encaixar as peças do quebra-cabeças, eles também vão construí-las.

Até agora, essa edição sintética tem sido possível em estruturas genéticas simples, como as de bactérias. A meta, porém, é chegar ao nível humano até 2030. Essas conquistas vão trazer novos dilemas éticos relacionados a um tema tão profundamente humano.

O poder ampliado de manipulação genética vai implicar, necessariamente, na existência de leis pautadas em uma ética inegociável. Fonte: Getty Images.

Podemos pensar, por exemplo, na geração de “super soldados” ou, então, de uma naturalização da eugenia, que vem a ser a escolha e eleição de grupos humanos por suas características genéticas. Isso é algo tremendamente arriscado. Na medida, porém, em que a ciência não caminha para trás – isto é, os conhecimentos adquiridos não são perdidos –, resta à sociedade por meio de seus representantes e, certamente, da educação, estabelecer limites éticos sólidos e inegociáveis. Em síntese: as perspectivas são extraordinárias, mas também pedem muita atenção.

Isso é #FuturoPresente – porque o conhecimento nasce na escola.

Links interessantes:

🧬 G1Cientistas testam primeira soja editada geneticamente no Brasil

🧫 BBC Brasil O polêmico projeto para criar do zero DNA humano artificial

🧬 BBC Brasil Nova técnica de edição de DNA poderá curar até ‘89% das doenças genéticas’ no futuro

🧫  TecmundoCRISPR: Bebê com doença rara é o primeiro paciente do mundo a receber terapia de edição genética

#FuturoPresente: oceanos em risco, ciência em ação!

Mergulhadora mede diâmetro de coral marinho. Foto: Getty Images.

Uma linha perfeita, coroada no horizonte pelo sol que começa a nascer. Uma vasta curva que toma conta de quase todo o planeta e faz com que, do espaço, a Terra seja vista como o que ela é: um planeta azul. A causa? Os oceanos. Que nos separam, conectam e desafiam; que nos alimentam, fascinam e assustam. E que, infelizmente, estão em risco, ao mesmo tempo em que seguem revelando seus segredos para a ciência – e continuam guardando muitos mistérios!

Nesta edição de #FuturoPresente, vamos conhecer algumas das pesquisas mais recentes no campo dos oceanos! Navegue conosco.

🌊 “Um continente oceânico”

Vista do espaço, a Terra é uma “bola” azul com manchas amarronzadas, esverdeadas e brancas, das terras, geleiras e bancos de nuvens. A predominância de cor está relacionada a algo que você, mesmo morando longe da praia, conhece: os oceanos, que ocupam cerca de 71% da superfície do planeta. Uma superfície enorme, mas proporcionalmente muito fina – quase uma “película”.

Os oceanos cobrem 70% da superfície terrestre. Foto: Getty Images.

Imagine que, em média, a crosta oceânica possui 7 km de espessura e que o diâmetro médio do nosso planeta é de 12.742 km. Ou seja: a crosta oceânica equivale a apenas 0,055% do diâmetro total da Terra; se o planeta “medisse” um metro, a crosta oceânica teria 0,5 milímetro! Nesse minúsculo intervalo, porém, reside a chave para o clima do planeta e para algo que é muito raro em termos siderais: a vida.

Mais do que apenas mostrar proporções – os limites, a grandeza e até a fragilidade dos oceanos –, esses números sinalizam que a espécie humana se aproximou e passou a desvendá-los. E isso tem nome: cultura.

🌊 O oceano e a cultura

É difícil estabelecer quando começou a relação entre as pessoas e os oceanos. Afinal, de uma forma ou outra, a vida se liga desde sempre aos oceanos. Fiquemos, então, apenas nas relações culturais, que são tão antigas quanto o assentamento de seres humanos próximo a áreas marítimas, há cerca de 16 mil anos. É possível, inclusive, que essa datação recue ainda mais, em especial porque, hoje, muitos dos antigos sítios estão submersos por conta de mudanças naturais no relevo.

Representação de navio fenício com duas filas de remos. No mar, estão representados peixes e crustáceos. Foto: Wikimedia Commons.

Essa proximidade, é claro, gerou religiosidade, mitos, tecnologia, conhecimentos associados à nutrição e muito mais. Uma relação que se aprofundou com o início da navegação oceânica, há cerca de 5 mil anos pelos egípcios e também pelos polinésios, malaio-indonésios e outros povos do sudeste asiático. Os mares, que até então separavam porções de terra, passaram a uni-las.

Desde então, fomos acumulando informações sobre os oceanos, em um processo que se acelerou com a Revolução Científica, a partir do século XVIII. Registramos e descrevemos espécies marítimas, conhecemos as correntes e seus regimes, descobrimos a relação entre os oceanos e o clima, cartografamos o fundo dos mares.

Mesmo assim, esse azul todo segue revelando novidades, inclusive relativas à sua própria sobrevivência em um tempo de enorme pressão causada pela própria humanidade.

🌊 As espécies que habitam o grande azul

Um dia fantástico no mar: o pescador puxa a rede e ela vem pesada de peixes e crustáceos. Pequenos, grandes, coloridos, cinzentos, lisos e espinhosos. Um espetáculo de abundância para os olhos e para a cozinha. E que nos convida a perguntar: afinal, quantas espécies existem nos oceanos?

Desde o século XVIII, quando começou a classificação científica, foram catalogadas cerca de 250 mil espécies. Esse número gigantesco – que inclui peixes, moluscos, crustáceos, mamíferos marinhos, algas, corais e plâncton, entre outros – é bem menor, porém, que o estimado pelos cientistas. Eles acreditam que existam entre 500 mil e 1 milhão de espécies nos oceanos, muitas delas ainda desconhecidas por conta da dificuldade de acesso a certas regiões, como os fundos abissais, fontes hidrotermais marinhas ou sob camadas de gelo nos polos. Estamos falando, enfim, em algo como 50% e 75% de espécies ainda desconhecidas!

“Panda-esqueleto-do-mar”. Foto: Wikimedia.

De vez em quando, porém, alguns desses “bichos novos” acabam se mostrando ou, então, são contatados por pesquisadores mais audaciosos. Um exemplo interessante é o do “panda-esqueleto-do-mar” (Clavelina ossipandae), um peixe muito peculiar, de 2 cm de comprimento, descoberto e classificado por cientistas japoneses em 2023 na ilha de Kumejima.

Um animal transparente, com uma rede de vasos sanguíneos aparentes e semelhantes, em sua estrutura, a um esqueleto! Detalhe: o panda-esqueleto foi encontrado a apenas 20 metros de profundidade, em um ambiente alcançado pela luz solar, o que mostra que as novas espécies não vivem apenas nos abismos oceânicos; elas também podem estar bem perto!

🌊 Agora, imagine só o que vive nos abismos…

Sim, por incrível que pareça, esses lugares inóspitos para os seres humanos também guardam um verdadeiro tesouro de vida que, aos poucos, vai sendo revelado. Na medida em que as tecnologias avançam, é possível mergulhar mais fundo nas fossas submarinas, ambientes extremos por conta da enorme pressão exercida sobre os seres e objetos (um exemplo: no fundo das Fossas Marianas, a 11 km de profundidade, a pressão é 1.100 vezes maior que no nível do mar!).

Pois foi em um desses abismos – a Fossa de Atacama, localizada entre o Peru e o Chile, a 7 km de profundidade – que em 2022 os cientistas descobriram uma nova espécie, batizada de “peixe-caracol azul do Atacama” (ou, no registro científico, Paraliparis selti).

Peixe-caracol-azul-do-Atacama. Foto: American Association for the Advancement of Science (AAAS).

O pequeno peixe, de pouco menos de um centímetro, é parente de outros peixes caracóis comuns nas águas rasas da região. Contudo, a espécie evoluiu e se desenvolveu nas profundezas, um ambiente inviável para quase todas as espécies que vivem no planeta. Basta pensar que, para chegar lá, os seres humanos usam robôs blindados ou, então, sinos de mergulho poderosíssimos, capazes de resistir à pressão intensa.

Mas, como ele consegue? A resposta está na adaptação e na evolução, que fez com que seu corpo se tornasse gelatinoso e resistente à pressão brutal; além disto, ele não possui bexiga natatória, órgão comum aos peixes (ele regula a profundidade), mas que, em um contexto abissal, é totalmente inútil.

Além dos peixes-caracóis do Atacama, espécies como o polvo-dumbo (do gênero Grimpoteuthis) ou os vermes de Pompeia (Alvinella pompejana), que sobrevivem perto de fontes marinhas hidrotermais superquentes, mostram como a vida se adapta a ambientes inóspitos.

🌊 Dois exemplos, grandes lições

As espécies que citamos – apenas duas, entre dezenas descobertas e classificadas a cada mês – reservam algumas lições. A primeira é a percepção de que o oceano não é, apenas, um grande bioma; ele, na verdade, forma um universo riquíssimo, de semelhanças e diferenças significativas, dadas pela profundidade e por muitos outros fatores.

A segunda lição é a de que as novas espécies são promissoras em termos de conhecimento sobre a vida e, também, sobre caminhos para a própria ciência. Imagine, por exemplo, o que os peixes caracóis azuis do Atacama podem nos revelar sobre materiais resistentes a grandes pressões.

Por fim, mas não menos importante: as novas descobertas nos lembram de nossa própria responsabilidade em relação aos oceanos e a toda a vida. Estamos, enfim, diante de uma teia extraordinária (da qual fazemos parte), antiga, poderosa e resiliente, mas, ao mesmo tempo, muito frágil.

🌊 As novas tecnologias nos oceanos

Grandes desafios implicam grandes soluções, que implicam estudo e conexões entre conhecimentos e tecnologias já existentes. Pois é exatamente esse o caminho das novas tecnologias que estão ajudando a revelar mais e mais sobre os oceanos. Uma fronteira que, como já afirmamos, é enorme, complexa e, muitas vezes, de difícil acesso. Mas que, aos poucos, vai sendo cartografada e analisada em diferentes aspectos – geográficos, biológicos, fisioquímicos, geológicos, meteorológicos etc.

Tomemos como exemplo desse avanço duas tecnologias recentes, começando pela dos robôs submarinos de última geração, os chamados AUVs, que mapeiam o fundo dos oceanos com ajuda da inteligência artificial. Um exemplo emblemático é o do veículo de operação remota ROV SuBastian, do Schmidt Ocean Institute (dos Estados Unidos), capaz de mergulhar a 4.500 metros levando equipamentos de pesquisa.

Crédito: Schmidt Ocean Institute.

Em suas jornadas, até o momento esse “robô marinho” (e outros equipamentos do Instituto) descobriu nada menos do que 20 espécies. Eles também podem encontrar naufrágios, mapear depósitos de minerais de interesse comercial no leito marinho e mensurar áreas oceânicas em risco (como certas zonas de corais).

A segunda tecnologia de alto impacto vem das alturas: falamos do SWOT (Surface Water and Ocean Topography – Topografia da Água Superficial e do Oceano), missão de satélite lançada em 2022 pela Agência Espacial dos Estados Unidos (NASA) e pela Agência Espacial Francesa (CNES).

Sua meta é “olhar” para os cursos de água (rios, que são tributários dos mares) e estabelecer o nível exato dos oceanos; e, de quebra, conhecer a fundo o ciclo da água e mapear as correntes marítimas. Com isso, em breve será possível construir modelos climáticos ainda mais precisos, que auxiliem a humanidade a responder melhor à crise climática, e promover rotas de navegação mais sustentáveis.

🌊 A humanidade no centro do problema

O desenvolvimento tecnológico trouxe uma sobrecarga aos oceanos, como a provocada pelos transportes oceânicos. Foto: Getty Images.

Nos últimos séculos, em especial a partir da Revolução Industrial, a humanidade passou a exercer uma pressão enorme sobre os oceanos, com consequências como o desaparecimento de espécies (o exemplo mais conhecido é o das baleias, que tiveram 4 espécies extintas ou levadas a um declínio irreversível pela caça), a ruptura de cadeias alimentares (pela sobrepesca e pela pesca de arrasto), o surgimento de “ilhas de plástico” provocadas pelo acúmulo de detritos (que já cobrem uma área de 1,6 milhão de km² – mil vezes a área da cidade de São Paulo!) e, mais recentemente, o aquecimento e a elevação do nível das águas oceânicas (atualmente, em 4,5 mm ao ano) em virtude do efeito estufa.

🌊 O que pode vir por aí

Os cientistas, é claro, conhecem a maior parte das causas e podem testemunhar e antecipar muitos de seus efeitos. Um deles, sistêmico e muito poderoso, é justamente o associado à relação entre os oceanos e o efeito estufa.

O “aprisionamento” do calor na superfície terrestre já está provocando consequências como o derretimento de geleiras e a redução da salinidade das águas, que desregula o mecanismo das correntes oceânicas, que são dependentes da diferença de densidade entre água salgada e doce. Com menor salinidade, a água doce não afunda, enfraquecendo ou até paralisando a circulação do oceano.

No caso específico do Atlântico Norte, os cientistas perceberam que, desde os anos 1950, a Circulação de Revolvimento Meridional do Atlântico (AMOC), que inclui a Corrente do Golfo, perdeu 15% de sua força, e que pode estar perto de um ponto de virada. Se essa circulação acabar, as consequências serão dramáticas em relação ao clima da Europa Ocidental, que é mais ameno graças às correntes oceânicas quentes. Ele passaria a ser muito mais frio, afetando todas as formas de vida na região.

🌊 O conhecimento como caminho para salvar os oceanos

É complexo e mesmo trágico perceber que a ciência e a tecnologia, responsáveis pelos maiores avanços da humanidade, tenham sido as mesmas que aceleraram o colapso dos oceanos e dos ecossistemas. Nessa mesma fonte, porém, está a chave para a reversão – desde que aplicada com urgência, ética e um compromisso inadiável com o futuro da vida marinha.

Nas últimas décadas, por exemplo, uma moratória internacional à caça da baleia fez com que muitas espécies de cetáceos começassem a recuperar suas populações. Para isso, porém, foi necessário chegar a um consenso político construído graças aos aportes de conhecimentos científicos e à pressão de uma sociedade sensibilizada para o problema. As pessoas, enfim, perceberam que a caça às baleias trazia mais prejuízos do que benefícios – e decidiram agir, cobrando ações de seus representantes.

Baleia-corcunda fotografada em Vitória, Espírito Santo. Foto: Getty Images.

A mesma intencionalidade pela mudança, a mesma pressão política, é essencial para ir além do salvamento das baleias. É preciso, também, pensar em termos de consumo mais racional (de alimentos, roupas, tecnologias), de apoio às energias renováveis, de redução do uso de combustíveis fósseis e de eliminação de desperdícios. De fortalecimento, enfim, de uma consciência ambiental que cresce na sociedade a partir do conhecimento.

🌊 Para ir mais longe

Alguns links interessantes sobre o tema dos oceanos:

🌊 Década da Ciência Oceânica (ONU)

Iniciativa global da ONU para promover a pesquisa e a proteção dos oceanos.

🧬 Ocean Biodiversity Information System (OBIS)

Base de dados internacional que reúne informações sobre a biodiversidade marinha.

https://obis.org

🚀 Missão SWOT (NASA/CNES)

Detalhes sobre o satélite que está mapeando a topografia da água na Terra.

https://swot.jpl.nasa.gov

🐟 Schmidt Ocean Institute – Descobertas recentes do robô SuBastian

Relatórios e vídeos sobre as explorações e espécies descobertas.

🐋 International Whaling Commission – Proteção das baleias

Informações sobre a moratória da caça às baleias e suas consequências.

https://iwc.int

🧪 Revista Science – Artigos sobre biologia marinha e mudanças climáticas

Pesquisas recentes e revisadas por pares sobre oceanos.

https://www.science.org/journal/science

Exoesqueletos: das armaduras… ao futuro!

Vamos fazer um exercício de imaginação: você está prestes a vestir uma armadura. Pode até pensar naqueles torneios da Idade Média ou, então, em samurais ou soldados romanos marchando com suas couraças e elmos. Acontece que o que você vai vestir não é bem uma armadura… mas um exoesqueleto! Isso mesmo: um “esqueleto de fora para dentro”, se vale a brincadeira, com características e aplicações que já estão revolucionando os campos da indústria, da medicina e até das guerras. E é sobre esse fantástico avanço científico que nós vamos conversar nesta edição de #FuturoPresente. Venha com a gente!

No início, eram as armaduras

Fonte: Getty Images.

No parágrafo anterior, associamos armaduras a exoesqueletos. Mas, fora o “jeitão”, no que elas se assemelham? Boa pergunta! Armaduras e exoesqueletos partem de um mesmo princípio: ambos são wearable tech, tecnologia vestível, e buscam modificar uma ou mais características de quem os porta.

No caso da armadura, a mudança busca proteger o corpo do usuário contra pancadas, golpes de lâmina e perfurações. No caso do exoesqueleto, as possibilidades vão além. Ele pode proteger o corpo, aumentar a força física, recuperar e reabilitar movimentos ou amplificar os sentidos físicos do usuário. Ou seja: há semelhanças importantes, mas os exoesqueletos “navegam por mares mais distantes” – eles são mais sutis e complexos, e podem interagir profundamente com o corpo e o cérebro de seu portador.

Mas, afinal, por que “exoesqueleto”?

A palavra “exoesqueleto” é uma velha conhecida dos biólogos. Ela surge da soma entre o prefixo grego “exo”, que significa “fora” ou “externo”, e a palavra “esqueleto”, também de origem grega, que indica a estrutura óssea de sustentação nos indivíduos de muitas espécies. Neles, o esqueleto está situado “dentro”, e os órgãos e músculos se constroem, via de regra, “ao redor”, especialmente da coluna vertebral. Duas exceções são as costelas e o crânio, que se sobrepõem aos órgãos internos (pulmões e coração, cérebro), protegendo-os.

Fonte: Getty Images.

No caso do exoesqueleto, a estrutura de sustentação está fora e as partes moles estão dentro – e ficam especialmente protegidas. Isso faz com que os espécimes dotados dessa estrutura sejam naturalmente blindados. E quem são esses espécimes?

Se você pensou em formigas, besouros, baratas, aranhas, escorpiões, caranguejos, lagostas e siris, pensou certo! Os exoesqueletos são comuns entre os artrópodes, animais invertebrados que possuem um exoesqueleto rígido, corpo segmentado e apêndices – como pernas e antenas – articulados. Vale observar que esses “bichos” não são exceção. Eles formam o maior filo do reino animal, com mais de um milhão de espécies descritas – cerca de 80% de todos os animais conhecidos!

Fora isso, é importante observar – falando rapidamente – que esqueletos e exoesqueletos têm diferenças marcantes em relação à composição e à biologia: enquanto os ossos são estruturas vivas (com células e vasos sanguíneos), os exoesqueletos são formados por tecidos inertes (construído com substâncias como a queratina); enquanto os ossos crescem junto com o indivíduo até a idade adulta (e seus tecidos se renovam de forma permanente), os exoesqueletos são trocados de forma periódica, literalmente descartados (a chamada ecdise) para acompanhar o crescimento de seu portador.

Uma comparação interessante

Fonte: Getty Images.

Essa diferença entre ossos e carapaças, tecido vivo e tecido inerte, talvez possa ilustrar bem uma diferença essencial entre armaduras e exoesqueletos de alta tecnologia. Enquanto as armaduras são “inertes” – isto é, elas se restringem a proteger o corpo –, os exoesqueletos são “vivos”, ou seja, eles interagem com seu portador para aumentar capacidades e oferecer um suporte vital altamente diferenciado. Para isso, integram várias tecnologias – mecânica, eletrônica, de materiais e biomateriais, médica… – e alcançam resultados fantásticos. Que vamos conhecer daqui a pouco!

Antes de vestir o “exo”…

Fonte: Wikimedia Commons.

Exoesqueletos de alta tecnologia são instrumentos fascinantes. Mas, por que eles nos fascinam? E como, na verdade, ficamos sabendo a respeito deles, uma vez que – ao menos, até o momento – ainda não são produzidos em grande quantidade?

A resposta pode estar na cultura, mais exatamente nos quadrinhos e no cinema, com seus super-heróis, vilões, uniformes extraordinários e, é claro, super-poderes. Como, por exemplo, os garantidos pelas armaduras exoesqueléticas usadas por Tony Stark como “Homem de Ferro” ou pelo “P-5000 Powered Work Loader”, exoesqueleto de carga vestido pela personagem Ellen Ripley em “Aliens: o Resgate”, filme de 1986 (curiosidade: esse exoesqueleto foi inspirado em protótipos criados pela empresa GE nos anos 1960).

Ambas peças cumprem funções totalmente previstas pelos cientistas para a nova tecnologia. E, de quebra, ainda alimentam o sonho ancestral humano de ter poderes que os coloquem no topo da natureza (algo que se relaciona aos mitos e aos deuses). O resultado: sucesso no imaginário – e inspiração para a ciência!

Mas, quando surgiram os exoesqueletos modernos?

As armaduras, como já vimos, são “antepassados” dos exoesqueletos baseados em tecnologia. Olhando para a história desses equipamentos, porém, percebemos que eles estão muito mais próximos do que poderíamos imaginar. Eles podem não ter as mesmas funções, mas nasceram em contextos semelhantes: a guerra e a necessidade de aumentar o desempenho humano.

Fonte: Wikimidia Commons

Isso porque os primeiros exoesqueletos, que surgiram há cerca de setenta anos, foram criados nos Estados Unidos para atender a uma necessidade das forças armadas – exatamente como acontecia por milênios com as armaduras, inventadas para proteger seus portadores, os guerreiros.

Pense, por exemplo, na necessidade que os militares têm de transportar grandes cargas, de munições a peças de reposição, ou de cavar trincheiras rapidamente. Esse era o objetivo do Hardiman, exoesqueleto motorizado de braços e pernas vestíveis desenvolvido pela General Electric (GE) em parceria com o Exército dos EUA (imagem ao lado). O nome Hardiman é o acrônimo de “Human Augmentation Research and Development Investigation” (HARDI) + “MANipulator” (MAN), expressão que pode ser traduzida como “Investigação para pesquisa e desenvolvimento do aumento da capacidade de manipulação humana”.

O criador do projeto, o engenheiro Ralph Mosher, buscou produzir um aparato capaz de multiplicar a força humana. A ideia era a de que, ao vesti-lo, a pessoa pudesse levantar facilmente cargas de 1500 libras (cerca de 680 kg), sem qualquer esforço muscular maior que o associado aos movimentos normais de braços e pernas.

O projeto era visualmente fascinante. Na época, porém, não havia tecnologia capaz de garantir sua estabilidade, por exemplo, por meio de sensores eletrônicos. A máquina era pesadíssima, dava trancos perigosos e apenas uma de suas partes, um braço mecânico colossal, funcionava, e ainda por cima de forma limitada. Resultado: não chegou a ser testada por seres humanos diretamente e acabou arquivada – mas, definitivamente, abriu uma porta para outras tentativas.

O ponto de virada

Os anos 1990 foram marcados pela chegada de tecnologias altamente impactantes. Foi o tempo de popularização dos computadores pessoais, de grandes avanços na microeletrônica, da chegada da internet às casas das pessoas, de novos materiais (como ligas especiais e cerâmicos) e de avanços na área de automação industrial. Um conjunto de soluções que, muito provavelmente, “daria conta” de todos os problemas percebidos no projeto Hardiman. Ele, porém, não voltou à cena.

Fonte: Getty Images.

Para o universo dos exoesqueletos, o período marcou um aporte tecnológico essencial: sensores digitais biométricos, giroscópios, estruturas mais leves e motores elétricos mais compactos e eficientes. Os aparatos “brutamontes”, enfim, saíam de cena para dar lugar a equipamentos elegantes e “cirúrgicos” em termos de desempenho. As possibilidades eram muitas! Foi nessa época que o foco das pesquisas foi dividido em três grandes áreas: militar, médica (de reabilitação) e industrial.

Chegamos, então, ao nosso tempo e aos “exos” que estão saindo dos laboratórios para dar suporte à vida real. Vamos conhecê-los!

Os exoesqueletos da nossa época

Hoje em dia, o “sonho de superpoderes” prometido pelos exoesqueletos está cada vez mais próximo. Esses aparatos ainda não chegaram ao cotidiano da maioria das pessoas, o que pode estar relacionado ao seu alto custo e, também, às suas finalidades muito específicas. Sem contar o fato de que, até o momento (a não ser, nos filmes e na literatura), eles não encontram finalidades estéticas ou recreativas.

Para os fins a que se destinam, porém, os novos “exos” – que contam com aportes tecnológicos recentes, como os da IA – se mostram transformadores. Como no caso da medicina de reabilitação, em que exoesqueletos de empresas como ReWalk e Ekso Bionics estão devolvendo a mobilidade a pessoas afetadas por lesões medulares.

Fonte: Wikimedia Commons.

Nesse campo, aliás, um brasileiro possui grande destaque: é Miguel Nicolelis (foto ao lado), médico e neurocientista brasileiro que lidera um time de pesquisadores na Universidade Duke, nos Estados Unidos. Em 2014, na abertura da Copa do Mundo do Brasil, ele apresentou um exoesqueleto cujos movimentos eram comandados diretamente pelo cérebro do usuário – no caso, Juliano Pinto, um paraplégico do tronco e dos membros inferiores que chutou uma bola.

No campo da indústria, exoesqueletos vêm sendo utilizados especialmente no suporte físico de operários, em plantas como as da Huyndai (Coreia) e Panasonic (Japão). Com os equipamentos – que, externamente, se assemelham em certa medida aos “exos” de reabilitação –, esses funcionários podem levantar cargas mais pesadas e se manter por mais tempo em posições que, normalmente, exigiriam um esforço físico muito maior.

Por fim, mas não menos importantes, são os exoesqueletos de aplicação militar, que, aos poucos, também começam a “dar as caras” nos quartéis. Não pense, porém (pelo menos, ainda), em equipamentos como o do Homem de Ferro, com capacidade de voo e armas integradas. Na verdade, eles se assemelham muito aos exoesqueletos de uso industrial. Sua meta é resolver um dos problemas mais antigos do universo militar: o da capacidade individual, de cada soldado, de transportar peso por longas distâncias sem se cansar. Nessa área, o principal projeto em andamento é o Human Universal Load Carrier (Transportador Humano Universal de Cargas), HULC, desenvolvido pela Lockheed Martin nos Estados Unidos.

E o que vem por aí…

Exoesqueleto: representação artística feita por IA. Geração: Freepik.

É bem possível que, em algumas décadas, este artigo seja lido como uma curiosidade de um tempo antigo. Afinal, com os avanços tecnológicos que estamos vendo, é provável que os exoesqueletos acabem “mergulhando” em suas três áreas de desenvolvimento: teremos mais pessoas reabilitadas (e reabilitações mais sofisticadas), trabalhadores mais confortáveis em suas árduas missões e soldados marchando por mais tempo com mochilas super-pesadas.

É possível, também, que aplicações “exo” estejam disponíveis em trajes do cotidiano, funcionando como interfaces entre o corpo humano e outras máquinas. E, quem sabe, no espaço sideral, garantindo suporte à vida e força em ambientes hostis e de muita ou pouca ação gravitacional.

E isso só será possível graças a avanços em áreas que já apontamos, como a dos materiais, que deverão ser cada vez mais leves e flexíveis – muito mais “vestíveis”, enfim. E das neurociências, que devem garantir avanços acelerados na conexão entre o cérebro e as máquinas. Nesse caso, aliás, o tema chega quase a ser outro: saem os exoesqueletos, entram os biônicos! Essa, porém, é outra história…

Para ir mais longe…

Uma seleção de links interessantes sobre exoesqueletos e suas aplicações:

ReWalk Robotics – Fabricante de exoesqueletos para pessoas com lesões medulares.
🌐 https://rewalk.com/

Ekso Bionics – Desenvolve exoesqueletos para reabilitação e uso industrial.
🌐 https://eksobionics.com/

Miguel Nicolelis (Nicolelis Lab – Duke University) – Laboratório do neurocientista brasileiro Miguel Nicolelis.
🌐 https://www.nicolelislab.net/

Portal G1 – “Pesquisadores brasileiros avançam nos estudos sobre uso de exoesqueletos e IA na reabilitação física e neurológica”

🌐 https://g1.globo.com/ciencia/noticia/2025/01/19/pesquisadores-brasileiros-avancam-nos-estudos-sobre-uso-de-exoesqueletos-e-ia-na-reabilitacao-fisica-e-neurologica.ghtml

Jornal da USP – Exoesqueleto robótico: desafio é diminuir custo e trazer maior portabilidade ao paciente

🌐 https://jornal.usp.br/atualidades/exoesqueleto-robotico-desafio-e-diminuir-custo-e-trazer-maior-portabilidade-ao-paciente/

BBC Brasil – Pai cientista constrói exoesqueleto para filho com paralisia andar

🌐 https://www.bbc.com/portuguese/geral-58033087

“Fagulhas, pontas de agulhas…”- São João e a Educação!

As festas juninas são a maior celebração intercultural brasileira. Fonte: Wikimedia Commons.

Você já parou para pensar no impacto das festas juninas na vida brasileira? Ele é gigantesco! Podemos afirmar, mesmo, que elas são o “grande festival brasileiro”, comparável ao Festival chinês do Meio Outono, à Oktoberfest alemã e à celebração do Solstício de Verão nos países nórdicos. Festas que se conectam a partir dos ciclos da natureza e que têm tudo a ver com a cultura, o conhecimento, a sabedoria popular e, é claro, com a EDUCAÇÃO. 

A riqueza da festa

Dados da Confederação Nacional do Comércio (CNC) mostram que, por ano, as festas juninas movimentam algo como R$ 2 bilhões no Brasil. O valor, que tende a crescer, aponta a dimensão dessas celebrações para a nossa sociedade. Elas não só são muito tradicionais, como também se modernizaram como grandes eventos – como os de Campina Grande (PB), Caruaru (PE), Aracaju (SE), Salvador (BA), São Luís (MA) e Palmas (TO). E aparecem em todas as regiões do país, nas cidades, paróquias, escolas e em família. E são um verdadeiro mosaico da identidade brasileira, cujos elementos merecem ser percebidos e destacados em seu valor cultural.

Eles são, enfim, conhecimento – e é isto que nos interessa neste artigo! Então, pegue seu chapéu e venha com a gente!

Festa junina em Caruaru, Pernambuco. Essas celebrações são importantes para o turismo de várias regiões do Brasil. Fonte: Wikimedia Commons.

Toda cor das festas juninas

Fogueira, música, quadrilha, bandeirinhas, brincadeiras, comidas deliciosas, bombinhas, roupas típicas e muita gente animada curtindo muito tudo isto. Essa bem poderia ser uma descrição rápida das festas juninas no Brasil. A ela, poderíamos acrescentar cores – os tons quentes das fogueiras e, também, o negro da noite e do inverno. Um contraste inesquecível!

As bandeirinhas das festas juninas homenageiam os santos católicos. O papel de seda, porém, é uma invenção chinesa! Crédito: Getty Images.

Uma celebração global

Mas, de onde vem tudo isso? De muitos lugares! A base é a tradição católica romana, de santos de grande prestígio popular e que são comemorados em junho: Santo Antônio (dia 13), São João (24) e São Pedro (29). Essas celebrações, aliás, são bem antigas – São João e São Pedro “acendem fogueira” desde o século VI; Santo Antônio, desde o século XII! Elas chegaram aqui com os portugueses no século XVI.

Há, porém, um ponto a considerar: apesar de sua motivação cristã – a mais aparente –, as festas juninas têm uma origem ainda mais antiga. Você se lembra de que, na abertura deste artigo, falamos em “ciclos da natureza”? Pois é: antes dos santos, as civilizações do Hemisfério Norte (como os romanos e os celtas) já faziam “festões” nessa mesma época do ano. Elas eram ligadas ao Solstício de Verão, ao “retorno da luz” e à chegada da estação mais quente do ano. E se relacionavam, é claro, às divindades que esses povos veneravam.

Vale observar que, entre nós, no Hemisfério Sul, esse “motivo mais antigo” da festa não funciona, e por um simples motivo: aqui, a estação que está chegando em junho é o inverno. Ou seja: sem que a gente se dê conta disso, comemora um festival de verão… em plena estação fria!

O que não é nenhum problema, até porque a motivação principal já não é a estação, mas a comemoração dos santos. E ainda temos uma vantagem: como acabamos de passar pelo outono, estamos com os celeiros cheios de grãos de milho e amendoim, culturas típicas da América que viram comidas deliciosas!

Em resumo: mesmo que o clima seja outro, o espírito de celebração permanece — e se adapta ao nosso contexto com criatividade e sabor.

Uma festa de todo o mundo

Muito bem: algumas linhas acima, falamos de milho e amendoim – e ficamos com água na boca. Eita, coisa boa! Acontece, porém, que ambos são produtos típicos… da América. Eles foram domesticados e cultivados pelos povos originários daqui há milhares de anos e, pelo menos até o século XVI, não “davam as caras” nas festas juninas. Não tinha como!

Aqui, temos um indício fortíssimo da principal característica da celebração em nosso país: sua transculturalidade. O que significa que, mais do que uma “festa de santo”, é uma festa formada pelas contribuições culturais de diversos povos, de muitas civilizações. O aspecto religioso é uma dessas contribuições; assim como a alimentação, as roupas, as danças e as brincadeiras – e isto é maravilhoso!

Pense, por exemplo, nas bombinhas e nos rojões. De onde eles vêm? Da China, civilização que inventou a pólvora no século XI!

Agora, lembre-se da chita dos vestidos juninos – pois saiba que este tecido de algodão colorido, tão bonito, é originário da Índia! Ele era trazido ao Brasil Colônia pelos portugueses, que também tinham negócios e territórios lá longe, do outro lado do mundo. Aliás, a palavra “chita” vem do sânscrito “chitra”, que significa “colorido” ou “pintado”.

Peça de tecido de chita produzida na Índia no século XVIII. Os tecidos indianos foram um produto importante do comércio colonial de vários países. Fonte: Wikimedia Commons.

Ah, e tem a quadrilha! Que veio da França no século XVIII. Lá, era a “quadrille française”, chiquérrima. Pois a família imperial portuguesa era adepta da dança e, em 1808, lançou a moda aqui. E ela acabou incorporada às festas juninas!

E o que dizer, então, das contribuições africanas? São muitas: nos instrumentos de percussão, nos refrões juninos que repetem as canções de trabalho dos escravizados, nos reizados e na corporalidade da dança.

“Quadrille” – quadrilha -, em sua versão francesa. A ilustração é de 1820 e mostra a seção “Verão” (“Été”) de uma das coreografias. Fonte: Wikimedia Commons.

Aquela festa na escola…

Aí, sim! Se as festas juninas já são, por si, muito legais, elas ficam ainda melhores quando são realizadas pelas escolas, envolvendo toda a comunidade. Dão um trabalho danado (sim, dão!), mas são uma expressão poderosa de união, alegria e capacidade de trabalho. E isso só acontece porque, como vimos, elas são cultura pura, conhecimento – e isto interessa diretamente à educação. Mas, como trabalhar seus conteúdos? São muitas as possibilidades! E nós vamos trabalhar com duas delas.

História em movimento

Uma boa alternativa para abordar a origem das festas são as gincanas. Elas pedem orientação e pesquisa prévia, e podem ser materializadas de diferentes formas: em jogos de perguntas e respostas, desafios, rodas de conversa, quizzes, entrevistas com convidados, podcasts, entrevistas e mais.

Por exemplo: na gincana, uma turma pode ser desafiada a criar um podcast entrevistando os avós sobre as festas juninas do passado. Com isso, além de resgatar memórias, os alunos trabalham oralidade, escuta ativa e história.

O caminho, como você pode perceber, é o da sala de aula invertida – e do protagonismo dos estudantes.

As festas juninas são uma oportunidade fantástica de reunir os estudantes para um momento “mão na massa” em diferentes níveis. Da organização à pesquisa e à realização, elas oferecem uma oportunidade de protagonismo. Fonte: Getty Images.

Movimento… no movimento!

As festas juninas são “corporais”, ou seja, elas envolvem movimento, envolvem gente! Nas brincadeiras, nos jogos, nas danças e no casamento caipira. Cada um desses elementos pode ser investigado pelos estudantes. Cada um pode ser organizado, interpretado, encenado — e percebido como uma contribuição concreta para a comunidade escolar.

E essa corporeidade, é claro, não vem sozinha – junto com ela vem a arte, que também pode ser trabalhada. Nos temas, nos materiais, na origem dos elementos e até na gestão dos recursos. Que tal, por exemplo, convidar seus estudantes a organizarem a quadrilha da festa junina? Ou o cenário? E como administrar os recursos para a aquisição dos materiais? Que tal, enfim, transformar essa tarefa em um projeto colaborativo de arte, cultura e planejamento?

Viva os saberes juninos!

Como vimos, as festas juninas são muito mais do que tradição: são uma poderosa ferramenta de aprendizagem, expressão e construção coletiva. Ao valorizá-las dentro da escola, reconhecemos o conhecimento que pulsa no cotidiano, no corpo, na cultura e nas relações humanas. E damos sentido ao que é, de fato, educar: conectar, celebrar, transformar.

Ao fim e ao cabo, é disto que tratam as festas juninas: animação, cultura, conhecimento e participação. Boas festas juninas para todos! Fonte: Getty Images.

Para ir mais longe

🔗 Página do Instagram do Museu do Folclore Edison Carneiro (IPHAN) – O museu possui um acervo digital riquíssimo sobre cultura popular brasileira, incluindo festas, danças e tradições orais.

🔗 Museu da Pessoa – Projeto colaborativo que reúne histórias de vida, muitas delas relacionadas a festas populares e tradições locais. Ótimo para trabalhar oralidade e memória.

🔗 Museu Nacional – Acervo online (UFRJ) – Embora voltado a diversas áreas, há coleções e documentos que dialogam com antropologia, história e cultura popular.

🔗  IPHAN – Dossiê das Matrizes Tradicionais do Forró (busque por “Forró” ou “Festas Juninas”) – Documentos oficiais sobre o registro do forró como patrimônio cultural brasileiro, com menção às festas juninas.

🔗 Museu do Folclore de São José dos Campos (SP) – Exposições virtuais sobre festas juninas e oficinas pedagógicas para escolas.

#FuturoPresente: fusão nuclear – chegou a hora da “energia limpa, barata e infinita”?

O futuro da energia reside no plasma da fusão nuclear? Vamos descobrir. Fonte: Getty Images.

Você já parou para se dar conta de o quanto a sua vida está relacionada com a energia? Para ler este artigo, por exemplo, você acessou um smartphone, smart tv ou computador que é alimentado eletricamente. Além disso, só pôde acionar o equipamento porque seu corpo, do cérebro às pontas dos dedos, possui energia suficiente para isto. Em outras palavras: você e o mundo são movidos pela energia… e são totalmente dependentes dela!

Energia: transformação, troca, custo

Acontece, porém, que não há energia de graça. Sendo mais precisos, podemos dizer que toda energia implica uma transformação, uma troca, um custo. Um processo que normalmente gera resíduos, do dióxido de carbono emitido pelo automóvel à casca que sobra de uma banana comida em nome do sabor e da força necessária para seguir trabalhando ou estudando.

Essa, aliás, é uma das grandes questões do nosso tempo: nos últimos três séculos, desde o início da Revolução Industrial, produzimos quantidades enormes de energia, com um custo que se faz cada vez mais visível em termos ambientais. E hoje, no ano de 2025, cerca de 80% da energia primária consumida no planeta vêm de fontes fósseis (petróleo, carvão e gás), que deixam pegadas muito pesadas na natureza – elas respondem por 75% das emissões de CO2 no planeta!

A busca pelo Graal da energia

Chegamos, então, a um dos grandes desafios da ciência: o de acessar fontes de energia baratas, abundantes e limpas (ou mais limpas que as disponíveis). Será que a fusão nuclear é a resposta? Nesta edição de #FuturoPresente, exploramos essa promessa que pode saltar dos laboratórios para a realidade em breve – e revolucionar nossa relação com o planeta.

Quebrar átomos, fundir átomos: a jornada para dominar a energia nuclear

Como a humanidade chegou a dominar a energia contida nos átomos? Esta história começa muito antes dos laboratórios modernos – na verdade, ela nasce da curiosidade filosófica. Imagine um pensador antigo se perguntando: “Se eu partir esta pedra em pedaços cada vez menores, em que momento ela deixará de ser pedra?”.

Esta “imaginação atômica” – a concepção de que toda matéria é composta por partículas minúsculas – remonta a 2.500 anos no passado, desenvolvida simultaneamente por filósofos gregos como Demócrito e por pensadores indianos. Porém, foi somente no início do século XX que essas especulações – fortemente desenvolvidas a partir do século XVIII – ganharam forma concreta, quando cientistas finalmente demonstraram como manipular os próprios blocos fundamentais da matéria.

Estátua de Demócrito encontrada em Herculano, Itália. Fonte: Wikipedia.

Foi nesse contexto revolucionário que passamos a compreender mais plenamente a relação íntima entre matéria e energia – e como explorá-la. Dois caminhos distintos emergiram:

Fissão Nuclear: Descoberta acidentalmente em 1938 por Otto Hahn, Fritz Strassmann e Lise Meitner, ocorre quando o núcleo de átomos pesados (como urânio ou plutônio) se divide após absorver um nêutron, liberando energia imensa e nêutrons adicionais que perpetuam a reação.

Otto Hahn, Fritz Strassmann e Lise Meitner, os mestres da fissão nuclear.
Fonte: Wikipedia

Fusão Nuclear: Explicada por Hans Bethe em 1939, é o processo que alimenta as estrelas – átomos leves de hidrogênio se fundem sob calor e pressão extremos, formando átomos de hélio e liberando quantidades colossais de energia, sem subprodutos radioativos significativos.

Hans Bethe, prêmio Nobel de 1967. Fonte: Wikipedia.

Fissão nuclear: vantagens e riscos

Testada empiricamente da forma mais dramática – com o Projeto Manhattan, que produziu as bombas nucleares lançadas sobre o Japão –, a fissão nuclear entrou na matriz energética de muitos países a partir da segunda metade do século XX. Em 2024, segundo dados da Agência Internacional de Energia Atômica (AIEA), havia 412 reatores nucleares em 32 países.

Se, por um lado, a fissão é uma fonte interessante – o parque nuclear atual implica uma redução de 2 bilhões de toneladas por ano de CO2 na atmosfera, a mesma quantidade produzida por uma frota de 400 milhões de automóveis –, por outro provoca grandes preocupações por gerar resíduos radioativos de alta atividade, que permanecem perigosos por milênios.

Além dos resíduos, acidentes como os registrados em Chernobyl (1986) e Fukushima (2011) deixaram um legado trágico e ilustraram poderosamente a discussão sobre os riscos humanos e ambientais ligados à fissão nuclear. Há vantagens inquestionáveis… e riscos associados também!

Técnico da Agência Atômica Internacional examina área próxima ao acidente nuclear do reator de Fukushima. Fonte: Wikipedia.

Apesar desses riscos, a energia nuclear causa menos mortes por TWh (Tera Watt-hora) gerado que fontes não radioativas como o carvão. Além disso, a próxima geração de reatores nucleares, os chamados SMRs, promete tornar essa energia ainda mais segura e limpa.

Agora, e se essa fonte energética, também baseada nos átomos, não gerar resíduos radioativos? E se ela tomar como referência, como matéria-prima, o elemento mais comum em todo o universo, o Hidrogênio?

Chegamos ao sonho da fusão nuclear, que, como alertou Hans Bethe, nos é demonstrada diariamente. Onde? No sol!

O “Graal” da fusão

Leia estes números e reflita: 1 kg de urânio fissionado em um reator nuclear ao longo de certo período de tempo libera energia equivalente à queima de 3 milhões de quilos de carvão. Nossa, isso é sensacional! Ao mesmo tempo, 1 kg de hidrogênio (deutério-trítio) fusionado é capaz – ao menos, em teoria – de gerar quatro vezes mais energia, o equivalente à queima de 12 milhões de quilos de carvão (uma pilha do tamanho do Pão de Açúcar!). E por um preço sensivelmente menor. Muito melhor!

Sim! Não fosse por um único detalhe: até o momento, a fusão nuclear ainda não “decolou”, e o investimento energético necessário para a produção de energia é maior que a energia gerada. Em outras palavras: a conta “ainda não fecha”.

Mas, estudos e projetos em andamento afirmam que, em algum tempo, teremos progressos importantes. E mais: focando no chamado “hidrogênio verde”, seria possível eliminar as emissões de CO2. É o que vamos saber na sequência.

Usina Termoelétrica a carvão do tipo “brown coal”, o mais poluente dos carvões minerais. Fonte: Getty Images.

Para a conta fechar… e gerar lucros

Os cientistas sabem muito sobre a fusão nuclear. No entanto, apenas agora eles estão começando a dar os primeiros passos mais firmes no sentido de gerar energia por meio da fusão.

Mas, qual é a maior dificuldade? Imagine, para começar, que para a fusão é preciso reproduzir o que acontece no núcleo do Sol. Em termos mais poéticos, os cientistas devem ser capazes de “criar um pequeno sol” e controlá-lo. Mas, como eles fazem isso?

A principal tecnologia atual é a dos chamados “tokamaks”, super-reatores em forma de anel, dotados de imãs gigantes para “domar” o plasma gerado na operação. No interior dos reatores, gases como o hidrogênio (na forma de tritônio – H3) são aquecidos a milhões de graus Celsius e se tornam plasma. Com a pressão e o calor monumentais – dignos do núcleo do Sol – os núcleos dos átomos do gás se fundem, liberando energia.

Representação artística de um tokamak. A parte brilhante, interna, representa o plasma circulando dentro do anel de imãs. Fonte: Getty Images.

O caminho está dado, mas há desafios poderosos. O primeiro é o da temperatura necessária para a fusão, de milhões de graus Celsius (maior que a temperatura do núcleo solar, que é de 15 milhões de graus Celsius). Em todos os testes feitos até agora, essa temperatura e a energia investida para alcançá-la têm sido maiores do que as geradas pelo processo de fusão, o que inviabiliza a operação.

O segundo desafio, ligado ao primeiro, se refere ao controle do plasma dentro dos tokamaks. O plasma, considerado o quarto estado da matéria, é formado quando um gás é aquecido a temperaturas muito altas ou submetido a fortes descargas elétricas, fazendo com que os átomos percam elétrons e se tornem íons. Sem controle, o plasma envolvido no processo pode fazer a reação perder temperatura, inviabilizando o ganho de energia na fusão e danificando equipamentos que são caríssimos.

Afinal, a fusão nuclear é um “beco sem saída”?

Não! Apesar das dificuldades monumentais – até agora, nenhum dos experimentos de geração de plasma produziu mais energia do que consumiu –, os cientistas acreditam que, até 2035, esteja em funcionamento o primeiro reator de fusão nuclear realmente eficiente.

Estamos falando do ITER (sigla em inglês para Reator Termonuclear Experimental Internacional), em construção no sul da França, que promete gerar dez vezes mais energia do que consome.

É um projeto internacional que envolve a participação de 35 países – os 27 membros da União Europeia, Reino Unido, Suíça, China, Índia, Rússia, Coreia do Sul, Japão e Estados Unidos – e que tem um custo de US$ 40 bilhões. O Brasil não é parceiro do projeto, mas participa indiretamente por meio de pesquisadores associados de áreas como as de Física e materiais.

Planta do ITER em Cadarache, no sul da França, na região da Provença-Alpes-Costa Azul. © ITER Organization, 2023. Fonte: iter.org

Mas, o que o ITER tem de diferente?

Para começar, o raio do reator, que é de 6,2 metros – duas vezes o tamanho do maior tokamak atual, o Jet, localizado na Inglaterra. Ele também é capaz de gerar uma temperatura de 150 milhões de graus Celsius – dez vezes maior que a temperatura do sol.

A meta do ITER é produzir 500 MW de energia de fusão com uma carga de acionamento de apenas 50 MW – um ganho de 10x. Para chegar lá, os pesquisadores estão utilizando novas tecnologias, como a de imãs supercondutores de nióbio-estanho resfriados a -269°C que são extremamente poderosos. Além disso, vão utilizar uma tecnologia diferenciada – a dos chamados “divertores de tungstênio” para extrair calor e impurezas do plasma. E também querem fazer com que o tritônio seja produzido dentro do próprio reator a partir de átomos de lítio.

Vista do interior do tokamak do ITER. © ITER Organization, 2023. Fonte: iter.org

O resultado? Muita energia – capaz de alimentar redes elétricas –, de baixo custo e com uma pegada ambiental muito pequena (e riscos associados baixíssimos), capaz de saldar os investimentos no projeto em muito pouco tempo. E, é claro, iniciar – literalmente – uma nova era na civilização!

Para ir mais longe – links:

Portal oficial do Projeto ITER (em inglês e francês)

Fusão Nuclear – Departamento de Física Nuclear do Instituto de Física da USP

G1, Fusão x fissão nuclear: reações produzem energia de formas diferentes; veja glossário do tema

BBC Brasil – Fusão nuclear: como cientistas alcançaram “Santo Graal” da energia limpa