Escolas de Corumbiara e Cerejeiras se destacaram no SAERO, sistema de avaliação educacional do Estado
Resultados do SAERO 2024 foram divulgados em seminário promovido pelo governo de Rondônia. Fonte: SEDUC-RO.
Três escolas das redes municipais de ensino de Corumbiara e Cerejeiras, municípios parceiros da Editora Opet em Rondônia, foram destaque no Sistema de Avaliação Educacional de Rondônia – SAERO.
Em Corumbiara, a Escola Municipal de Ensino Infantil e Ensino Fundamental (EMEIEF) Domingos Pereira Rocha (rural) e a Escola Municipal de Educação Infantil Mundo Mágico (urbana) apareceram entre as 30 melhores do Estado de Rondônia na faixa avaliativa do Ensino Fundamental – Anos Iniciais. No caso de Cerejeiras, foi destaque a EMEIEF Professora Maria Helena Barreiros, 2ª colocada no quesito desempenho dos estudantes.
O SAERO
Criado pelo governo do Estado de Rondônia em 2012 para auxiliar no planejamento e desenvolvimento da educação pública, o SAERO é realizado em parceria com o Centro de Políticas Públicas e Avaliação da Educação da Universidade Federal de Juiz de Fora (CAEd/UFJF).
A edição que reconheceu os municípios parceiros da Editora Opet foi realizada entre os dias 11 e 22 de novembro de 2024 e abrangeu 123 mil estudantes de todas as escolas públicas estaduais e municipais de Rondônia. A avaliação contemplou os estudantes do 2º, 3º, 5º e 9º anos do Ensino Fundamental e do 2º ano do Ensino Médio. Os resultados da avaliação foram divulgados no último dia 11 em Porto Velho, durante o Seminário de Resultados Saero 2024: Painel de Indicadores e Perspectivas.
Ao todo, 96 escolas públicas foram homenageadas pelos resultados, com premiações financiadas com recursos próprios do Estado.
Trabalho permanente
A secretária municipal de Educação de Corumbiara, Fátima Notaro, destaca o trabalho desenvolvido em conjunto pelas escolas que se destacaram, pela rede municipal de ensino e pelos gestores municipais.
“Nossos resultados são a soma de muitas mãos que trabalham incansavelmente pela melhoria do ensino. Os professores são realmente comprometidos com as nossas crianças”, avalia. Ela destaca a importância dos esforços municipais de reforço estruturado e recomposição da aprendizagem no pós-pandemia, que vêm mostrando resultados importantes.
“Além disso, contamos com os materiais da Editora Opet em todos os seguimentos da Educação, da creche ao 5º ano do Ensino Fundamental”, observa.
“Quando falamos em Opet, falamos de um material riquíssimo em conteúdos, que trabalha na mesma linha de que necessitamos para complementar nossa aprendizagem. É um material de ponta! Também contamos com um pessoal especializado da Editora, dando total apoio, presencial e online, ao município.”
O diretor da EMEIEF Professor Domingos Pereira da Rocha, professor Reinaldo Nascimento da Silva, acredita que o bom resultado de sua instituição esteja relacionado a uma série de fatores, começando pelo engajamento dos professores e da coordenação, e também pelo reforço e recomposição da aprendizagem. Ele acredita que os materiais da Editora Opet utilizados na Educação Infantil podem ter participado do resultado.
“Sabemos que o trabalho nessa etapa, quando bem feito e estruturado, tem reflexos sobre o Ensino Fundamental. Ele é a base de tudo. Se a base é bem-feita, é possível estruturar melhor o trabalho que vem a seguir”, observa.
A diretora Claudinéia Vicente de Lima Martins, da EMEF Mundo Mágico, diz que o resultado do SAERO foi emocionante. “Esse resultado representa o esforço coletivo, o compromisso diário e a dedicação de toda a comunidade escolar”, observa. Ela atribui o sucesso da escola na aprendizagem a um conjunto de elementos como a recomposição da aprendizagem, o reforço escolar estruturado, o atendimento educacional especializado, o acompanhamento psicopedagógico e psicológico, bem como práticas pedagógicas que respeitam o ritmo de cada estudante. “Além disso, o engajamento dos professores é notável. Eles atuam verdadeiramente como agentes de transformação!”, destaca.
A diretora Claudinéia Martins com o prefeito de Corumbiara, Leandro Vieira (à direita na foto), e sua equipe durante a premiação das escolas de destaque no SAERO. Fonte: Divulgação.
Para a diretora, os materiais e formações pedagógicas da Editora Opet também desempenham um papel importante. “Eles têm contribuído significativamente para o fortalecimento do processo de ensino-aprendizagem na nossa escola. Os recursos oferecidos são alinhados às diretrizes curriculares e favorecem uma prática pedagógica mais intencional, contextualizada e efetiva.”
Fortalecimento
Formação pedagógica de professores da rede municipal de ensino de Corumbiara. Fonte: Editora Opet.
“Os resultados das escolas parceiras da Editora em Rondônia mostram que existe um processo estruturado de fortalecimento da aprendizagem”, avalia Cliciane Élen Augusto, gerente pedagógica da Editora Opet.
“E isso é significativo, especialmente, porque não são resultados pontuais. A partir deles é possível avançar ainda mais, recompondo as aprendizagens que ainda estiverem defasadas e ir além, construindo uma aprendizagem adequada nas próximas etapas da educação.” Nesse processo, Corumbiara, Cerejeiras e todos os municípios parceiros contam com os recursos e o apoio da Editora Opet.
Edição genética: um dos maiores avanços da ciência também gera preocupações éticas. Fonte: Canvas IA.
O ano era 1866: em um mosteiro na cidade de Brno (na atual República Tcheca), um monge cientista olhava atentamente para vasos de ervilhas em busca de semelhanças, diferenças e padrões entre as plantas. Seu nome era Gregor Mendel e ele tinha certeza de que o estudo era interessante. Talvez não se desse conta, porém, de que suas observações, sobre as leis da hereditariedade, acabariam por transformá-lo no fundador de uma nova ciência: a Genética!
Georg Mendel. Fonte: Wikimedia Commons
Cento e cinquenta anos depois, os estudos genéticos avançaram de uma forma que impressionaria o próprio Mendel, em uma jornada que passa por descobertas marcantes: a identificação dos cromossomos como portadores dos genes (Thomas Morgan, 1910), a confirmação de que o DNA é o material genético (Avery, MacLeod e McCarty, 1944), a descoberta da estrutura da dupla hélice (Watson, Crick e Franklin, 1953), a decifração do código genético (Nirenberg, Khorana e Holley, nos anos 1960), e, a partir dos anos 1970, o surgimento das primeiras técnicas de manipulação genética.
Em 2025, já não tratamos apenas de “testemunhar” a genética, mas de modificá-la com ferramentas como o CRISPR-Cas9, que tornou os genes literalmente editáveis para curar doenças, criar plantas resistentes à crise climática e permitir a desextinção de espécies. O que, é claro, também coloca questões éticas inadiáveis. A humanidade estará preparada para lidar com tamanho poder? Nesta edição de #FuturoPresente, vamos investigar a edição genética.
Os genes “sob medida” – o que é edição genética e como ela começou?
Quando falamos em “edição”, pensamos em ferramentas digitais para vídeo, áudio ou arquivos gráficos para acessar, recortar e moldar algo novo a partir de peças pré-existentes. Nada de estranho nisso. No momento em que a ideia é transferida para uma escala nanométrica, porém, gera dúvidas: neste caso, o uso de “edição” não seria muito mais uma licença poética do que algo real? Na verdade, o termo é exato, e diz respeito, de fato, ao uso de ferramentas de alta tecnologia, físicas, químicas e biológicas, para transformar genes.
A principal analogia para a edição genética é a da edição digital. Fonte: Getty Images.
Quanto ao desenvolvimento da edição genética, é possível presumir que uma técnica tão sofisticada seja resultado de uma trajetória que envolveu muitos cientistas e, em alguns momentos, saltos disruptivos. Exatamente!
Combinando genes
Tudo começa no início dos anos 1970, partindo das descobertas anteriores. Nessa década, a ciência já conseguia decifrar os genes, cujos estudos, aliás, renderam prêmios Nobel a pesquisadores nos anos de 1933, 1958, 1962 e 1968.
Paul Berg. Fonte: Wikimedia Commons.
Em 1972, Paul Berg, pesquisador da Universidade de Stanford, desenvolveu o chamado DNA recombinante, uma “partícula de vida” estável que unia os genes de dois organismos diferentes. Para isso, ele usou uma “tesoura molecular” formada por enzimas para cortar trechos específicos do DNA. Em seguida, trouxe os componentes que queria incorporar e usou uma “cola” – um componente chamado “DNA ligase” para unir o conjunto. Resultado: Uma molécula artificial estável, que misturava genes de espécies diferentes – algo que, até então, só a natureza fazia por mutações ou recombinação natural.
Cada célula do nosso corpo, com exceção dos glóbulos vermelhos, contém uma molécula chamada DNA (ácido desoxirribonucleico), que carrega a informação genética de que necessita e define quem somos e como somos. E Berg, ao unir porções distintas, fez algo que até então era uma exclusividade da natureza e dos processos evolucionários. Por questões éticas e de biossegurança, porém, ele utilizou apenas fragmentos de vírus e bactérias – nenhum ser vivo foi modificado no processo.
Logo depois, em 1973, os pesquisadores Stanley Cohen e Herbert Boyer (das universidades da Califórnia e Stanford) deram o passo além, criando os primeiros organismos vivos geneticamente modificados. Eram bactérias editadas que poderiam se replicar transmitindo a nova carga genética para seus herdeiros. Essa técnica pioneira abriu caminho para a insulina humana produzida por bactérias – a primeira terapia geneticamente modificada, no ano de 1978. Em síntese: nascia, oficialmente, a Engenharia Genética.
Letramento genético
O resultado prático dos estudos de Berg, Cohen e Boyer acelerou os estudos em genética. Uma das grandes questões dizia respeito à precisão na leitura dos genes. Faz todo sentido: afinal, se a ideia é trabalhar com as peças de um quebra-cabeças, é preciso saber onde elas estão e como são.
E foi por aí que seguiu o trabalho de Frederick Sanger, que em 1980 recebeu o prêmio Nobel de Química (junto com Walter Gilbert) por desenvolver o primeiro método eficiente de sequenciamento do DNA, o “sequenciamento por terminação de cadeia”, a partir da ordem das bases que formam a molécula (A, T, C, G).
O método de Sanger foi essencial para outra etapa crítica dos estudos em genética: o mapeamento do genoma humano, realizado pelo Projeto Genoma Humano, iniciado em 1990 e concluído em 2003. Em tempo: os seres humanos possuem algo entre 20 mil e 25 mil genes – um número menor de genes que o da cebola, que chega a 60 mil!
Atualmente, os cientistas utilizam técnicas mais avançadas de sequenciamento. Contudo, o método de Sanger é tão confiável que é utilizado para a validação de resultados em pesquisas e diagnósticos.
PCR: a genética chega ao “CSI”
Nos anos seguintes, mais novidades. Em 1983, o bioquímico Kary Mullis desenvolveu a técnica de PCR – sigla, em inglês, para Reação em Cadeia da Polimerase(Polymerase Chain Reaction) –, que possibilitou a amplificação de fragmentos de DNA. Uma descoberta tão importante que garantiu a Mullis o prêmio Nobel de Química de 1993, junto com Michael Smith.
Mas, o PCR é importante por quê? Para responder, pense nos filmes tipo “CSI”: quando usam a técnica para copiar e “ampliar” um trecho específico de DNA (extraído de uma mancha de sangue ou suor, por exemplo), os cientistas forenses geram uma quantidade de moléculas que permite comparar e identificar o dono da amostra.
A mesma expansão-identificação permite identificar vírus em testes-diagnóstico, obter informações sobre restos arqueológicos e paleontológicos, realizar investigações de ancestralidade e – chegamos ao ponto do nosso artigo – sequenciar, clonar e editar genes.
CRISPR: a chave das sequências repetidas de DNA
Quem lê matérias sobre edição genética fatalmente encontra uma sigla: “CRISPR”, que aparece tanto porque se conecta ao “corta-e-cola” de genes. CRISPR é o acrônimo para Clustered Regularly Interspaced Short Palindromic Repeats – Repetições Palindrômicas Curtas, Organizadas em Grupos e Regularmente Interespaçadas. São sequências repetitivas de DNA que aparecem dentro dos conjuntos de genes.
Elas foram descobertas em 1987 pelo pesquisador Yoshizumi Ishino, à época doutorando pela universidade de Kyoto, Japão, durante uma investigação sobre os genes da Escherichia coli, bactéria causadora de infecções gastrointestinais graves.
No início, os cientistas não sabiam o porquê dessas sequências repetitivas de genes. No início do século XXI, porém, eles chegaram à conclusão de que elas faziam parte do sistema de resposta imunológica das bactérias contra vírus. Isso porque, em seus interstícios, elas guardavam uma espécie de biblioteca viral com fragmentos destes invasores. E foi então que a história deu um salto!
A “biblioteca-tesoura” do DNA
Em 2007, os biólogos moleculares Philippe Horvath e Rodolphe Barrangou perceberam que as bactérias usavam as próprias sequências CRISPR para identificar, cortar e destruir o DNA de vírus invasores.
Fantástico! Mas, e se a gente usasse essa “biblioteca-tesoura” do CRISP para cortar sequências de DNA? Foi isso que, em 2012, fizeram as cientistas Jennifer Doudna e Emmanuelle Charpentier, das universidades de Umea (Suécia) e Berkeley (EUA) – a descoberta lhes rendeu o prêmio Nobel de Química de 2020. Em 2013, Feng Zhang, do Massachusetts Institute of Technology (MIT), conseguiu adaptar o sistema CRISPR para as células humanas, o que tornou possível a edição genômica voltada à saúde – o que, por sua vez, gerou grandes descobertas e, também, sérias preocupações éticas.
Jennifer Doudna e Emmanuelle Charpentier. Fonte: UNESCO/Fundação L’Oréal.
Um grande dilema
Imagine a hipótese de editar genes para criar seres humanos com características específicas – fisicamente mais fortes, mais resistentes a certas doenças, mais dóceis, mais brigões… afinal, isto seria algo bom ou ruim? Essa pergunta é crucial na discussão sobre edição genética.
Uma primeira edição de genes humanos buscando corrigir falhas congênitas foi feita em 2015 pelo pesquisador Junjiu Huang, da universidade Sun Yatsen (China), em uma tentativa de eliminar um defeito no gene HBB, responsável pela beta-talassemia, doença sanguínea hereditária e fatal. Em 2017, cientistas dos Estados Unidos também usaram o CRISPR para corrigir mutações genéticas nocivas em fetos.
Até aí, em princípio, tudo parecia bem – ainda que, para muitos cientistas, essas intervenções fossem consideradas arriscadas justamente pela falta de maiores conhecimentos, por exemplo, sobre respostas genéticas secundárias decorrentes da edição.
Até que, em 2018, alguém “ultrapassou a linha”: He Jiankui, então na Universidade de Ciência e Tecnologia do Sul da China, que anunciou o nascimento de dois bebês cuja genética havia sido editada para evitar a contaminação pelo vírus HIV. Eram embriões sem defeitos genéticos que foram deliberadamente “editados”. Como a República Popular da China – e a maioria dos países que possuem legislação a respeito – proíbe edições genéticas desse tipo (em embriões saudáveis), ele acabou processado, demitido da universidade e condenado a dois anos de prisão.
O futuro com a tesoura na mão
Na medida em que as tecnologias avançam, o dilema ético fica mais claro. Os países devem definir e transformar em lei normas claras e rigorosas em relação ao CRISPR, que deve ter como foco, exclusivamente, a correção de problemas genéticos preexistentes.
A edição genética também pode ser utilizada para o desenvolvimento de espécies agrícolas mais resistentes às mudanças climáticas (como no caso de uma pesquisa brasileira que busca uma soja mais resistente à seca) e, também, para a “desextinção” de espécies, algo de que tratamos em uma edição anterior da série #FuturoPresente.
O “segredo” da desextinção reside na manipulação genética com técnicas de “editam”, “costuram” ou “somam” genes ao DNA. Fonte: Getty Images.
Mesmo essas finalidades, porém, devem ser examinadas com cuidado, até porque elas geram questões relevantes. Por exemplo: vale mais a pena investir na desextinção ou na proteção de espécies ameaçadas?
Novidades extraordinárias
Feita essa reflexão – o debate vai muito mais longe –, podemos passar às pesquisas mais recentes. Em 2023, o Reino Unido – país-chave na pesquisa genética – aprovou a primeira terapia CRISPR para tratar a anemia falciforme e a beta-talassemia, doenças genéticas graves que afetam muitas pessoas.
No ano passado, uma nova técnica de edição, chamada “Prime Editing” – mais precisa que o CRISPR tradicional, que se mostra impreciso em certos alvos –, entrou em fase de testes clínicos em seres humanos para o tratamento de males hereditários como a doença de Tay-Sachs, que provoca deterioração neurológica.
E, há algumas semanas (junho de 2025), os cientistas do projeto Synthetic Human Genome (SynHG), formado por pesquisadores baseados no Reino Unido, anunciaram o objetivo de produzir sequências genéticas avançadas do zero, ou seja, sintéticas.
É um passo além, uma edição ainda mais profunda: ao invés de utilizar fragmentos genéticos naturais, os cientistas querem construí-los a partir das “bases nitrogenadas” – Adenina (A), Timina (T), Citosina (C) e Guanina (G) – para, em seguida, montá-los em sequências. Ou seja: além de acessar e encaixar as peças do quebra-cabeças, eles também vão construí-las.
Até agora, essa edição sintética tem sido possível em estruturas genéticas simples, como as de bactérias. A meta, porém, é chegar ao nível humano até 2030. Essas conquistas vão trazer novos dilemas éticos relacionados a um tema tão profundamente humano.
O poder ampliado de manipulação genética vai implicar, necessariamente, na existência de leis pautadas em uma ética inegociável. Fonte: Getty Images.
Podemos pensar, por exemplo, na geração de “super soldados” ou, então, de uma naturalização da eugenia, que vem a ser a escolha e eleição de grupos humanos por suas características genéticas. Isso é algo tremendamente arriscado. Na medida, porém, em que a ciência não caminha para trás – isto é, os conhecimentos adquiridos não são perdidos –, resta à sociedade por meio de seus representantes e, certamente, da educação, estabelecer limites éticos sólidos e inegociáveis. Em síntese: as perspectivas são extraordinárias, mas também pedem muita atenção.
Isso é #FuturoPresente – porque o conhecimento nasce na escola.
Neurocientistas estão descobrindo efeitos importantes da escrita à mão sobre a cognição. Foto: Getty Images.
Há algumas décadas, pessoas em todo o mundo substituíram as canetas pelos teclados. Primeiro, adotaram as máquinas de escrever, grandonas e geniais. Depois, assumiram os teclados dos computadores e, mais recentemente, chegaram aos celulares, que acabaram abolindo as teclas físicas pelas telas touch screen.
Nesse processo, elas mudaram o método de escrita. O uso do cérebro e dos olhos se manteve; já o uso da mão se transformou totalmente: em vez de envolver o instrumento de escrita e “desenhar” as letras, os dedos passaram a “disparar” suas pontas contra teclas reais e virtuais. Além disso, diante do teclado, a condição de escritor “destro” ou “canhoto” desapareceu, assim como a caligrafia e seu resultado material, o papel escrito à mão.
Em tempos mais recentes, as tecnologias digitais foram colocadas em cheque por educadores de todo o mundo, o que gerou um movimento de proibição dos celulares no ambiente escolar em vários países (inclusive no Brasil).
Esse processo, que mirou elementos como a desatenção, o estresse e a dificuldade nas interações sociais presenciais entre crianças e jovens, trouxe um elemento extra muito bem-vindo: o retorno da escrita à mão com lápis ou caneta, que também passou a ser percebida por outras vantagens. Mas, por que ela é importante? O que dizem as pesquisas mais recentes? Este é o tema desta edição de #FuturoPresente. Confira!
O início da escrita
“Cilindro de Ciro”, exemplo de escrita cuneiforme. Fonte: Wikimedia.
O início da escrita, há cerca de 5.500 anos na Suméria (império situado no sul do atual Iraque), coroou um período de milhares de anos de organização neurológica para a representação gráfica de símbolos. Apenas para se ter uma ideia, as pinturas rupestres mais antigas conhecidas datam do Paleolítico Superior, há cerca de 45 mil anos (como as de El Castillo, na Espanha, e Sulawesi, na Indonésia).
Mamute desenhado na caverna de El Castillo, na Espanha. Fonte: Wikimedia.
Já naquela época, nossos antepassados conectavam cérebro, olhos, mãos e ferramentas de escrita (dedos, pedras de riscar, gravetos, carvões, conchas, cânulas de soprar) para representar o mundo em que viviam e seu próprio mundo interior. Com os sistemas de escrita, porém, começava algo diferente.
Por um lado, estavam dadas as bases do que, no futuro, seria a pintura; por outro, as civilizações ganhavam sistemas de registro de informações altamente eficientes e que podiam ser ensinados. Esses sistemas permitiam o armazenamento e compartilhamento externo de informações. Com isso, o cérebro ganhou condições de se especializar e os processos educativos avançaram para um outro nível. E a humanidade deixou a Pré-História para ingressar na História!
Quando a caneta gerou o teclado
Uma coisa curiosa, aqui, é perceber que, ao longo do tempo, os sistemas de escrita permitiram o desenvolvimento da ciência e da tecnologia, que, por sua vez, possibilitou o surgimento dos meios digitais. Ou seja: ao fim e ao cabo, a escrita tradicional e sua materialidade – ou seja, o escrever a carvão, pena, lápis ou caneta – acabaram gerando a escrita digital, que, agora, está sendo colocada em cheque em relação às suas vantagens ou desvantagens em termos de conhecimento! Esta ironia histórica nos leva a uma questão fundamental: o que perdemos ao abandonar milênios de relação íntima entre mão e escrita? E o que podemos voltar a ganhar?
As lições de uma antiga relação
Agora, imagine: o uso de “ferramentas de pegar” para desenhar e escrever se desenrolou ao longo de pelo menos 50 mil anos. E foi só há pouquíssimo tempo (cerca de 160 anos, quando surgiram as primeiras máquinas datilográficas), que ele acabou sendo parcialmente substituído pelo uso de “ferramentas de teclar” que unificaram ainda mais os registros escritos e deram muito mais velocidade ao processo.
Essa enorme diferença de tempo – 160 anos equivalem a apenas 0,3% de todo o nosso tempo de relação com as representações gráficas – indica que, por mais que o teclar nos “domine” hoje em dia, a relação mão-caneta-lápis possui uma importância muito grande, que vai além, mesmo, do próprio ato de escrita em si.
Efeitos do novo, lembranças do eterno
A pandemia da Covid-19 e a onda digital que ela gerou em todo o mundo – de alto impacto na educação – levaram neurocientistas e pesquisadores de educação a investigarem os efeitos da substituição da escrita tradicional à mão pela escrita digital teclada. E eles chegaram a algumas conclusões importantes, que vêm sendo complementadas por novos estudos.
Por exemplo: eles observaram que a prática da escrita com lápis e caneta fortalece a precisão na escrita das palavras, a construção da memória e o acesso a recordações; além disso, ela também facilita o reconhecimento e a compreensão de letras.
Motricidade fina e ação cerebral: a escrita cursiva mobiliza dezenas de músculos e vários neurocircuitos. Fonte: Getty Images.
Faz sentido. Basta imaginar alguém teclando uma letra (um “f”, por exemplo) e, depois, grafando esta mesma letra em um papel. Quando comparamos o teclar ao escrever, percebemos que, neste segundo caso, há uma exigência muito maior em relação à motricidade fina; os movimentos são mais complexos e, necessariamente, mais cuidadosos para dar conta de “desenhar” a letra, um processo que envolve ao menos 40 músculos e circuitos neurais bem específicos. A coisa, porém, não para na complexidade da relação neuromecânica.
Uma orquestra cognitiva
Uma pesquisa recente envolvendo eletroencefalografia (EEG) realizada pelos neurocientistas Ruud Van der Weel e Audrey Van der Meer, da Universidade de Ciência e Tecnologia de Trondheim, Noruega, mostrou que escrever à mão e teclar palavras ativam o cérebro de formas diferentes.
Na escrita à mão, mais áreas do cérebro são ativadas, o que, segundo os pesquisadores, pode favorecer a aprendizagem geral. É como se escrever à mão, enfim, não fosse apenas escrever, mas reger um conjunto mais complexo de habilidades que são treinadas e fortalecidas – uma orquestra cognitiva!
Em países como a China e o Japão, a caligrafia é considerada uma forma de arte. E tem um efeito importante em relação à tranquilização do cérebro. Fonte: Getty Images.
A caneta e as ondas theta
Outra investigação EEG, realizada em 2020 pelos mesmos pesquisadores, mostrou algo especialmente interessante em tempos de “alta ansiedade” como os que vivemos: a escrita à mão também pode estar relacionada ao aparecimento de estados de relaxamento mental. Isso porque, em crianças e adultos, escrever com lápis ou caneta promove uma sincronização na faixa de frequência theta nas regiões parietais e centrais do cérebro. A frequência theta de ondas cerebrais (que variam entre 4 e 7,5 Hz) é a associada a estados mentais de relaxamento profundo, meditação, sonho REM, devaneio e intuição, e também podem ser encontradas durante o sono e no período de adormecimento. Ou seja, escrever à mão estimula não apenas o relaxamento, mas a criatividade!
Usando a técnica de eletroencefalografia, os neurocientistas descobrem as partes do cérebro acionadas nas escritas cursiva e teclada. E elas são diferentes! Fonte: Getty Images.
A educação… de lápis na mão!
A educação, vale reforçar, nunca abandonou a escrita cursiva, e também está se colocando na vanguarda de seu processo de resgate. No Brasil, a Base Nacional Comum Curricular (BNCC) a indica como uma habilidade a ser adquirida nos primeiros anos do Ensino Fundamental, dentro do processo de alfabetização.
Outros sistemas educacionais, como os dos Estados Unidos (em vários Estados) e do Canadá, que haviam “trocado os lápis pelos teclados”, voltaram a considerar a escrita à mão relevante. Em muitos países da Europa – como Reino Unido, Espanha, Itália, Portugal e França –, ela nunca deixou os currículos. E, no Extremo Oriente, especialmente na China e no Japão, a caligrafia possui um status de arte que vai além de seu caráter comunicacional essencial.
O trabalho com a escrita cursiva está previsto nas normas que regem a educação brasileira, e esta é uma excelente notícia. Fonte: Getty Images.
Conclusão
Em um tempo de telas e de estresse digital, a redescoberta da escrita à mão e de seus efeitos cognitivos é uma notícia excepcional. Ela também abre espaço para novos conhecimentos sobre esse bem cultural tão antigo e importante, ao mesmo tempo em que nos convida a cultivar um olhar mais amplo sobre o mundo. Um mundo onde mãos, lápis, canetas e folhas de papel escrevem uma bela história!
Mergulhadora mede diâmetro de coral marinho. Foto: Getty Images.
Uma linha perfeita, coroada no horizonte pelo sol que começa a nascer. Uma vasta curva que toma conta de quase todo o planeta e faz com que, do espaço, a Terra seja vista como o que ela é: um planeta azul. A causa? Os oceanos. Que nos separam, conectam e desafiam; que nos alimentam, fascinam e assustam. E que, infelizmente, estão em risco, ao mesmo tempo em que seguem revelando seus segredos para a ciência – e continuam guardando muitos mistérios!
Nesta edição de #FuturoPresente, vamos conhecer algumas das pesquisas mais recentes no campo dos oceanos! Navegue conosco.
🌊 “Um continente oceânico”
Vista do espaço, a Terra é uma “bola” azul com manchas amarronzadas, esverdeadas e brancas, das terras, geleiras e bancos de nuvens. A predominância de cor está relacionada a algo que você, mesmo morando longe da praia, conhece: os oceanos, que ocupam cerca de 71% da superfície do planeta. Uma superfície enorme, mas proporcionalmente muito fina – quase uma “película”.
Os oceanos cobrem 70% da superfície terrestre. Foto: Getty Images.
Imagine que, em média, a crosta oceânica possui 7 km de espessura e que o diâmetro médio do nosso planeta é de 12.742 km. Ou seja: a crosta oceânica equivale a apenas 0,055% do diâmetro total da Terra; se o planeta “medisse” um metro, a crosta oceânica teria 0,5 milímetro! Nesse minúsculo intervalo, porém, reside a chave para o clima do planeta e para algo que é muito raro em termos siderais: a vida.
Mais do que apenas mostrar proporções – os limites, a grandeza e até a fragilidade dos oceanos –, esses números sinalizam que a espécie humana se aproximou e passou a desvendá-los. E isso tem nome: cultura.
🌊 O oceano e a cultura
É difícil estabelecer quando começou a relação entre as pessoas e os oceanos. Afinal, de uma forma ou outra, a vida se liga desde sempre aos oceanos. Fiquemos, então, apenas nas relações culturais, que são tão antigas quanto o assentamento de seres humanos próximo a áreas marítimas, há cerca de 16 mil anos. É possível, inclusive, que essa datação recue ainda mais, em especial porque, hoje, muitos dos antigos sítios estão submersos por conta de mudanças naturais no relevo.
Representação de navio fenício com duas filas de remos. No mar, estão representados peixes e crustáceos. Foto: Wikimedia Commons.
Essa proximidade, é claro, gerou religiosidade, mitos, tecnologia, conhecimentos associados à nutrição e muito mais. Uma relação que se aprofundou com o início da navegação oceânica, há cerca de 5 mil anos pelos egípcios e também pelos polinésios, malaio-indonésios e outros povos do sudeste asiático. Os mares, que até então separavam porções de terra, passaram a uni-las.
Desde então, fomos acumulando informações sobre os oceanos, em um processo que se acelerou com a Revolução Científica, a partir do século XVIII. Registramos e descrevemos espécies marítimas, conhecemos as correntes e seus regimes, descobrimos a relação entre os oceanos e o clima, cartografamos o fundo dos mares.
Mesmo assim, esse azul todo segue revelando novidades, inclusive relativas à sua própria sobrevivência em um tempo de enorme pressão causada pela própria humanidade.
🌊 As espécies que habitam o grande azul
Um dia fantástico no mar: o pescador puxa a rede e ela vem pesada de peixes e crustáceos. Pequenos, grandes, coloridos, cinzentos, lisos e espinhosos. Um espetáculo de abundância para os olhos e para a cozinha. E que nos convida a perguntar: afinal, quantas espécies existem nos oceanos?
Desde o século XVIII, quando começou a classificação científica, foram catalogadas cerca de 250 mil espécies. Esse número gigantesco – que inclui peixes, moluscos, crustáceos, mamíferos marinhos, algas, corais e plâncton, entre outros – é bem menor, porém, que o estimado pelos cientistas. Eles acreditam que existam entre 500 mil e 1 milhão de espécies nos oceanos, muitas delas ainda desconhecidas por conta da dificuldade de acesso a certas regiões, como os fundos abissais, fontes hidrotermais marinhas ou sob camadas de gelo nos polos. Estamos falando, enfim, em algo como 50% e 75% de espécies ainda desconhecidas!
“Panda-esqueleto-do-mar”. Foto: Wikimedia.
De vez em quando, porém, alguns desses “bichos novos” acabam se mostrando ou, então, são contatados por pesquisadores mais audaciosos. Um exemplo interessante é o do “panda-esqueleto-do-mar” (Clavelina ossipandae), um peixe muito peculiar, de 2 cm de comprimento, descoberto e classificado por cientistas japoneses em 2023 na ilha de Kumejima.
Um animal transparente, com uma rede de vasos sanguíneos aparentes e semelhantes, em sua estrutura, a um esqueleto! Detalhe: o panda-esqueleto foi encontrado a apenas 20 metros de profundidade, em um ambiente alcançado pela luz solar, o que mostra que as novas espécies não vivem apenas nos abismos oceânicos; elas também podem estar bem perto!
🌊 Agora, imagine só o que vive nos abismos…
Sim, por incrível que pareça, esses lugares inóspitos para os seres humanos também guardam um verdadeiro tesouro de vida que, aos poucos, vai sendo revelado. Na medida em que as tecnologias avançam, é possível mergulhar mais fundo nas fossas submarinas, ambientes extremos por conta da enorme pressão exercida sobre os seres e objetos (um exemplo: no fundo das Fossas Marianas, a 11 km de profundidade, a pressão é 1.100 vezes maior que no nível do mar!).
Pois foi em um desses abismos – a Fossa de Atacama, localizada entre o Peru e o Chile, a 7 km de profundidade – que em 2022 os cientistas descobriram uma nova espécie, batizada de “peixe-caracol azul do Atacama” (ou, no registro científico, Paraliparis selti).
Peixe-caracol-azul-do-Atacama. Foto: American Association for the Advancement of Science (AAAS).
O pequeno peixe, de pouco menos de um centímetro, é parente de outros peixes caracóis comuns nas águas rasas da região. Contudo, a espécie evoluiu e se desenvolveu nas profundezas, um ambiente inviável para quase todas as espécies que vivem no planeta. Basta pensar que, para chegar lá, os seres humanos usam robôs blindados ou, então, sinos de mergulho poderosíssimos, capazes de resistir à pressão intensa.
Mas, como ele consegue? A resposta está na adaptação e na evolução, que fez com que seu corpo se tornasse gelatinoso e resistente à pressão brutal; além disto, ele não possui bexiga natatória, órgão comum aos peixes (ele regula a profundidade), mas que, em um contexto abissal, é totalmente inútil.
Além dos peixes-caracóis do Atacama, espécies como o polvo-dumbo (do gênero Grimpoteuthis) ou os vermes de Pompeia (Alvinella pompejana), que sobrevivem perto de fontes marinhas hidrotermais superquentes, mostram como a vida se adapta a ambientes inóspitos.
🌊 Dois exemplos, grandes lições
As espécies que citamos – apenas duas, entre dezenas descobertas e classificadas a cada mês – reservam algumas lições. A primeira é a percepção de que o oceano não é, apenas, um grande bioma; ele, na verdade, forma um universo riquíssimo, de semelhanças e diferenças significativas, dadas pela profundidade e por muitos outros fatores.
A segunda lição é a de que as novas espécies são promissoras em termos de conhecimento sobre a vida e, também, sobre caminhos para a própria ciência. Imagine, por exemplo, o que os peixes caracóis azuis do Atacama podem nos revelar sobre materiais resistentes a grandes pressões.
Por fim, mas não menos importante: as novas descobertas nos lembram de nossa própria responsabilidade em relação aos oceanos e a toda a vida. Estamos, enfim, diante de uma teia extraordinária (da qual fazemos parte), antiga, poderosa e resiliente, mas, ao mesmo tempo, muito frágil.
🌊 As novas tecnologias nos oceanos
Grandes desafios implicam grandes soluções, que implicam estudo e conexões entre conhecimentos e tecnologias já existentes. Pois é exatamente esse o caminho das novas tecnologias que estão ajudando a revelar mais e mais sobre os oceanos. Uma fronteira que, como já afirmamos, é enorme, complexa e, muitas vezes, de difícil acesso. Mas que, aos poucos, vai sendo cartografada e analisada em diferentes aspectos – geográficos, biológicos, fisioquímicos, geológicos, meteorológicos etc.
Tomemos como exemplo desse avanço duas tecnologias recentes, começando pela dos robôs submarinos de última geração, os chamados AUVs, que mapeiam o fundo dos oceanos com ajuda da inteligência artificial. Um exemplo emblemático é o do veículo de operação remota ROV SuBastian, do Schmidt Ocean Institute (dos Estados Unidos), capaz de mergulhar a 4.500 metros levando equipamentos de pesquisa.
Crédito: Schmidt Ocean Institute.
Em suas jornadas, até o momento esse “robô marinho” (e outros equipamentos do Instituto) descobriu nada menos do que 20 espécies. Eles também podem encontrar naufrágios, mapear depósitos de minerais de interesse comercial no leito marinho e mensurar áreas oceânicas em risco (como certas zonas de corais).
A segunda tecnologia de alto impacto vem das alturas: falamos do SWOT (Surface Water and Ocean Topography – Topografia da Água Superficial e do Oceano), missão de satélite lançada em 2022 pela Agência Espacial dos Estados Unidos (NASA) e pela Agência Espacial Francesa (CNES).
Sua meta é “olhar” para os cursos de água (rios, que são tributários dos mares) e estabelecer o nível exato dos oceanos; e, de quebra, conhecer a fundo o ciclo da água e mapear as correntes marítimas. Com isso, em breve será possível construir modelos climáticos ainda mais precisos, que auxiliem a humanidade a responder melhor à crise climática, e promover rotas de navegação mais sustentáveis.
🌊 A humanidade no centro do problema
O desenvolvimento tecnológico trouxe uma sobrecarga aos oceanos, como a provocada pelos transportes oceânicos. Foto: Getty Images.
Nos últimos séculos, em especial a partir da Revolução Industrial, a humanidade passou a exercer uma pressão enorme sobre os oceanos, com consequências como o desaparecimento de espécies (o exemplo mais conhecido é o das baleias, que tiveram 4 espécies extintas ou levadas a um declínio irreversível pela caça), a ruptura de cadeias alimentares (pela sobrepesca e pela pesca de arrasto), o surgimento de “ilhas de plástico” provocadas pelo acúmulo de detritos (que já cobrem uma área de 1,6 milhão de km² – mil vezes a área da cidade de São Paulo!) e, mais recentemente, o aquecimento e a elevação do nível das águas oceânicas (atualmente, em 4,5 mm ao ano) em virtude do efeito estufa.
🌊 O que pode vir por aí
Os cientistas, é claro, conhecem a maior parte das causas e podem testemunhar e antecipar muitos de seus efeitos. Um deles, sistêmico e muito poderoso, é justamente o associado à relação entre os oceanos e o efeito estufa.
O “aprisionamento” do calor na superfície terrestre já está provocando consequências como o derretimento de geleiras e a redução da salinidade das águas, que desregula o mecanismo das correntes oceânicas, que são dependentes da diferença de densidade entre água salgada e doce. Com menor salinidade, a água doce não afunda, enfraquecendo ou até paralisando a circulação do oceano.
No caso específico do Atlântico Norte, os cientistas perceberam que, desde os anos 1950, a Circulação de Revolvimento Meridional do Atlântico (AMOC), que inclui a Corrente do Golfo, perdeu 15% de sua força, e que pode estar perto de um ponto de virada. Se essa circulação acabar, as consequências serão dramáticas em relação ao clima da Europa Ocidental, que é mais ameno graças às correntes oceânicas quentes. Ele passaria a ser muito mais frio, afetando todas as formas de vida na região.
🌊 O conhecimento como caminho para salvar os oceanos
É complexo e mesmo trágico perceber que a ciência e a tecnologia, responsáveis pelos maiores avanços da humanidade, tenham sido as mesmas que aceleraram o colapso dos oceanos e dos ecossistemas. Nessa mesma fonte, porém, está a chave para a reversão – desde que aplicada com urgência, ética e um compromisso inadiável com o futuro da vida marinha.
Nas últimas décadas, por exemplo, uma moratória internacional à caça da baleia fez com que muitas espécies de cetáceos começassem a recuperar suas populações. Para isso, porém, foi necessário chegar a um consenso político construído graças aos aportes de conhecimentos científicos e à pressão de uma sociedade sensibilizada para o problema. As pessoas, enfim, perceberam que a caça às baleias trazia mais prejuízos do que benefícios – e decidiram agir, cobrando ações de seus representantes.
Baleia-corcunda fotografada em Vitória, Espírito Santo. Foto: Getty Images.
A mesma intencionalidade pela mudança, a mesma pressão política, é essencial para ir além do salvamento das baleias. É preciso, também, pensar em termos de consumo mais racional (de alimentos, roupas, tecnologias), de apoio às energias renováveis, de redução do uso de combustíveis fósseis e de eliminação de desperdícios. De fortalecimento, enfim, de uma consciência ambiental que cresce na sociedade a partir do conhecimento.
🌊 Para ir mais longe
Alguns links interessantes sobre o tema dos oceanos:
🌊 Década da Ciência Oceânica (ONU)
Iniciativa global da ONU para promover a pesquisa e a proteção dos oceanos.
Vamos fazer um exercício de imaginação: você está prestes a vestir uma armadura. Pode até pensar naqueles torneios da Idade Média ou, então, em samurais ou soldados romanos marchando com suas couraças e elmos. Acontece que o que você vai vestir não é bem uma armadura… mas um exoesqueleto! Isso mesmo: um “esqueleto de fora para dentro”, se vale a brincadeira, com características e aplicações que já estão revolucionando os campos da indústria, da medicina e até das guerras. E é sobre esse fantástico avanço científico que nós vamos conversar nesta edição de #FuturoPresente. Venha com a gente!
No início, eram as armaduras
Fonte: Getty Images.
No parágrafo anterior, associamos armaduras a exoesqueletos. Mas, fora o “jeitão”, no que elas se assemelham? Boa pergunta! Armaduras e exoesqueletos partem de um mesmo princípio: ambos são wearable tech, tecnologia vestível, e buscam modificar uma ou mais características de quem os porta.
No caso da armadura, a mudança busca proteger o corpo do usuário contra pancadas, golpes de lâmina e perfurações. No caso do exoesqueleto, as possibilidades vão além. Ele pode proteger o corpo, aumentar a força física, recuperar e reabilitar movimentos ou amplificar os sentidos físicos do usuário. Ou seja: há semelhanças importantes, mas os exoesqueletos “navegam por mares mais distantes” – eles são mais sutis e complexos, e podem interagir profundamente com o corpo e o cérebro de seu portador.
Mas, afinal, por que “exoesqueleto”?
A palavra “exoesqueleto” é uma velha conhecida dos biólogos. Ela surge da soma entre o prefixo grego “exo”, que significa “fora” ou “externo”, e a palavra “esqueleto”, também de origem grega, que indica a estrutura óssea de sustentação nos indivíduos de muitas espécies. Neles, o esqueleto está situado “dentro”, e os órgãos e músculos se constroem, via de regra, “ao redor”, especialmente da coluna vertebral. Duas exceções são as costelas e o crânio, que se sobrepõem aos órgãos internos (pulmões e coração, cérebro), protegendo-os.
Fonte: Getty Images.
No caso do exoesqueleto, a estrutura de sustentação está fora e as partes moles estão dentro – e ficam especialmente protegidas. Isso faz com que os espécimes dotados dessa estrutura sejam naturalmente blindados. E quem são esses espécimes?
Se você pensou em formigas, besouros, baratas, aranhas, escorpiões, caranguejos, lagostas e siris, pensou certo! Os exoesqueletos são comuns entre os artrópodes, animais invertebrados que possuem um exoesqueleto rígido, corpo segmentado e apêndices – como pernas e antenas – articulados. Vale observar que esses “bichos” não são exceção. Eles formam o maior filo do reino animal, com mais de um milhão de espécies descritas – cerca de 80% de todos os animais conhecidos!
Fora isso, é importante observar – falando rapidamente – que esqueletos e exoesqueletos têm diferenças marcantes em relação à composição e à biologia: enquanto os ossos são estruturas vivas (com células e vasos sanguíneos), os exoesqueletos são formados por tecidos inertes (construído com substâncias como a queratina); enquanto os ossos crescem junto com o indivíduo até a idade adulta (e seus tecidos se renovam de forma permanente), os exoesqueletos são trocados de forma periódica, literalmente descartados (a chamada ecdise) para acompanhar o crescimento de seu portador.
Uma comparação interessante
Fonte: Getty Images.
Essa diferença entre ossos e carapaças, tecido vivo e tecido inerte, talvez possa ilustrar bem uma diferença essencial entre armaduras e exoesqueletos de alta tecnologia. Enquanto as armaduras são “inertes” – isto é, elas se restringem a proteger o corpo –, os exoesqueletos são “vivos”, ou seja, eles interagem com seu portador para aumentar capacidades e oferecer um suporte vital altamente diferenciado. Para isso, integram várias tecnologias – mecânica, eletrônica, de materiais e biomateriais, médica… – e alcançam resultados fantásticos. Que vamos conhecer daqui a pouco!
Antes de vestir o “exo”…
Fonte: Wikimedia Commons.
Exoesqueletos de alta tecnologia são instrumentos fascinantes. Mas, por que eles nos fascinam? E como, na verdade, ficamos sabendo a respeito deles, uma vez que – ao menos, até o momento – ainda não são produzidos em grande quantidade?
A resposta pode estar na cultura, mais exatamente nos quadrinhos e no cinema, com seus super-heróis, vilões, uniformes extraordinários e, é claro, super-poderes. Como, por exemplo, os garantidos pelas armaduras exoesqueléticas usadas por Tony Stark como “Homem de Ferro” ou pelo “P-5000 Powered Work Loader”, exoesqueleto de carga vestido pela personagem Ellen Ripley em “Aliens: o Resgate”, filme de 1986 (curiosidade: esse exoesqueleto foi inspirado em protótipos criados pela empresa GE nos anos 1960).
Ambas peças cumprem funções totalmente previstas pelos cientistas para a nova tecnologia. E, de quebra, ainda alimentam o sonho ancestral humano de ter poderes que os coloquem no topo da natureza (algo que se relaciona aos mitos e aos deuses). O resultado: sucesso no imaginário – e inspiração para a ciência!
Mas, quando surgiram os exoesqueletos modernos?
As armaduras, como já vimos, são “antepassados” dos exoesqueletos baseados em tecnologia. Olhando para a história desses equipamentos, porém, percebemos que eles estão muito mais próximos do que poderíamos imaginar. Eles podem não ter as mesmas funções, mas nasceram em contextos semelhantes: a guerra e a necessidade de aumentar o desempenho humano.
Fonte: Wikimidia Commons
Isso porque os primeiros exoesqueletos, que surgiram há cerca de setenta anos, foram criados nos Estados Unidos para atender a uma necessidade das forças armadas – exatamente como acontecia por milênios com as armaduras, inventadas para proteger seus portadores, os guerreiros.
Pense, por exemplo, na necessidade que os militares têm de transportar grandes cargas, de munições a peças de reposição, ou de cavar trincheiras rapidamente. Esse era o objetivo do Hardiman, exoesqueleto motorizado de braços e pernas vestíveis desenvolvido pela General Electric (GE) em parceria com o Exército dos EUA (imagem ao lado). O nome Hardiman é o acrônimo de “Human Augmentation Research and Development Investigation” (HARDI) + “MANipulator” (MAN), expressão que pode ser traduzida como “Investigação para pesquisa e desenvolvimento do aumento da capacidade de manipulação humana”.
O criador do projeto, o engenheiro Ralph Mosher, buscou produzir um aparato capaz de multiplicar a força humana. A ideia era a de que, ao vesti-lo, a pessoa pudesse levantar facilmente cargas de 1500 libras (cerca de 680 kg), sem qualquer esforço muscular maior que o associado aos movimentos normais de braços e pernas.
O projeto era visualmente fascinante. Na época, porém, não havia tecnologia capaz de garantir sua estabilidade, por exemplo, por meio de sensores eletrônicos. A máquina era pesadíssima, dava trancos perigosos e apenas uma de suas partes, um braço mecânico colossal, funcionava, e ainda por cima de forma limitada. Resultado: não chegou a ser testada por seres humanos diretamente e acabou arquivada – mas, definitivamente, abriu uma porta para outras tentativas.
O ponto de virada
Os anos 1990 foram marcados pela chegada de tecnologias altamente impactantes. Foi o tempo de popularização dos computadores pessoais, de grandes avanços na microeletrônica, da chegada da internet às casas das pessoas, de novos materiais (como ligas especiais e cerâmicos) e de avanços na área de automação industrial. Um conjunto de soluções que, muito provavelmente, “daria conta” de todos os problemas percebidos no projeto Hardiman. Ele, porém, não voltou à cena.
Fonte: Getty Images.
Para o universo dos exoesqueletos, o período marcou um aporte tecnológico essencial: sensores digitais biométricos, giroscópios, estruturas mais leves e motores elétricos mais compactos e eficientes. Os aparatos “brutamontes”, enfim, saíam de cena para dar lugar a equipamentos elegantes e “cirúrgicos” em termos de desempenho. As possibilidades eram muitas! Foi nessa época que o foco das pesquisas foi dividido em três grandes áreas: militar, médica (de reabilitação) e industrial.
Chegamos, então, ao nosso tempo e aos “exos” que estão saindo dos laboratórios para dar suporte à vida real. Vamos conhecê-los!
Os exoesqueletos da nossa época
Hoje em dia, o “sonho de superpoderes” prometido pelos exoesqueletos está cada vez mais próximo. Esses aparatos ainda não chegaram ao cotidiano da maioria das pessoas, o que pode estar relacionado ao seu alto custo e, também, às suas finalidades muito específicas. Sem contar o fato de que, até o momento (a não ser, nos filmes e na literatura), eles não encontram finalidades estéticas ou recreativas.
Para os fins a que se destinam, porém, os novos “exos” – que contam com aportes tecnológicos recentes, como os da IA – se mostram transformadores. Como no caso da medicina de reabilitação, em que exoesqueletos de empresas como ReWalk e Ekso Bionics estão devolvendo a mobilidade a pessoas afetadas por lesões medulares.
Fonte: Wikimedia Commons.
Nesse campo, aliás, um brasileiro possui grande destaque: é Miguel Nicolelis (foto ao lado), médico e neurocientista brasileiro que lidera um time de pesquisadores na Universidade Duke, nos Estados Unidos. Em 2014, na abertura da Copa do Mundo do Brasil, ele apresentou um exoesqueleto cujos movimentos eram comandados diretamente pelo cérebro do usuário – no caso, Juliano Pinto, um paraplégico do tronco e dos membros inferiores que chutou uma bola.
No campo da indústria, exoesqueletos vêm sendo utilizados especialmente no suporte físico de operários, em plantas como as da Huyndai (Coreia) e Panasonic (Japão). Com os equipamentos – que, externamente, se assemelham em certa medida aos “exos” de reabilitação –, esses funcionários podem levantar cargas mais pesadas e se manter por mais tempo em posições que, normalmente, exigiriam um esforço físico muito maior.
Por fim, mas não menos importantes, são os exoesqueletos de aplicação militar, que, aos poucos, também começam a “dar as caras” nos quartéis. Não pense, porém (pelo menos, ainda), em equipamentos como o do Homem de Ferro, com capacidade de voo e armas integradas. Na verdade, eles se assemelham muito aos exoesqueletos de uso industrial. Sua meta é resolver um dos problemas mais antigos do universo militar: o da capacidade individual, de cada soldado, de transportar peso por longas distâncias sem se cansar. Nessa área, o principal projeto em andamento é o Human Universal Load Carrier (Transportador Humano Universal de Cargas), HULC, desenvolvido pela Lockheed Martin nos Estados Unidos.
E o que vem por aí…
Exoesqueleto: representação artística feita por IA. Geração: Freepik.
É bem possível que, em algumas décadas, este artigo seja lido como uma curiosidade de um tempo antigo. Afinal, com os avanços tecnológicos que estamos vendo, é provável que os exoesqueletos acabem “mergulhando” em suas três áreas de desenvolvimento: teremos mais pessoas reabilitadas (e reabilitações mais sofisticadas), trabalhadores mais confortáveis em suas árduas missões e soldados marchando por mais tempo com mochilas super-pesadas.
É possível, também, que aplicações “exo” estejam disponíveis em trajes do cotidiano, funcionando como interfaces entre o corpo humano e outras máquinas. E, quem sabe, no espaço sideral, garantindo suporte à vida e força em ambientes hostis e de muita ou pouca ação gravitacional.
E isso só será possível graças a avanços em áreas que já apontamos, como a dos materiais, que deverão ser cada vez mais leves e flexíveis – muito mais “vestíveis”, enfim. E das neurociências, que devem garantir avanços acelerados na conexão entre o cérebro e as máquinas. Nesse caso, aliás, o tema chega quase a ser outro: saem os exoesqueletos, entram os biônicos! Essa, porém, é outra história…
Para ir mais longe…
Uma seleção de links interessantes sobre exoesqueletos e suas aplicações:
ReWalk Robotics – Fabricante de exoesqueletos para pessoas com lesões medulares. 🌐 https://rewalk.com/
Ekso Bionics – Desenvolve exoesqueletos para reabilitação e uso industrial. 🌐 https://eksobionics.com/
Miguel Nicolelis (Nicolelis Lab – Duke University) – Laboratório do neurocientista brasileiro Miguel Nicolelis. 🌐 https://www.nicolelislab.net/
Portal G1 – “Pesquisadores brasileiros avançam nos estudos sobre uso de exoesqueletos e IA na reabilitação física e neurológica”
Nos últimos anos, redes de ensino de todo o mundo vêm investindo na avaliação diagnóstica da aprendizagem. No Brasil, ela é recomendada pelos principais documentos da educação – está prevista, por exemplo, na Lei de Diretrizes e Bases da Educação (LDB, Lei 9.394/96) e na Base Nacional Comum Curricular (BNCC), e é apresentada como estratégica para o desenvolvimento da aprendizagem. Em 2024, também foi apontada como ponto de partida para a recomposição das aprendizagens – uma medida essencial no período pós-pandemia, quando os relatórios de distorção ano/série do Censo Escolar apontaram graves problemas.
Por meio do Programa inDICA de Gestão da Educação, a Editora Opet oferece avaliação diagnóstica que já beneficiou mais de 60 mil estudantes da Educação Básica nas redes pública e privada. E, mais do que isso: com o inDICA, a Editora participa diretamente de um processo vital para o sucesso da aprendizagem – o de institucionalização da avaliação diagnóstica, de sua incorporação à cultura educacional.
O grande passo
Silneia Chiquetto
“Eu diria que esse é o grande passo da avaliação diagnóstica”, avalia a coordenadora do Programa inDICA, Silneia Chiquetto (foto). “E ele acontece quando a comunidade escolar – gestores, professores, estudantes e suas famílias – passam a ver a avaliação como algo tão essencial quanto as aulas e as formações pedagógicas. ”
Silneia cita como exemplo dessa evolução o município catarinense de Curitibanos, que há 3 anos iniciou um processo de avaliação diagnóstica da aprendizagem com o inDICA.
“O trabalho é exemplar. Em Curitibanos, a avaliação deixou de ser uma ação acessória e foi 100% incorporada pela comunidade escolar, o que é algo excepcional quando o foco são os resultados de aprendizagem. Esse é o caminho”, avalia Silneia.
Uma política fundamental
Patrícia Maciel Bastos
A diretora de ensino de Curitibanos, professora Patrícia Maciel Bastos (foto), concorda integralmente com essa afirmação. “Exatamente! Curitibanos assumiu a avaliação interna diagnóstica como uma política educacional fundamental. Essa institucionalização demonstra nosso compromisso com a melhoria contínua da educação no município. Incorporar essa prática ao nosso cotidiano escolar permite que tenhamos um olhar mais atento sobre as necessidades dos alunos e possibilita intervenções mais certas”, avalia.
Preparação e ação
Um indício dessa institucionalização pode ser percebido na organização do município para a realização das provas e a gestão das informações. Um exemplo: profissionais da própria secretaria e dos núcleos municipais de ensino participam de uma comissão especialmente criada para a aplicação das provas nos 2º, 5º e 9º anos – considerados críticos em relação aos dados avaliativos.
“São cerca de 20 pessoas que receberam formação específica para garantir que a aplicação das provas ocorra de maneira padronizada e justa. Além disso, foram estabelecidos critérios e parâmetros claros para a aplicação das avaliações, assegurando que todos os alunos tenham as mesmas condições durante o processo”, explica Patrícia.
Outro indício surge em algo que, em princípio, pode parecer “menor”, mas que é extremamente relevante quando se fala em precisão dos dados avaliativos: o acolhimento dos estudantes durante a etapa de prova.
“A avaliação, pelo próprio ritual que envolve, pelo processo, pode ser um momento de tensão para os estudantes. Afinal, eles sabem que estão sendo avaliados. Então, tornar esse processo mais amigável reduz o estresse e, consequentemente, permite respostas mais próximas do nível real de aprendizagem”, explica Silneia.
“O acolhimento das crianças e estudantes é uma prioridade para nós em Curitibanos. Criamos um ambiente acolhedor e amigável, onde os alunos se sentem seguros para realizar as avaliações. Também informamos os pais para que eles também assumam o compromisso junto conosco, e entendam a importância da ação”, conta Patrícia.
E as unidades escolares podem decidir as próprias estratégias de acolhimento. “Cada uma definiu a própria estratégia, como, por exemplo, a entrega de um mimo – um docinho ou um adesivo, por exemplo – para todos os estudantes. E o impacto é muito positivo! Os estudantes se sentem mais motivados, o que se reflete diretamente em seu desempenho nas avaliações.”
Avaliação pedagógica é cultura educacional
Andressa Boscari de Farias
“Hoje, a avaliação pedagógica é parte da nossa cultura educacional. É uma mudança que se reflete na maneira como as escolas e os educadores abordam o processo de ensino-aprendizagem”, avalia a secretária municipal de Educação de Curitibanos, Andressa Boscari de Farias (foto). Segundo ela, os profissionais da educação incorporaram a avaliação como uma ferramenta essencial para entender melhor as necessidades de seus alunos. “Essa prática não é mais vista como uma obrigação, mas sim como uma oportunidade de aprimorar a qualidade do ensino”, observa.
A secretária destaca que esse processo passa por um reforço da importância da avaliação nas reuniões pedagógicas e formações continuadas. Os professores são incentivados a utilizá-la para medir resultados e para promover melhorias contínuas nas práticas educativas. “Podemos afirmar que a avaliação diagnóstica se tornou um componente vital na cultura educacional de Curitibanos”.
Aplicação e engajamento
No início de maio, a rede municipal de ensino de Curitibanos a primeira etapa de avaliações diagnósticas de 2025, que envolveu 2.200 estudantes do 1º ao 9º ano do Ensino Fundamental. Um processo fortalecido pelo planejamento e pela própria incorporação das avaliações como elemento educacional chave.
“Avaliando o andamento do processo, posso dizer que foi muito satisfatório. Observamos um excelente envolvimento de todos e um clima positivo nos núcleos durante as avaliações. E esperamos ansiosos pelos resultados, para alinhar ainda mais estratégias de alcance da aprendizagem com que tanto sonhamos”, observa Patrícia.
Uma avaliação da avaliação
“Como diretora de ensino, posso afirmar que os avanços na aprendizagem são notáveis. Desde o início da parceria com o inDICA, temos observado um aumento significativo no engajamento dos alunos e, consequentemente, na aprendizagem. A avaliação diagnóstica nos permite identificar as áreas que precisamos de mais atenção. Assim, podemos implementar estratégias específicas para atender essas demandas.”
O futuro da energia reside no plasma da fusão nuclear? Vamos descobrir. Fonte: Getty Images.
Você já parou para se dar conta de o quanto a sua vida está relacionada com a energia? Para ler este artigo, por exemplo, você acessou um smartphone, smart tv ou computador que é alimentado eletricamente. Além disso, só pôde acionar o equipamento porque seu corpo, do cérebro às pontas dos dedos, possui energia suficiente para isto. Em outras palavras: você e o mundo são movidos pela energia… e são totalmente dependentes dela!
Energia: transformação, troca, custo
Acontece, porém, que não há energia de graça. Sendo mais precisos, podemos dizer que toda energia implica uma transformação, uma troca, um custo. Um processo que normalmente gera resíduos, do dióxido de carbono emitido pelo automóvel à casca que sobra de uma banana comida em nome do sabor e da força necessária para seguir trabalhando ou estudando.
Essa, aliás, é uma das grandes questões do nosso tempo: nos últimos três séculos, desde o início da Revolução Industrial, produzimos quantidades enormes de energia, com um custo que se faz cada vez mais visível em termos ambientais. E hoje, no ano de 2025, cerca de 80% da energia primária consumida no planeta vêm de fontes fósseis (petróleo, carvão e gás), que deixam pegadas muito pesadas na natureza – elas respondem por 75% das emissões de CO2 no planeta!
A busca pelo Graal da energia
Chegamos, então, a um dos grandes desafios da ciência: o de acessar fontes de energia baratas, abundantes e limpas (ou mais limpas que as disponíveis). Será que a fusão nuclear é a resposta? Nesta edição de #FuturoPresente, exploramos essa promessa que pode saltar dos laboratórios para a realidade em breve – e revolucionar nossa relação com o planeta.
Quebrar átomos, fundir átomos: a jornada para dominar a energia nuclear
Como a humanidade chegou a dominar a energia contida nos átomos? Esta história começa muito antes dos laboratórios modernos – na verdade, ela nasce da curiosidade filosófica. Imagine um pensador antigo se perguntando: “Se eu partir esta pedra em pedaços cada vez menores, em que momento ela deixará de ser pedra?”.
Esta “imaginação atômica” – a concepção de que toda matéria é composta por partículas minúsculas – remonta a 2.500 anos no passado, desenvolvida simultaneamente por filósofos gregos como Demócrito e por pensadores indianos. Porém, foi somente no início do século XX que essas especulações – fortemente desenvolvidas a partir do século XVIII – ganharam forma concreta, quando cientistas finalmente demonstraram como manipular os próprios blocos fundamentais da matéria.
Estátua de Demócrito encontrada em Herculano, Itália. Fonte: Wikipedia.
Foi nesse contexto revolucionário que passamos a compreender mais plenamente a relação íntima entre matéria e energia – e como explorá-la. Dois caminhos distintos emergiram:
Fissão Nuclear: Descoberta acidentalmente em 1938 por Otto Hahn, Fritz Strassmann e Lise Meitner, ocorre quando o núcleo de átomos pesados (como urânio ou plutônio) se divide após absorver um nêutron, liberando energia imensa e nêutrons adicionais que perpetuam a reação.
Otto Hahn, Fritz Strassmann e Lise Meitner, os mestres da fissão nuclear. Fonte: Wikipedia
Fusão Nuclear: Explicada por Hans Bethe em 1939, é o processo que alimenta as estrelas – átomos leves de hidrogênio se fundem sob calor e pressão extremos, formando átomos de hélio e liberando quantidades colossais de energia, sem subprodutos radioativos significativos.
Hans Bethe, prêmio Nobel de 1967. Fonte: Wikipedia.
Fissão nuclear: vantagens e riscos
Testada empiricamente da forma mais dramática – com o Projeto Manhattan, que produziu as bombas nucleares lançadas sobre o Japão –, a fissão nuclear entrou na matriz energética de muitos países a partir da segunda metade do século XX. Em 2024, segundo dados da Agência Internacional de Energia Atômica (AIEA), havia 412 reatores nucleares em 32 países.
Se, por um lado, a fissão é uma fonte interessante – o parque nuclear atual implica uma redução de 2 bilhões de toneladas por ano de CO2 na atmosfera, a mesma quantidade produzida por uma frota de 400 milhões de automóveis –, por outro provoca grandes preocupações por gerar resíduos radioativos de alta atividade, que permanecem perigosos por milênios.
Além dos resíduos, acidentes como os registrados em Chernobyl (1986) e Fukushima (2011) deixaram um legado trágico e ilustraram poderosamente a discussão sobre os riscos humanos e ambientais ligados à fissão nuclear. Há vantagens inquestionáveis… e riscos associados também!
Técnico da Agência Atômica Internacional examina área próxima ao acidente nuclear do reator de Fukushima. Fonte: Wikipedia.
Apesar desses riscos, a energia nuclear causa menos mortes por TWh (Tera Watt-hora) gerado que fontes não radioativas como o carvão. Além disso, a próxima geração de reatores nucleares, os chamados SMRs, promete tornar essa energia ainda mais segura e limpa.
Agora, e se essa fonte energética, também baseada nos átomos, não gerar resíduos radioativos? E se ela tomar como referência, como matéria-prima, o elemento mais comum em todo o universo, o Hidrogênio?
Chegamos ao sonho da fusão nuclear, que, como alertou Hans Bethe, nos é demonstrada diariamente. Onde? No sol!
O “Graal” da fusão
Leia estes números e reflita: 1 kg de urânio fissionado em um reator nuclear ao longo de certo período de tempo libera energia equivalente à queima de 3 milhões de quilos de carvão. Nossa, isso é sensacional! Ao mesmo tempo, 1 kg de hidrogênio (deutério-trítio) fusionado é capaz – ao menos, em teoria – de gerar quatro vezes mais energia, o equivalente à queima de 12 milhões de quilos de carvão (uma pilha do tamanho do Pão de Açúcar!). E por um preço sensivelmente menor. Muito melhor!
Sim! Não fosse por um único detalhe: até o momento, a fusão nuclear ainda não “decolou”, e o investimento energético necessário para a produção de energia é maior que a energia gerada. Em outras palavras: a conta “ainda não fecha”.
Mas, estudos e projetos em andamento afirmam que, em algum tempo, teremos progressos importantes. E mais: focando no chamado “hidrogênio verde”, seria possível eliminar as emissões de CO2. É o que vamos saber na sequência.
Usina Termoelétrica a carvão do tipo “brown coal”, o mais poluente dos carvões minerais. Fonte: Getty Images.
Para a conta fechar… e gerar lucros
Os cientistas sabem muito sobre a fusão nuclear. No entanto, apenas agora eles estão começando a dar os primeiros passos mais firmes no sentido de gerar energia por meio da fusão.
Mas, qual é a maior dificuldade? Imagine, para começar, que para a fusão é preciso reproduzir o que acontece no núcleo do Sol. Em termos mais poéticos, os cientistas devem ser capazes de “criar um pequeno sol” e controlá-lo. Mas, como eles fazem isso?
A principal tecnologia atual é a dos chamados “tokamaks”, super-reatores em forma de anel, dotados de imãs gigantes para “domar” o plasma gerado na operação. No interior dos reatores, gases como o hidrogênio (na forma de tritônio – H3) são aquecidos a milhões de graus Celsius e se tornam plasma. Com a pressão e o calor monumentais – dignos do núcleo do Sol – os núcleos dos átomos do gás se fundem, liberando energia.
Representação artística de um tokamak. A parte brilhante, interna, representa o plasma circulando dentro do anel de imãs. Fonte: Getty Images.
O caminho está dado, mas há desafios poderosos. O primeiro é o da temperatura necessária para a fusão, de milhões de graus Celsius (maior que a temperatura do núcleo solar, que é de 15 milhões de graus Celsius). Em todos os testes feitos até agora, essa temperatura e a energia investida para alcançá-la têm sido maiores do que as geradas pelo processo de fusão, o que inviabiliza a operação.
O segundo desafio, ligado ao primeiro, se refere ao controle do plasma dentro dos tokamaks. O plasma, considerado o quarto estado da matéria, é formado quando um gás é aquecido a temperaturas muito altas ou submetido a fortes descargas elétricas, fazendo com que os átomos percam elétrons e se tornem íons. Sem controle, o plasma envolvido no processo pode fazer a reação perder temperatura, inviabilizando o ganho de energia na fusão e danificando equipamentos que são caríssimos.
Afinal, a fusão nuclear é um “beco sem saída”?
Não! Apesar das dificuldades monumentais – até agora, nenhum dos experimentos de geração de plasma produziu mais energia do que consumiu –, os cientistas acreditam que, até 2035, esteja em funcionamento o primeiro reator de fusão nuclear realmente eficiente.
Estamos falando do ITER (sigla em inglês para Reator Termonuclear Experimental Internacional), em construção no sul da França, que promete gerar dez vezes mais energia do que consome.
É um projeto internacional que envolve a participação de 35 países – os 27 membros da União Europeia, Reino Unido, Suíça, China, Índia, Rússia, Coreia do Sul, Japão e Estados Unidos – e que tem um custo de US$ 40 bilhões. O Brasil não é parceiro do projeto, mas participa indiretamente por meio de pesquisadores associados de áreas como as de Física e materiais.
Para começar, o raio do reator, que é de 6,2 metros – duas vezes o tamanho do maior tokamak atual, o Jet, localizado na Inglaterra. Ele também é capaz de gerar uma temperatura de 150 milhões de graus Celsius – dez vezes maior que a temperatura do sol.
A meta do ITER é produzir 500 MW de energia de fusão com uma carga de acionamento de apenas 50 MW – um ganho de 10x. Para chegar lá, os pesquisadores estão utilizando novas tecnologias, como a de imãs supercondutores de nióbio-estanho resfriados a -269°C que são extremamente poderosos. Além disso, vão utilizar uma tecnologia diferenciada – a dos chamados “divertores de tungstênio” para extrair calor e impurezas do plasma. E também querem fazer com que o tritônio seja produzido dentro do próprio reator a partir de átomos de lítio.
O resultado? Muita energia – capaz de alimentar redes elétricas –, de baixo custo e com uma pegada ambiental muito pequena (e riscos associados baixíssimos), capaz de saldar os investimentos no projeto em muito pouco tempo. E, é claro, iniciar – literalmente – uma nova era na civilização!
O famoso “bilete” do menino Gabriel Lucca, que acabou virando meme. Fonte: Wikipedia.
“É verdade esse bilete [sic]”. Muitos brasileiros conhecem e até utilizam essa frase de vez em quando. Ela foi criada pelo menino Gabriel Lucca, que, aos cinco anos, em 2018, tentou enganar a mãe escrevendo um bilhete em que se passava pela própria professora. A mensagem dizia o seguinte – “Senhores Paes [sic]: amanhã não vai ter aula porque pode ser feriado. Assinado: Tia Paulinha” –, sendo complementada com a frase que abre este parágrafo. A história, que aconteceu na cidade paulista de Bocaina, acabou se transformando em um meme de enorme repercussão para indicar, de forma engraçada, situações em que a mentira contada é tão evidente – ou tão inocente –, que acaba despertando o riso ou a ironia.
Uma mentirinha assim, ao mesmo tempo tão engenhosa e ingênua – tão simpática, na verdade – não deixa de ser um símbolo de algo muito presente em todas as sociedades do mundo. A mentira!
Nem todas as mentiras, evidentemente, são tão inofensivas ou engraçadas quanto a contada por Gabriel. Muitas são perigosas e têm consequências sérias – como, por exemplo, as Fake News, que devem ser combatidas com conhecimento e educação midiática; outras, ainda, destroem a reputação de quem é o objeto da história falsa; e há, também, aquelas associadas ao bullying. Um caso sério!
O Dia da Mentira
A relação é tão profunda que uma parte do mundo chegou até mesmo a criar e cultivar um dia dedicado à mentira, o 1º de abril. Vale observar que não é um dia de mentiras maldosas ou perigosas, mas, sim, de brincadeiras com amigos (sem maldade ou humilhação), algo que traz um pouco da ideia de inversão que inspira o carnaval.
Mas, você sabe como começou essa história? É o que vamos descobrir. E pode confiar “que é verdade este bilhete”!
Mudou o Calendário… mentira!
O dia é da Mentira, mas, em algumas regiões do mundo, também é chamado de Dia dos Tolos, dos Bobos ou dos Enganos, e, também, de “Peixe de Abril” (na Itália e na França – em breve, vamos descobrir por quê). E, ao contrário do que poderíamos pensar vivendo em um mundo repleto de memes, truques e tentativas de engano, ele não é recente. Não, mesmo! Quem estuda o tema afirma que a tradição de um “Dia da Mentira” tem mais de 500 anos – ou seja, é quase tão antiga quanto o Brasil!
“Buon Pesce D’Aprile!” (“Feliz Peixe de Abril!”). O Dia da Mentira é uma tradição que nasceu na Europa do século XVI. Fonte: Getty Images.
Mas, como começou?
A culpa seria da Igreja, de um calendário e de um rei francês. E de um bando de gente que começou a ridicularizar e a pregar peças em seus semelhantes!
Gregório XIII, o “pai do novo calendário”. Fonte: Wikipedia.
Vamos explicar: entre 1545 e 1563, a Igreja Católica realizou o Concílio de Trento, na Itália, em que discutiu várias medidas relacionadas à religião. Uma delas foi a substituição do calendário juliano (criado em Roma no século I) pelo calendário gregoriano, mais preciso, que corrigia uma distorção temporal crescente que influenciava o calendário litúrgico, ou seja, das celebrações da Igreja. A substituição foi feita alguns anos mais tarde, em 1582, pelo papa Gregório XIII (que também deu nome ao calendário). Vale observar que, no chamado Cristianismo Ortodoxo, adotado em países como a Rússia, a Ucrânia e a Armênia, ainda se utiliza o calendário juliano, com ou sem ajustes.
E cumpra-se!
Como, na época, as decisões da Igreja tinham enorme poder sobre as sociedades, os reis começaram a aplicar a regra. Uma das mudanças do novo calendário estabelecia o início do ano no dia 1º de janeiro. Até então, a data de início do ano, no calendário juliano, variava de região para região – algumas partes da Europa o celebravam no dia 1º de março, outras no dia 25 do mesmo mês; com as distorções do próprio calendário juliano, esta última data chegava perto do 1º de abril.
Na França, o ajuste foi decretado pelo rei Henrique III no finalzinho de 1582. Resultado: uma parte da população aderiu à novidade e a outra se recusou a celebrar o Réveillon na data nova, preferindo manter… o 1º de abril!
Rapidinho, os resistentes, uma minoria, passaram a ser ridicularizados pelos demais. E acabavam até convidados para festas de ano novo – em 1º de abril, é claro – que, na verdade, eram uma grande enganação, com pregação de peças, brincadeiras e outras “esculhambações”. Pronto: nascia o Dia da Mentira!
Uma piada bem arriscada
A bagunça virou tradição e ganhou todo o mundo ocidental, inclusive o Brasil colonial.
Foi apenas no início do Brasil Império – mais exatamente, em 1828 –, porém, que a data ganhou uma “certidão de nascimento” em terras tupiniquins. Naquele ano, no dia 1º de abril, a primeira edição do jornal satírico mineiro “A Mentira” (olhe só o título…) trazia como manchete, nada mais, nada menos, do que a morte de Dom Pedro I!
Foi, evidentemente, uma sensação, até porque ninguém sabia bem qual era a “cara”, a linha editorial do jornal. Muita gente acreditou, muita gente riu e muita gente ficou furiosa!
Brincadeiras e jornais
No Dia da Mentira de 1980, a rede britânica BBC anunciou que o Big Ben seria “atualizado” para um formato digital. Fonte: Wikipedia.
Não se sabe exatamente se a brincadeira trouxe consequências para os editores do jornal – na época, D. Pedro se via às voltas com questões muito sérias como a independência da antiga província Cisplatina (atual Uruguai) –, mas o fato é que, a partir de então, a data acabou consagrada para a pregação de peças.
No próprio campo jornalístico, por exemplo, brincadeiras do tipo (com envio de notícias falsas para as redações) eram muito comuns até recentemente. E levaram os jornais a reforçar seus mecanismos de checagem de informações! Em alguns países – como o Reino Unido -, os jornais pregavam peças com notícias falsas em 1º de abril.
E como os países celebram o Dia da Mentira hoje?
Em um mundo ultraconectado e altamente interconectado, é possível afirmar que o Dia da Mentira segue mais ou menos um mesmo roteiro, com algumas diferenças regionais. E é possível, inclusive, que esteja perdendo força. Assim como ocorria (e ocorre) no Brasil, em países como os Estados Unidos e o Reino Unido as redações de jornal são alvo preferencial dos brincalhões de 1º de abril, que enviam notícias absurdas, releases de brincadeira e outras “pegadinhas”, algumas vezes bem elaboradas.
A ideia é enganar os editores e fazer com que eles publiquem as notícias como verdadeiras. Com o fortalecimento da verificação de fatos (fact checking) e a migração dos jornais para o mundo digital (que permite correções rápidas em caso de engano), porém, a tendência é de que o sucesso dessas “publicações desastradas” seja cada vez menor. Até mesmo porque, em um mundo assolado por Fake News e desinformação, elas já não têm tanta graça!
“Fact” (fato) ou “Fake” (falso): uma das grandes questões da mídia e da sociedade no século XXI. Fonte: Getty Images.
E o “Peixe de Abril”?
Alguns parágrafos acima, falamos que, na Itália e na França, o Dia da Mentira também é chamado de “Peixe de Abril”. E esse nome só existe porque, nesses países, é tradição colar um peixe de papel nas costas das “vítimas” da festa sem que elas se deem conta. Nada, aliás, que desconheçamos: brincadeiras do tipo, especialmente com bilhetes pregados nas costas, já foram (e ainda são) relativamente comuns entre nós.
Mas elas também perderam força, em especial por conta de uma maior consciência coletiva a respeito da humilhação e do bullying – um problema gravíssimo, em especial nas escolas, que causa sofrimento e deve ser combatido.
Conclusão: o Dia da Mentira tem história… e é bom conhecê-la!
Ao conhecer um pouco mais sobre a origem do Dia da Mentira, descobrimos coisas que abrem possibilidades de reflexão. Como, por exemplo, os fatores relacionados à construção das tradições. Como surgem as datas festivas, em especial as populares? Quem diria, por exemplo, que uma mudança no calendário – com pessoas contra e a favor – acabaria gerando uma festa popular?
Vimos, também, o papel que a Igreja Católica desempenhou na vida das sociedades europeias por séculos. Um decreto papal, validado por vários reis, mudou a data de início do ano!
Por fim, pudemos perceber a resposta das sociedades a mudanças importantes em seu dia a dia. No caso do Dia da Mentira, de contestação, assimilação e construção de significado – uma festa que sobrevive quase 500 anos depois de uma mudança decretada por um papa!
Por fim – e o mais importante -, o Dia da Mentira também pode ser uma oportunidade de reflexão e ação em relação a temas fundamentais da nossa época: as Fake News, a educação midiática, a checagem de fatos e, especialmente, o respeito às pessoas e à dignidade humana. Refletir conhecendo, pesquisando e dialogando. E agir combatendo o bullying com inteligência, seriedade, conhecimento e empatia.
Em argila, papiro, pergaminho, papel ou, mais recentemente, em formato digital, os livros estão entre as maiores conquistas – e, certamente, as maiores expressões – da humanidade. Eles guardam as leis civis e os princípios religiosos, as ideias, a ciência e muitas histórias. São tão importantes e estão tão presentes que, muitas vezes, a gente nem imagina quando começaram. Afinal, quem escreveu os primeiros livros? E quando os livros impressos ganharam a “cara” que têm hoje, de um conjunto de folhas impressas e reunidas em um volume encadernado? É o que vamos saber neste artigo especial – boa leitura!
Escrita, acesso e mobilidade
Quando falamos em livros, a imagem que naturalmente vem à mente é a dos livros que conhecemos hoje: produzidos em papel, com capa, páginas internas e o formato de caderno. Um modelo perfeito para armazenar, transportar e acessar informações, que se tornou cada vez mais popular graças à descoberta e ao domínio das tecnologias de produção do papel (séc. II, China) e da impressão em tipos móveis (séc. XI, China e séc. XVI, Europa). E experimentou um salto a partir do século XIX, com avanços na indústria gráfica que culminaram, em nossa época, em tecnologias como a da impressão digital e a produção em larga escala.
Os primeiros livros da humanidade, porém, não reuniam toda essa praticidade! Ou melhor, reuniam, mas à sua maneira! E davam conta totalmente do recado – tanto, que muitos sobreviveram por mais de cinco mil anos! Estamos falando das tábuas de escrita cuneiforme, produzidas em argila cozida pelos sumérios, civilização que existiu na Mesopotâmia, em áreas dos territórios do atual Iraque e Síria, por volta de 3.200 a.C.; nelas, a escrita era feita usando-se espátulas com ponta em forma de cunha – daí o nome “cuneiforme”.
Tábua de argila com registro de escrita cuneiforme.
As tabuinhas, aliás, prenunciam o uso que damos hoje ao papel: no caso daqueles documentos que precisavam ser guardados, como leis, tratados e textos sagrados, elas eram queimadas e, assim, adquiriam grande resistência, sendo então guardadas nas primeiras bibliotecas; no caso de escritas do dia a dia – contas, recibos, recados, exercícios –, elas eram registradas em argila e postas a secar no sol. Quando necessário, a escrita podia ser apagada com água, permitindo que a placa fosse reutilizada para novos registros.
Outros suportes geniais para a produção de livros, ainda que um pouco mais recentes – mas, mesmo assim, muito antigas – vêm da China e, é claro, do nosso conhecido Egito Antigo. Na China, há cerca de quatro mil anos, os primeiros textos eram literalmente riscados em ossos e cascos de tartaruga. Pelo século VI a. C., porém, os redatores já usavam tiras de bambu costuradas em formato de esteira, onde escreviam usando pincel e tinta. Curiosamente, o bambu seria a base para uma das maiores invenções da história: o papel – sobre o qual falaremos daqui a pouco.
Quanto ao Egito, é impossível separar esta incrível civilização de uma palavra: papiro. O papiro, uma planta aquática (Cyperus papyrus), tornou-se essencial porque, por séculos, foi o principal suporte para a escrita. Não apenas no próprio Egito, onde era utilizado desde o século XXV a.C., mas também em Roma, que conquistou a civilização dos faraós (no séc. I a.C.) e disseminou seu uso por todo o império.
Rolos de papiro. Invenção egípcia se tornou muito popular no Império Romano.
Outras civilizações importantes da Antiguidade, como a indiana, usavam suportes vegetais para a escrita. Muitos textos clássicos do hinduísmo, como o “Mahabharata”, eram registrados em folhas de palmeira tratadas. As folhas, aliás, apresentam uma vantagem e uma desvantagem em comparação às tábuas sumérias de argila: são mais leves e fáceis de armazenar, mas, ao mesmo tempo, mais frágeis, podendo ser facilmente destruídas, rasgadas ou queimadas.
Códice: livro “com cara” de livro
Como vimos, os livros estão entre nós há muito tempo e são quase tão antigos quanto a própria escrita, que, aliás, foi inventada pelos sumérios. A escrita, vale observar, foi criada diversas vezes, por civilizações distintas e em épocas diferentes: mesopotâmicos, chineses, fenícios, maias… criações originais, que demonstram a inteligência humana!
Mas, quando foi que esses documentos ganharam “cara de livro”? Ou melhor: quando foi que eles ficaram mais parecidos com os livros impressos que conhecemos hoje?
A resposta está em Roma. Foi lá que nasceu o “Codex”ou códice – do latim, “casca de árvore” –, um caderno produzido a partir de folhas costuradas, muito usado por comerciantes. No início, os códices eram considerados menos nobres que os rolos de papiro, porém, pela praticidade de armazenamento e até de uso, acabaram prevalecendo.
Códice grego do século X, com trecho do Evangelho.
Duas curiosidades aqui: 1) – os primeiros textos cristãos, escritos no século I, foram assentados em códices e não em rolos de papiro; 2) – outra civilização, totalmente separada de Roma, também inventou o códice: os maias, que, por volta do século XII, começaram a publicar livros em folha de figueira chamados por eles de “huun”. Infelizmente, a maioria desses documentos acabou destruída quando da chegada dos espanhóis à península mexicana.
Lâminas 8 e 9 do Códice Maia de Dresden.
E o pergaminho?
Antes de avançar para um momento muito especial da história do livro, é interessante falar sobre um outro material importante para sua confecção: o pergaminho, cujo nome deriva do nome da cidade grega de Pérgamo, onde teria surgido por volta do século II a.C (na verdade, seu uso é mais antigo, mas o nome “pegou”). O pergaminho nada mais é do que uma pele animal – normalmente, de cabra, carneiro, cordeiro ou ovelha – especialmente tratada para receber a escrita. Documentos mais luxuosos, produzidos em pele de bezerros, eram chamados “velinos”.
Os pergaminhos competiam com os papiros e até os substituíam. Como na Idade Média europeia, quando os monastérios cristãos produziram e reproduziram milhares de textos usando pergaminhos – isto porque o couro estava muito mais à mão que os papiros do agora distante Egito. Se bem conservado, o pergaminho é um material durável, o que também justifica a preferência.
Documento oficial de 1329 redigido sobre um velino.
Papel e impressão
É curioso: nossos livros atuais são, ao mesmo tempo, muito diferentes e muito semelhantes aos livros de 500 anos atrás. São diferentes porque, hoje, as tecnologias de impressão e montagem são muito mais avançadas – elas, aliás, passaram por várias revoluções ao longo do tempo, com a indústria e os computadores –, e também porque em nossa época a variedade de papéis de impressão é muito grande. E são iguais por conta, justamente, do papel e da impressão!
Ambas as tecnologias vêm da China, com a observação de que, no caso da impressão de tipos móveis, ela também foi criada no Ocidente, em um processo semelhante ao que já observamos em relação à escrita – a mesma invenção, em tempos diferentes.
Da China para o mundo
No caso do papel, ele foi criado na China por volta do século II a.C., quando seus inventores começaram a usar fibras vegetais trituradas (de bambu, cânhamo, amoreira, restos de tecido e redes). Essas fibras eram mergulhadas em tanques e filtradas em telas bem finas, em que ficavam depositadas e formavam camadas; depois de secas, estas camadas se transformavam em folhas de papel que eram, então, recortadas. Por volta do século I d.C., usando fibras de bambu, um inventor chinês chamado C’ai Lun aprimorou a técnica de produção do papel. A partir de então, ele ganhou o mundo, chegando a outras regiões da Ásia, à África e à Europa, pela Rota da Seda. E, com a difusão da tecnologia pelo mundo, gradativamente tornou-se mais barato e popular. E, como funcionava muito melhor que o papiro e o pergaminho – pela regularidade, cor e oferta –, acabou prevalecendo. Em tempo: a produção do papel, atualmente, segue a mesma lógica da técnica inicial; a matéria-prima, porém, é a celulose (principal componente da parede celular das plantas), extraída de árvores de reflorestamento.
Impressão lá e cá
Chegamos, então, à impressão, que possui vários antecedentes, a começar pelo carimbo e o decalque, que já eram conhecidos e utilizados por várias civilizações em todo o mundo. No entanto, foi apenas por volta do século XI, na China, que se pensou em imprimir textos usando tipos – no caso chinês, com ideogramas – para compor as frases. São os chamados “tipos móveis”, ou seja, tipos que podem ser reaproveitados.
De forma simples, na impressão tradicional, podemos dizer que cada tipo é como um pequeno carimbo, que é alinhado com outros tipos dentro de uma estrutura para formar as frases. Depois de ser devidamente “enquadrada”, cada página recebe uma camada de tinta e, então, é aplicada sobre uma folha de papel com uma certa pressão. Nesse sistema, para que os ideogramas (ou letras) fossem impressos corretamente, era preciso produzir os tipos invertidos.
E foi exatamente essa a técnica desenvolvida na Europa, no século XV, por Johannes Gutenberg, um relojoeiro alemão que se dedicou à produção de livros e, neste processo, acabou “virando a chave” para a popularização dos livros – e, de quebra, ajudou a impulsionar grandes transformações como o Renascimento e a Reforma. Pense, por exemplo, na popularização das Bíblias (que passaram a ser traduzidas para vários idiomas), nos manuais técnicos, nas obras filosóficas e científicas. Bingo!
Ateliê europeu de impressão. Observe-se a composição da chapa tipos móveis, à direita, e a chamada “entintagem” dos tipos à esquerda.
Em termos gerais, ambas as técnicas, a chinesa e a de Gutenberg, partiam da mesma premissa. Contudo, o alfabeto latino, por seu número limitado de letras, facilitava a composição de textos (naquela época, a escrita chinesa possuía dezenas de milhares de ideogramas!). Além disso, a tecnologia de Gutemberg utilizava tipos metálicos, mais duráveis, enquanto a chinesa se baseava em tipos de madeira ou cerâmica, mais frágeis.
Livro coreano (escrito em chinês) impresso em tipos móveis. Século XIII.
Revolução e livros
No século XVIII, a Inglaterra liderou um movimento de profunda transformação da produção – a Revolução Industrial. Os artesãos, pessoas altamente especializadas, deram lugar a operários e máquinas, que produziam mais em menos tempo. Esse processo, que está muito relacionado com a própria Revolução Científica, promoveu grandes mudanças na sociedade, com reflexos sobre os livros e a leitura.
As técnicas de impressão melhoraram sensivelmente em qualidade e escala (como, por exemplo, com a impressora movida a vapor), ao mesmo tempo em que as pessoas, que passaram a se concentrar nas cidades, foram tendo mais acesso à educação e à alfabetização. E vieram os jornais populares, as novelas de detetives e os romances, os tratados filosóficos e de política, os panfletos, os livros técnicos, os livros didáticos… livros à mancheia, como diria Castro Alves em “O Livro e a América”!
No século XIX, os jornais populares impulsionaram o interesse pela leitura.
No final do século XX houve um novo salto no segmento editorial. Tecnologias de impressão consagradas, como a offset com fotolito, deram lugar à impressão digital. Os livros passaram a ser escritos e diagramados com uso de softwares e apoio de recursos avançados de fotografia digital e envio de dados. A escala também cresceu muito, e o preço das impressões caiu. Além disso, a logística envolvida na compra e envio dos livros também melhorou muito.
Apenas para se ter uma ideia, o Brasil imprime, em média, 300 milhões de livros por ano – muitos, destinados diretamente ao setor educacional (livros didáticos); nos Estados Unidos, este número chega perto de um bilhão de exemplares. Uma enormidade!
O futuro nas páginas
A apresentação de livros em formato digital, em suportes eletrônicos como os computadores pessoais e o Kindle, abriu uma nova frente para os leitores. E, antecipamos o futuro aqui, vai facilitar a vida das futuras gerações em suas andanças pelo universo com suas “bibliotecas de bolso”!
O mais importante é que os livros – estes velhos e queridos companheiros, tão humanos, tão nossos – vão continuar revolucionando o mundo. Com conhecimento, sentimento, sabedoria e informação.
Tecnologias como a do E-book ampliaram ainda mais o acesso aos livros. Mas, elas representam o futuro?
Você já pensou na ideia de educar alguém para a água? A ideia pode soar até um pouco estranha – afinal, a água é a companheira de todas as formas de vida do nosso planeta desde sempre –, mas ela é cada vez mais necessária!
Com o aumento do consumo de água por setores como a indústria, a pecuária e a agricultura, a pressão sobre rios, lagos e reservatórios subterrâneos cresce significativamente.
Além disso, eventos extremos, como as recentes enchentes no Rio Grande do Sul, mostram que as mudanças climáticas já estão impactando diretamente o regime das águas. Períodos de chuva intensa e estiagens prolongadas têm se tornado cada vez mais comuns, em um fenômeno que pesquisadores chamam de “emergência climática”.
♺ “Um copo d’água, Sr. Lavoisier”
Por volta de 1775, na França, o químico Antoine Lavoisier publicou uma frase que se tornaria célebre no campo da ciência. Essa observação, que ganhou o nome de “Lei da Conservação das Massas” (ou “Lei de Lavoisier”), afirmava que, “na natureza, nada se cria, nada se perde, tudo se transforma”. Essa lei vale para os compostos químicos e para a água – porque, independentemente das transformações químicas ou físicas pelas quais ela passe, ao fim do processo sua massa total sempre será conservada.
O que significa dizer que, salvo pela chegada de “água do espaço sideral” em meteoros/meteoritos – algo que é muito raro e insignificante em termos de volume, ao menos na nossa época –, a quantidade da substância é a mesma há muitos milhões de anos. E ela apenas vai se transformando em um eterno ciclo de “sólido, líquido e gasoso”.
🌊 Transformações complicadas
Diante disso, não haveria por que se preocupar, certo? Errado! Porque, se nós não temos a capacidade de “fazer desaparecer” a massa total de água do planeta, reunimos todas as condições – e fazemos isso constantemente – de transformá-la. Não apenas dentro de seus estados físicos, mas também por meio da poluição e de alterações no relevo terrestre (com a construção de represas e o desmatamento, por exemplo).
Essas mudanças comprometem a qualidade da água para todas as formas de vida, e podem demandar esforços gigantescos – muitas vezes, inviáveis – de recuperação ou recomposição. Em síntese: dispomos de toda a água do mundo, mas não estamos sabendo como cuidar dela. E os resultados são preocupantes!
🌧️Algumas informações interessantes
Você já ouviu falar em “superfície terrestre”, certo? Ela é aquela camada do nosso planeta, aquela “capa” – apesar de enorme, muito fina na comparação com o diâmetro do planeta – onde a vida acontece. Ela é formada pela litosfera (camada sólida), pela hidrosfera (oceanos, mares, lagos, rios e reservatórios subterrâneos) e pela atmosfera (a camada gasosa).
E é justamente nela que está toda a água; aliás, cerca de 71% da superfície terrestre é coberta por água. Nesse ambiente ela circula sem parar, seguindo o chamado “ciclo da água” – circulação em estado líquido, evaporação, congelamento, retorno em forma de chuva e assim por diante. E pode até acabar “estocada”, na forma líquida, em lençóis subterrâneos e reservatórios conhecidos como aquíferos, que são tremendamente importantes para a regulagem dos próprios rios; e em geleiras, situadas nas zonas mais altas do planeta e, também, próximo dos polos.
Detalhe crucial: como os seres vivos são formados e dependem totalmente da água, é possível afirmar, sem errar, que eles entram no mesmo ciclo: nós, por exemplo, bebemos água, consumimos alimentos, vamos ao banheiro, respiramos, transpiramos… ou seja, também estamos “trocando água” com o mundo o tempo todo!
A quantidade de água, como observamos, é grande – algo como 1,386 bilhão de quilômetros cúbicos (se colocássemos toda ela em uma esfera, esta teria um pouco menos da metade do tamanho da Lua!). O que não significa dizer que estamos com a “caixa cheia”! Isso porque 97,3% dela é salgada; 77,2% está congelada (doce ou salgada, em montanhas, icebergs e banquisas); 22,4% está guardada sob a terra, em lençóis e aquíferos; e apenas 2,7% é doce. Só que nem toda a água doce é potável – ou seja, própria para o consumo humano.
Quanto ao uso da água pelas sociedades, em uma média ele está dividido da seguinte maneira: 70% na agricultura e pecuária, 20% na indústria (em processos de fabricação, resfriamento, produção de energia e limpeza) e 10% no uso doméstico (alimentação, limpeza, sistemas de esgoto etc.). Vale observar que esses percentuais variam entre os países – o Brasil, por exemplo, utiliza mais água no setor agropecuário do que outros países.
Vale observar que todos esses usos são humanos e se situam dentro de um universo muito mais complexo, que compreende os demais componentes da biosfera. O que significa dizer que, além de “nos atender”, a água também deve nutrir todos os demais seres vivos dentro de um sistema repleto de variáveis (como, por exemplo, as estações do ano).
🚱 “Ah, mas se faltar a gente dá um jeito…”
Depende! Se, por um lado, em tese é possível recuperar e potabilizar águas contaminadas, salobras, salgadas ou “escondidas” – e há uma corrida tecnológica em busca de meios mais interessantes para isso –, por outro lado estes processos todos são, sempre, muito caros.
Para ter acesso a uma fonte de água subterrânea, por exemplo, é preciso cavar um poço, que pode ser muito profundo; muitas vezes, a água dos poços precisa ser tratada, resfriada e até desmineralizada para, então, estar disponível para o consumo.
E há um outro fator muito importante: o tempo. Há um antigo ditado chinês que afirma que “uma pessoa não deve começar a cavar um poço quando já está com sede”; esta regra parece funcionar perfeitamente para a questão de que estamos tratando. Visto em termos muito gerais, o mundo ainda não está “com sede” – ela, porém, já afeta muitas pessoas e causa muitas mortes.
Dados da ONU (2023) mostram que cerca de 2 bilhões de pessoas (26% da população global) não têm acesso a água potável segura; destas, cerca de 1,7 bilhão utiliza fontes contaminadas por fezes ou produtos químicos; e cerca de 4 bilhões de pessoas (quase metade da população mundial) enfrentam escassez severa de água por pelo menos um mês ao ano.
A maior parte das pessoas afetadas vive nos países mais pobres, que não possuem meios de solucionar a questão. À medida, porém, que a emergência climática se acelera, esse número vai crescer e chegar, também, aos países mais fortes economicamente. Há, inclusive, quem afirme que já estamos em uma etapa de “guerras da água”, quando países lutarão pelo controle e pelo uso deste recurso. Nesse sentido, o futuro não é nada promissor…
🛡️ Então, como fazer?
Promissor, mesmo, é investir em caminhos sustentáveis para o uso e a conservação das águas disponíveis. Ao invés de explorar aquíferos, proteger as nascentes e os rios; ao invés de dessalinizar a água do mar, proteger as florestas e recompor o meio ambiente em regiões degradadas para “plantar água” (regulando os lençóis e protegendo os rios do assoreamento). Ao invés de consumir alimentos e produtos cuja produção implica um gasto extremo de água, olhar com cuidado para os próprios hábitos em busca de equilíbrio.
Pausa para um exemplo: a produção de 1 kg de carne bovina envolve, em média, o consumo de 15 mil litros de água (os dados são do Water Footprint Network e do Instituto Akatu); tomando como referência o valor recomendado pela ONU de consumo de água por pessoa/dia, que é de 110 litros, chegamos à conclusão de que o volume de água investido na produção de 1 kg de carne poderia suprir as necessidades diárias de uma pessoa por mais de 4 meses!
Não estamos falando, evidentemente, em eliminar o consumo de carne bovina, que é um hábito nutricional, cultural e de saúde de bilhões de pessoas em todo o mundo; o importante, aqui, é refletir sobre os hábitos e a responsabilidade em relação aos impactos do consumo.
🚰 Dia Mundial da Água
Essa, aliás, é uma ideia central do Dia Internacional da Água, proposto pela Organização das Nações Unidas em 1992. A data, que é comemorada no dia 22 de março, funciona como um mobilizador de pessoas, empresas e sociedade para conhecer os problemas da água, conscientizar sobre o uso consciente de um recurso que é precioso e escasso.
Na medida em que esse é um processo civilizatório – ou seja, ele implica uma mudança de hábitos e de olhar de longa duração, que envolve toda uma comunidade –, ele deve, necessariamente, envolver a educação e a escola, já na Educação Básica. E é aí que entra em cena a Educação Ambiental, prevista, no caso brasileiro, de forma transversal (pela BNCC). E que, evidentemente, pode ser trabalhada de muitas maneiras, integrando colocações mais teóricas – como a que diz respeito, por exemplo, à compreensão esquemática do ciclo da água – e metodologias ativas que trabalhem com observação de campo, ação e protagonismo dos estudantes.
É possível, por exemplo, envolver os estudantes no conhecimento dos rios da cidade/bairro onde eles moram, do papel das águas para o desenvolvimento da civilização naquele local e a forma como estes cursos estão sendo tratados na atualidade. Perguntas como “Onde está o rio que passava ali?” ou “Quais são e onde ficam os rios do seu bairro?” podem dar início a belos projetos de pesquisa com impacto na comunidade.
É possível envolver os estudantes na compreensão dos custos de tratamento do esgoto em uma visita às estações e estruturas associadas. É possível, enfim, fazer com que eles percebam a relação entre água e os hábitos de consumo de diferentes maneiras. E levá-los a conhecer os caminhos para a conservação e o uso racional e sustentável.
Essa lista de possibilidades, evidentemente, é muito maior, e pode levar em conta os muitos cenários onde as escolas e as comunidades estão inseridas. O essencial, em todos os casos, é o letramento das novas gerações para uma questão fundamental.
💦 Quero encontrar mais fontes:
Legal! Vamos listar alguns links importantes para o trabalho sobre a temática da água na escola:
Organização das Nações Unidas (ONU) – Água (UN Water): Portal que mostra o trabalho da ONU em relação à água e ao saneamento. Traz notícias, relatórios e infográficos. Disponivel em português.
UNESCO – Programa Hidrológico Internacional (PHI): A UNESCO promove pesquisas e educação sobre gestão sustentável da água. O Programa Hidrológico Internacional (PHI) é uma referência global em estudos sobre recursos hídricos. Em inglês e espanhol.
Water Footprint Network (Rede de Pegada Hídrica): Esta organização internacional calcula a “pegada hídrica” de produtos, países e indivíduos, mostrando o consumo de água em diferentes atividades. Em inglês.
Portal Trata Brasil: O portal do Instituto Trata Brasil traz informações relevantes e materiais educativos sobre o saneamento básico no país. Em português.
Há, também, espaços físicos dedicados à educação para a água. Destacamos o Museu Planeta Água, mantido pela Companhia de Saneamento Básico do Paraná, a Sanepar, em Curitiba, e o Museu Água, mantido em São Paulo pela Associação dos Engenheiros da Sabesp (AESABESP).