Brasil fora da aula: por que ainda não ensinamos inteligência artificial nas escolas?
Enquanto potências mundiais integram IA ao currículo, Brasil assiste à revolução tecnológica da porta para fora —sem letramento em IA, sem governança nas escolas e à margem da corrida global pelo futuro
LA
07/07/2025 12h11 - Atualizado há 9 horas
Divulgação
Por Rafael Irio, especialista em Inteligência Artificial aplicada à educação
Vivemos uma transformação tecnológica sem precedentes. A Inteligência Artificial (IA), antes restrita aos laboratórios e aos livros de ficção científica, tornou-se onipresente nas rotinas sociais, econômicas e educacionais. Em países como China, Estados Unidos e Emirados Árabes Unidos, a integração da IA ao currículo escolar já é uma realidade — parte de uma estratégia nacional que compreende a educação como pilar do desenvolvimento. No Brasil, no entanto, a falta de políticas públicas e de uma governança educacional orientada por essa agenda tem colocado o país em uma posição preocupante. Não há previsão para o letramento em IA nas escolas públicas brasileiras. Não há uma política nacional estruturada para formar professores. Não há infraestrutura básica universalizada para sustentar qualquer inovação de forma democrática. E, talvez o mais alarmante: não há um debate amplo, público e estratégico sobre os impactos da IA na formação de nossas crianças e jovens. A ausência de regulação, nesse caso, não é neutralidade. É negligência. O Projeto de Lei 2.338/2023, que tramita no Senado, propõe um marco legal para a IA no país. Entre seus princípios, está a centralidade da pessoa humana no desenvolvimento e uso dessas tecnologias. No contexto educacional, isso significa posicionar o educador como protagonista — não como mero operador de plataformas. A IA pode e deve ser usada para personalizar o ensino, apoiar o planejamento e diversificar estratégias pedagógicas. Mas não pode substituir a escuta, a empatia, o julgamento profissional e a sensibilidade humana que só o professor é capaz de oferecer. Essa centralidade exige, porém, mais do que boas intenções. Exige formação crítica em IA para educadores. Exige que professores entendam como os algoritmos funcionam, quais dados manipulam, quais riscos implicam. Exige autonomia pedagógica para questionar, adaptar ou rejeitar recomendações tecnológicas que não estejam alinhadas ao contexto da sala de aula. Sem isso, corremos o risco de reduzir o professor a um executor de decisões algorítmicas. Outro ponto crítico é a explicabilidade. Sistemas de IA que classificam alunos, sugerem trilhas de aprendizagem ou atribuem notas devem ser transparentes em seus critérios. Não podemos permitir que crianças e adolescentes sejam rotulados como “inaptos” ou “em risco” por modelos opacos, que operam à margem da compreensão de quem ensina e de quem aprende. A explicabilidade é um direito pedagógico e humano — e deve ser uma salvaguarda obrigatória em qualquer uso educacional da IA. Também é urgente discutir a proteção de dados de crianças e adolescentes. Plataformas educacionais, muitas vezes privadas, coletam informações sensíveis — desde desempenho escolar até padrões emocionais — sem a devida clareza sobre quem acessa, para que finalidade e por quanto tempo. O uso não regulado desses dados pode levar a práticas discriminatórias, estigmatizantes e até comerciais, sem o consentimento das famílias ou das escolas. A privacidade de crianças não pode ser moeda de troca para inovação. Se não houver regulação intencional e propositiva, o uso da IA na educação corre o risco de reproduzir o que ela deveria combater: desigualdade, exclusão, invisibilidade. O Brasil já convive com um abismo estrutural entre escolas públicas e privadas, urbanas e rurais. Sem conectividade, sem infraestrutura, sem formação de professores, qualquer iniciativa de inovação se tornará um catalisador de desigualdades — e não uma ponte para superá-las. E há uma questão de fundo, frequentemente negligenciada: a IA não é criativa, não é crítica, não é ética. Ela reorganiza padrões. Pode sugerir, comparar, compilar. Mas não pode formar cidadãos autônomos. É por isso que defendo o letramento crítico em IA como pilar fundamental de uma política educacional contemporânea. Ensinar o “como usar” já não é suficiente. Precisamos ensinar o “por que”, o “quando” e o “com que consequências”. Formar cidadãos e não apenas operadores de tecnologia. Nesse sentido, a educação deve ser considerada, sim, uma área de alto risco no uso da IA. Porque impacta mentes em formação. Porque cada decisão automatizada tem o poder de reforçar ou corrigir trajetórias. Porque a escola é lugar de desenvolvimento humano — e não apenas de performance. O Marco Legal da IA pode contribuir significativamente para uma virada de chave nesse cenário. Estabelecendo critérios éticos, garantindo transparência e participação nas decisões, incentivando ecossistemas de inovação colaborativa. Mas isso só acontecerá se o texto for acompanhado de políticas públicas concretas — e não apenas de boas práticas abstratas. Precisamos de um marco nacional de letramento em IA. De agências públicas que avaliem e certifiquem as tecnologias educacionais. De uma política nacional de inclusão tecnológica que compreenda conectividade e dispositivos como direitos, não como privilégios. O tempo da análise já passou. O tempo da urgência é agora. Não se trata de regular a IA para barrar a inovação. Trata-se de regulá-la para garantir que ela esteja a serviço da equidade, da democracia e do futuro que queremos construir. Em um mundo onde o algoritmo já influencia o que lemos, como aprendemos e quem nos tornamos, decidir não decidir é também uma decisão — e talvez a mais arriscada de todas. Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
LIS ANDRESSA DE ASSIS
[email protected]
FONTE: Divulgação