pt
Newsletter
glossario

saber mais

A inteligência artificial é uma ferramenta poderosa, mas a sua utilização indiscriminada, especialmente em contextos educativos, parece trazer mais riscos do que benefícios. Um estudo recente mostra como a utilização de uma ferramenta semelhante ao ChatGPT afetou negativamente a aprendizagem de matemática em alunos do ensino secundário. Estes efeitos negativos do uso de inteligência artificial podem ter efeitos a longo prazo, alterando a capacidade de aprender, memorizar e resolver problemas. Apostar em literacia digital e no uso de estratégias de aprendizagem que maximizam a capacidade de efetivamente aprender e desenvolver pensamento crítico são os novos desafios que se põem aos educadores, enquanto tentam navegar a omnipresença da inteligência artificial.

A inteligência artificial (IA) tem vindo a tornar-se omnipresente, e as salas de aula não são exceção. Se, por um lado, ferramentas de IA generativa, como o ChatGPT, podem aumentar a produtividade e ser utilizadas para tornar tarefas comuns mais eficientes, os seus efeitos na forma como os humanos aprendem e abordam novas tarefas podem revelar-se catastróficos no futuro. O problema não é a utilização de IA por si só, mas a forma como é utilizada. Se tivermos em conta o modo como a aprendizagem humana funciona, poderá ser possível aproveitar alguns benefícios da IA, sem prejudicar o futuro desempenho humano.

Um estudo recente de Hamsa Bastani, Osbert Bastani, Alp Sungu, Haosen Geb, Özge Kabakcı e Rei Mariman da Universidade da Pensilvânia (Estados Unidos) e da Escola Britânica Internacional (Hungria) dá algumas pistas sobre os perigos do uso de IA em contextos educativos e como reduzi-los. Neste estudo, publicado na revista científica Proceedings of the National Academy of Sciences (PNAS), os investigadores testaram como a utilização da IA generativa afetava a aprendizagem de matemática em alunos do ensino secundário.

Um teste à IA na sala de aula

A experiência incluiu cerca de mil alunos, divididos em três grupos. Um grupo de alunos recebeu um tutor de IA semelhante ao ChatGPT-4 (GPT Base); outro grupo recebeu um tutor baseado no ChatGPT-4, mas adaptado pelos investigadores de modo a incluir proteções da aprendizagem (GPT Tutor), como, por exemplo, dar pistas para resolver os problemas e não a resposta final; um terceiro grupo serviu de controlo e usou apenas manuais e as suas notas. Os investigadores desenvolveram quatro sessões de 90 minutos que cobriram cerca de 15% do currículo de matemática para alunos do 9.º, 10.º e 11.º anos. Em cada sessão, os professores começaram por rever um tema previamente ensinado; depois, os alunos resolveram exercícios de acordo com cada uma das três condições descritas e, depois de apresentarem as suas respostas, os professores reviram rapidamente as respostas corretas; por fim, os alunos fizeram um teste sem consulta, com problemas semelhantes aos da fase de estudo.

Durante a fase de resolução de exercícios, os alunos responderam a questões como, por exemplo, «encontra a equação da linha que passa por A(-2,3), paralela a 2x-3y+5=0». O GPT Base podia dar a solução completa para este problema. Em contrapartida, o GPT Tutor tinha sido instruído pelos investigadores a encorajar os alunos a encontrar a solução por si próprios e a pedir que começassem o processo de resolução, antes de clarificar possíveis confusões ou de ajudar os alunos a chegar ao próximo passo da resolução. O GPT Tutor também tinha sido instruído a começar por dar o mínimo de informação possível e a aumentar gradualmente a informação dada.

Efeitos negativos e ilusões de aprendizagem

Os resultados indicaram que, durante a fase de estudo, os alunos que usaram o GPT Base ou o GPT Tutor aumentaram o seu desempenho mais do que os alunos que apenas usaram as suas notas e manuais: o GPT Base aumentou o desempenho em cerca de 48%, e o GPT Tutor, em cerca de 127%.

No entanto, será que estes efeitos no desempenho querem dizer que a IA ajudou os alunos a aprender? A resposta é não, pelo contrário. Nos testes finais, os alunos que tinham usado o GPT Base viram o seu desempenho diminuído em cerca de 17%, em comparação com os alunos que não tinham utilizado IA para estudar. E os alunos que tinham utilizado o GPT Tutor não diferiram dos que não tinham utilizado IA.

Nos testes finais, os alunos que tinham usado o GPT Base viram o seu desempenho diminuído em cerca de 17%

Os investigadores apontam dois mecanismos que poderão fazer com que o GPT Base prejudique a aprendizagem: 1) o GPT Base gera erros que influenciam os alunos; e, 2) o uso do GPT Base faz com que os alunos não tentem ativamente perceber os problemas antes de os tentarem resolver. Ao analisar as respostas do GPT Base e dos alunos, os investigadores concluíram que o segundo mecanismo é o mais provável: a IA é usada como muleta que faz com que os alunos não tenham de tentar ativamente perceber os problemas, impedindo a aprendizagem. O facto de os alunos quase sempre pedirem imediatamente a resposta final ao GPT Base também apoia esta conclusão. No caso do GPT Tutor, os alunos podiam pedir pistas, mas não recebiam a resposta final, o que evitou que o GPT Tutor fosse usado como muleta — daí não ter afetado negativamente a aprendizagem, em comparação com o grupo de controlo.

A IA é usada como muleta que faz com que os alunos não tenham de tentar ativamente perceber os problemas, impedindo a aprendizagem

Outro resultado interessante é que, comparativamente com os alunos que não utilizaram IA, os alunos que tinham usado IA sobrestimaram a sua aprendizagem e desempenho no teste final. Este efeito da IA na metacognição é uma ilusão de aprendizagem que pode levar os alunos a parar de estudar antes de terem de facto aprendido e evita que se foquem nos tópicos em que têm mais dificuldade, com repercussões negativas para a aprendizagem.

Recomendações

Em resumo, o uso de uma ferramenta semelhante ao ChatGPT durante a aprendizagem prejudicou a aprendizagem e a capacidade de os alunos identificarem o seu nível de aprendizagem. Adicionar proteções de aprendizagem a esta ferramenta eliminou os efeitos negativos na aprendizagem. Porém, não só não melhorou o desempenho, como criou as mesmas ilusões de aprendizagem que o ChatGPT.

Este estudo vem mostrar que o uso de IA em contextos educativos deve ser monitorizado pelo professor e incluir proteções da aprendizagem, para garantir que não são geradas respostas incorretas e que os alunos não usam a IA para lhes dar respostas finais, sem tentarem perceber os problemas. No entanto, além da implementação destas proteções requererem muito trabalho do professor, a utilização da IA não melhorou o desempenho e levou até a ilusões de aprendizagem. Assim, parece que os efeitos negativos da IA na sala de aula continuam a pesar mais do que os seus possíveis benefícios.

Mas que podem os professores e os encarregados de educação fazer quando o uso da IA é quase inevitável? Uma opção é criar atividades que não possam ser inteiramente resolvidas por IA e mostrar aos alunos os erros que a IA faz, enfatizando o uso das estratégias de aprendizagem que aumentam a capacidade de aprender e o pensamento crítico. É importante que as práticas educativas realcem a importância de «aprender a aprender» e deixem de se centrar apenas na aquisição de conteúdos.

Alguns autores têm vindo a sugerir que a dependência excessiva da IA pode prejudicar mecanismos essenciais à aprendizagem, raciocínio, pensamento crítico e criatividade (Oakley et al., 2025). Por exemplo, a memória é um destes mecanismos essenciais: sabemos que o ato de memorizar e reproduzir o que memorizamos (prática da recuperação) é uma das estratégias mais eficazes para aprender. Ora, se a IA substitui a prática de recuperação e outras estratégias que tornam a nossa aprendizagem mais eficaz, a longo prazo poderemos pôr em perigo a nossa capacidade de aprender, resolver problemas, detetar erros e transferir aprendizagens entre contextos.

Mesmo que a IA tenha vindo para ficar e possa trazer muitos benefícios, parece já certo que estes benefícios são apenas aproveitados por aqueles capazes de avaliar as limitações da IA e com capacidade de monitorizar ativamente e regular a sua atividade mental para resolver problemas (i.e., capacidade metacognitiva). Exemplo disso é um estudo que indica que o uso de IA pode aumentar a criatividade em contextos de trabalho, mas apenas para trabalhadores com elevados níveis de capacidade metacognitiva (Sun et al., 2025).

Assim, a educação deve continuar a focar-se no desenvolvimento de capacidades metacognitivas e a utilizar estratégias que maximizam a capacidade de aprender e resolver problemas independentemente. Deve ainda incluir aulas de literacia digital que destaquem os riscos do uso de IA e os erros que a IA gera.

Referências bibliográficas

Bastani, H., Bastani, O., Sungur, A., Geb, H., Kabakcı, Ö., & Marimane, R. (2025). Generative AI without guardrails can harm learning: Evidence from high school mathematics. Proceedings of the National Academy of Sciences, 122(27), e2413692122. https://doi.org/10.1073/pnas.2413692122

Oakley, B., Johnston, M., Chen, K.-Z., Jung, E., & Sejnowski, T. J. (2025). The memory paradox: Why our brains need knowledge in an age of AI. arXiv. https://doi.org/10.48550/arXiv.2506.11015

Sun, S., Li, Z. A., Foo, M.-D., Zhou, J., & Lu, J. G. (2025). How and for whom using generative AI affects creativity: A field experiment. Journal of Applied Psychology. Advance online publication. https://doi.org/10.1037/apl0001296

AUTOR

Ludmila D. Nunes é a diretora de conhecimento científico na American Psychological Association (APA). Doutorada em Psicologia pela Universidade de Lisboa, desenvolveu a sua investigação na área de Memória Humana e Aprendizagem na Washington University in St. Louis, na Universidade de Purdue, e na Universidade de Lisboa. 

Além da investigação, deu aulas de Introdução à Psicologia Cognitiva e de Memória Humana na Universidade de Purdue e foi revisora para várias publicações científicas. Até recentemente, foi escritora científica para a Association for Psychological Science (APS).

Receba as nossas novidades e alertas

Acompanhe todas as novidades.
Subscrever