Professor detalha relato “aterrorizante” de aluno que disse que ChatGPT tornaria o pensamento obsoleto
Um professor no Reddit contou uma história preocupante sobre um aluno do primeiro ano que argumentou que não deveria “pensar mais” graças ao ChatGPT. Isso mudou a resposta típica do instrutor às crianças que perguntavam por que precisavam aprender matemática, e as deixou aterrorizadas.
Grandes modelos de linguagem (LLMs), como o ChatGPT, já causam dores de cabeça aos professores há anos, mas este é o próximo nível.
Por que aprender a pensar quando a IA pode fazer isso por você?
Em uma postagem de quinta-feira no sub r/Teachers, r/mobius_ contou a história de um aluno que não apenas não queria fazer matemática, mas também não queria pensar.
“Curso de Álgebra 1 para calouros hoje, e tenho um aluno que quase sempre pergunta como isso se aplica à vida real”, escreveu o professor. “Não do jeito típico de ‘não quero aprender isso’ – ele é genuinamente curioso.”
“Outra criança aparece sem ler a conversa direito e diz ‘Estou com você, cara… por que realmente precisamos aprender isso? O ChatGPT fará tudo muito mais rápido.'”
O OP tentou explicar que aprender matemática não envolve tanto fórmulas, mas sim desenvolver habilidades de resolução de problemas e pensamento crítico. Isso se traduz em melhor desempenho em praticamente qualquer trabalho.
Infelizmente, esse garoto pensa que mesmo essas habilidades básicas não serão necessárias no futuro do ChatGPT.
“Esse garoto responde, não apenas tentando me irritar, que ele não acha mais que isso é algo legítimo e importante no mundo devido ao ChatGPT. Que todas as tomadas de decisão no futuro serão feitas pela IA, então por que precisamos aprender alguma coisa e por que precisamos pensar mais?
Mesmo propor uma situação hipotética em que seria necessária a resolução de problemas no local não ajudou.
“Eu diria ao meu chefe que usaria o ChatGPT, e eles ficariam felizes com isso, porque isso sempre faria as escolhas certas”, respondeu o aluno.
“Isso me assusta”, concluiu a professora.
Definitivamente, o ChatGPT nem sempre faz as escolhas certas. Um estudo publicado em fevereiro de 2026 descobriu que os participantes que usaram LLMs para diagnosticar condições médicas erraram 65,6% das vezes.
“Por que seu chefe precisa de você?”
Outros professores que responderam à postagem sugeriram possíveis respostas para tentar convencer esse aluno a começar a usar a própria cabeça. Alguns recomendaram questionar por que qualquer chefe o manteria por perto se tudo o que ele fazia era pedir respostas a um LLM.

“Por que seu chefe precisa de você se você vai apenas pedir a resposta ao ChatGPT? Ele não simplesmente demitiria você e usaria o próprio ChatGPT?” r/sorta_good_at_words postulado.
“Lembro aos meus alunos que as pessoas ricas não estão investindo em IA para que possam pagar mais”, escreveu r/chrisdub84. “Se as únicas habilidades que você possui são aquelas que podem ser desenvolvidas pela IA, você terá dificuldade em encontrar um emprego.”
Outras situações imaginárias em que programas como o ChatGPT falham.

“Com um burburinho furioso, a energia é desligada no data center que hospeda o ChatGPT”, disse r/PyroNine9. “Cabe a você fazer os reparos e trazê-lo de volta.”
“Você trabalha para um reator nuclear do futuro”, propôs r/ScarInternational161. “O sistema ficou off-line, a energia e o auxiliar caíram. Sem rede, sem energia. Você precisa saber a resposta para ESTA pergunta em 10 minutos ou o núcleo superaquecerá. Você tem este livro, este lápis, este papel. VÁ.”
A Internet é caótica, mas vamos detalhar isso para você em um e-mail diário. Inscreva-se no boletim informativo do Daily Dot aqui.
