Que tal perguntar ao ChatGPT e aceitar respostas sem critério algum?
Quando normalizamos o “pergunte ao ChatGPT”, aceitamos respostas sem lastro, autoridade simulada e erros difusos
Sempre que o debate sobre inteligência artificial ameaça sair da superfície, surge uma analogia pronta para desarmá-lo. Ela é apresentada como prova histórica irrefutável, uma espécie de lição definitiva contra qualquer cautela: no passado, professores teriam combatido as calculadoras; hoje, repetiríamos o mesmo erro ao questionar a IA. A comparação soa confortável, quase pedagógica.
E justamente por isso é enganosa.
Analogias fáceis não explicam fenômenos complexos — apenas os domesticam. Ao equiparar modelos generativos a calculadoras, apaga-se deliberadamente a diferença essencial entre uma ferramenta que executa operações e sistemas que produzem linguagem, síntese e pareceres com aparência de pensamento humano.
A calculadora não fala, não aconselha, não escreve. Não ocupa espaço simbólico. Não se apresenta como fonte de saber. Ela apenas resolve uma operação previamente definida.
Modelos generativos operam em outro registro. Eles não aceleram apenas tarefas; ocupam o território da explicação, da interpretação e da tomada de decisão discursiva. Produzem respostas completas, bem estruturadas, com tom confiante e vocabulário ajustado ao contexto.
Sabemos que o efeito é sedutor: tudo parece claro, organizado, seguro. O problema é que essa fluidez não nasce do entendimento, mas da probabilidade. O sistema não compreende o que afirma; apenas organiza palavras de forma convincente. Essa parte forçamos a barra para desconhecer.
Comparar essa dinâmica a uma calculadora é como confundir um velocímetro com um piloto automático. Um informa; o outro conduz. Um auxilia; o outro interfere diretamente no percurso. A diferença não é técnica — é cognitiva e cultural. A IA generativa não se limita a apoiar o pensamento; ela passa a substituí-lo, sem anunciar essa troca.
Existem analogias mais honestas.
A IA se comporta como um estagiário brilhante que escreve com segurança sobre temas que não domina, ou como um consultor que nunca admite ignorância.
Em muitos contextos, funciona como um teleprompter mental: oferece fluência sem lastro, clareza formal sem compromisso com a precisão, respostas prontas sem responsabilidade por seus efeitos. O risco não está apenas nos erros, mas na autoridade simulada com que eles são apresentados.
Nunca antes uma tecnologia havia ocupado esse lugar. Ferramentas tradicionais permaneciam silenciosas.
A IA fala. Explica. Sugere. Opina. E faz isso sem carregar os elementos que tornam a produção intelectual socialmente exigível: intenção, responsabilidade, possibilidade de contestação e consequências claras.
Ela responde sempre — inclusive quando deveria dizer “não sei”. Não é difícil imaginarmos que, no momento em que uma das plataformas de IA mais conhecidas, como DeepSeek, Gemini, ChatGPT, Grok ou Qwen, comece a responder que não sabe algo, os usuários migrarão para outra que considerem “mais robusta, mais potente, mais completa, mais avançada”. É ou não é assim?
Há ainda um componente sistematicamente apagado desse entusiasmo: o trabalho humano que sustenta a chamada inteligência artificial. Por trás da ideia de aprendizado automático, existe uma extensa cadeia de esforço invisibilizado. Anotadores treinando modelos, moderadores expostos diariamente a conteúdos extremos, autores, jornalistas e tradutores cujas produções foram incorporadas como matéria-prima estatística.
Quando se afirma que a IA “aprendeu sozinha”, pratica-se um apagamento conveniente desse trabalho coletivo.
Esse apagamento não é acidental. Ele serve a um modelo econômico que concentra ganhos, dilui responsabilidades e transforma produção intelectual em insumo descartável. Questionar esse processo não é rejeitar tecnologia; é recusar a fantasia de neutralidade que a envolve.
O deslumbramento acrítico com a IA repete um padrão antigo. Tecnologias costumam ser adotadas antes que seus efeitos colaterais sejam compreendidos.
Primeiro vem a euforia, depois a dependência, e só então a percepção dos danos. Foi assim com as redes sociais, com a economia da atenção, com a financeirização algorítmica. A promessa sempre foi eficiência. O custo quase sempre apareceu depois.
Existe uma distinção fundamental que precisa ser resgatada: instrumentos não exigem adesão irrestrita; sistemas de crença, sim. Quando uma tecnologia passa a ser tratada como inevitável, neutra e incontestável, ela deixa de ser ferramenta e passa a operar como dogma. O argumento “é só uma ferramenta” costuma surgir exatamente quando se quer evitar discutir dependência, concentração de poder e empobrecimento do pensamento.
Os professores frequentemente ridicularizados nessas analogias não estavam combatendo o futuro. Defendiam algo elementar: primeiro compreender, depois automatizar. Primeiro aprender, depois delegar. A tecnologia não deveria substituir o esforço intelectual antes que ele se formasse. Essa intuição continua válida — talvez mais do que nunca.
Hoje, em ambientes educacionais, profissionais e institucionais, a inversão virou rotina. A resposta surge antes da pergunta bem formulada. O texto aparece antes da leitura. O parecer vem antes da análise.
“Pergunta ao ChatGPT” tornou-se gesto automático, socialmente aceito, confortável. O problema é que esse conforto tem custo.
Estamos delegando o juízo a sistemas que não sabem o que dizem, não respondem pelo que afirmam e não sofrem consequências por seus erros. Quando erram, ninguém é responsável. Quando acertam, o mérito é apropriado. A inteligência artificial se torna, então, um modelo perfeito de irresponsabilidade distribuída.
No fundo, o debate não é sobre medo da tecnologia. É sobre disposição para pensar. Sobre a tentação de trocar reflexão por conveniência, critério por fluência, autoria por conforto. A IA não ameaça porque pensa demais, mas porque estamos cada vez mais dispostos a não pensar.
E sociedades que aceitam atalhos permanentes acabam abrindo mão não apenas de habilidades, mas de autonomia intelectual. Esse é o ponto cego que a analogia fácil insiste em esconder.
* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.

