Tatiana Sendin analisa como o uso da inteligência artificial no trabalho pode enfraquecer etapas decisivas da formação profissional, do pensamento crítico e da capacidade de julgamento

“Carregar caixa”, durante muito tempo, foi uma metáfora útil para falar de formação profissional, especialmente no início da carreira. Galgar os degraus da trajetória é o que garante aprendizado, experiência e conhecimento implícito. Quem já esteve na operação tende a decidir melhor porque conhece o atrito da realidade, o tempo das entregas e o peso concreto das tarefas.
“Carregar caixa”, ou “colocar a mão na massa”, são expressões herdadas da era do serviço braçal, mas que ainda fazem sentido em tempos de trabalho intelectual. A diferença é que agora estamos terceirizando essas etapas formadoras para a inteligência artificial. E isso pode nos custar algo menos visível – e talvez mais importante – do que autonomia: critério.
Não é de hoje que passamos para as máquinas tarefas que estávamos habituados a fazer. Delegamos a busca de informação aos mecanismos online, a navegação ao GPS, a convivência social às plataformas. Com a inteligência artificial generativa, o salto é outro: começamos a transferir não apenas a procura por conhecimento ou o caminho até um lugar, mas o esforço de formar um raciocínio.
É esse deslocamento que torna a discussão sobre experiência mais séria.
Da forma como é divulgada, a IA no ambiente de trabalho é sedutora. Ela entrega velocidade, praticidade e uma sensação quase hipnótica de produtividade. Em alguns casos, essa entrega é real.
Mas resposta rápida não é sinônimo de entendimento. Um modelo de linguagem (LLM) pode prever a próxima palavra com fluidez impressionante, mas isso não significa que compreenda o que está dizendo, muito menos que quem o usa tenha desenvolvido visão, bagagem ou discernimento.
Ganhos de desempenho não devem ser confundidos com aprendizagem. A inteligência artificial pode melhorar a entrega, isso é fato. Ainda assim, não quer dizer que a IA desenvolva, por si só, o processo cognitivo que sustenta essa entrega.
O problema é que essa lógica – que confunde agilidade com eficiência – já começa a contaminar decisões nas empresas.
Nas comunidades de recursos humanos, a sensação é que a liderança está mais fria, pragmática e mecanizada com a IA. Há relatos de especialistas de RH contestados por executivos porque suas análises divergiam das respostas dadas pela ferramenta. Em outros casos, clientes chegam a consultores com “respostas prontas”, inclusive em temas jurídicos, e resistem a aceitar a orientação humana.
A confiança na inteligência artificial é tanta que surgem casos de pacientes seguindo orientações de saúde geradas pela máquina sem perceber que elas podem estar erradas, incompletas ou até agravar o quadro.
O ponto em comum entre esses episódios é o rebaixamento do valor da experiência humana. Respostas produzidas com fluidez e convicção suficientes podem soar mais corretas que o julgamento de uma pessoa quando não temos o conhecimento adequado.
Estudos recentes sugerem uma relação entre maior uso da IA e menor cognição – o conjunto de processos mentais conscientes que se baseiam em experiências sensoriais, pensamentos, representações e recordações. Quanto mais automática vira a relação com a ferramenta, menor tende a ser o esforço de pensar com profundidade e questionar.
Uma pesquisa da Microsoft Research com 319 trabalhadores do conhecimento indica justamente isso. Quando a ferramenta é tratada como autoridade pronta, caem as habilidades de perceber, julgar, memorizar e raciocinar. Já quando a pessoa confia mais na própria capacidade de decisão, o pensamento crítico aparece mais.
Outra pesquisa, com 580 universitários chineses, encontrou associação entre maior dependência de IA, menor pensamento crítico e mais fadiga cognitiva. O recado é simples: quando a conveniência vira hábito, ela pode enfraquecer justamente a musculatura mental que deveria ser treinada.
Isso não significa tratar a tecnologia como inimiga. A evolução tecnológica faz parte do progresso. O alerta é outro: nenhuma ferramenta deveria substituir nossa capacidade de julgamento, análise e questionamento.
É aqui que a conversa sobre carreira fica mais interessante – e mais incômoda.
Em muitos trabalhos intelectuais, as tarefas consideradas básicas sempre tiveram um papel decisivo. Eram o treino invisível do discernimento, o aprendizado na prática. O erro que dói, mas lapida o conhecimento. A tarefa exaustiva de pensar, buscar respostas, encontrar soluções.
Quando essas etapas passam a ser terceirizadas cedo demais para a IA, o profissional pode até ganhar velocidade, mas perde a oportunidade de formar bagagem. E sem bagagem não há boa avaliação, apenas entrega convincente e, muitas vezes, mecânica.
Eu sinto esse risco de forma particularmente aguda porque venho de uma formação profissional em que ninguém pulava etapas. No jornalismo, a gente começa como repórter júnior. É designado para acompanhar os piores horários, cobrir eventos menos interessantes, trabalhar em feriados. Eu apurei notícias, organizei informação, escrevi e reescrevi, lidei com prazo, erro e pressão.
Em outras palavras, “carreguei caixa”, “comi capim”, “pastei” – termos usados à época. Não era glamour. Era formação. Subi de cargo e evoluí nas tarefas com a ajuda de computador e internet, sim, mas sem copiloto artificial.
É justamente por ter passado por esse processo raiz que hoje me sinto confortável para usar IA com segurança. Aprendi antes a fazer sem ela. Só consigo analisar se alguém escreve bem ou mal porque aprendi a escrever. Só consigo revisar um argumento porque já organizei informação e comparei versões. É essa experiência que me permite utilizar a IA como apoio, não como decisora.
Esse risco de pular etapas é particularmente sério para os mais jovens. Como desenvolver pensamento crítico se terceirizarem cedo demais para a máquina justamente o esforço mental que deveria formar esse pensamento?
A questão muda de escala com a progressão na carreira. O jovem que hoje não forma conhecimento de base suficiente pode amanhã se tornar um gestor com menos capacidade de julgamento para reconhecer qualidade, corrigir rota e distinguir profundidade de aparência.
Quando um líder se acostuma a decidir a partir de resumos prontos, análises terceirizadas e respostas dadas com convicção por uma máquina que nada mais faz do que colocar uma palavra após a outra, ele pode até parecer eficiente, mas corre o risco de perder contato com a complexidade do que está decidindo.
Nesse cenário, o desafio do RH fica maior. A área precisa capacitar profissionais e lideranças, definir regras e criar critérios para o bom uso da nova tecnologia. Ao mesmo tempo, precisa preservar o aprendizado de base, aquele que forma conhecimento e sustenta a capacidade de resolução. E deve fazer isso em um contexto em que sua própria análise já começa a ser questionada e preterida por respostas produzidas pela inteligência artificial.
A IA pode, sim, ampliar produtividade e apoiar decisões. O problema começa quando ela deixa de ser apoio e passa a funcionar como atalho para pular etapas formadoras – e quando suas respostas prontas são colocadas à frente da vivência humana.
Nenhuma liderança se sustenta apenas em respostas rápidas. Nenhum profissional aprende terceirizando cedo demais o trabalho que o ensinaria a pensar. No trabalho intelectual, “carregar caixa” também existe – ou deveria existir.



