A engenharia de prompts morreu?

admin
14 Apr, 2026
Exercício em sala de aula da ESPM comparou resultados de prompts simples e detalhados para a mesma foto Reprodução Você sabia que a habilidade de construir bons e detalhados comandos para LLMs - os grandes modelos de linguagem como ChatGPT , Claude , Gemini e afins - é um tema polêmico? A chamada "engenharia de prompts" era hype até pouco tempo atrás mas, agora, em certos fóruns, é quase como ensinar datilografia. Pois é. Você piscou o olho e pfsssiuuu: surge um FOMO - aquele medo de perder alguma novidade - sobre um assunto que você nem sabia o que era no início desse texto mas que agora já está gerando ansiedade. Aí, no meio desse parágrafo, você descobre que já não precisa saber nada daquilo e, no final dessa linha, respira com alívio ao ler que o que você precisava aprender "já era". Quer dizer, mais ou menos. É um exemplo clássico da velocidade das mudanças que não surpreendem ninguém porque não dá nem tempo de entender o suficiente para gerar surpresa. O fato é que o avanço dos modelos de inteligência artificial deixa qualquer conhecimento escrito "em pedra" sobre o assunto meio esquisito. E todo especialista em novidades que concentra seu conteúdo em ferramenta fica completamente vendido toda semana. Quando o assunto é prompt, neste abril de 2026, o que "pega" é falar em otimização automatizada e arquiteturas de recuperação orquestradas por agentes. Mas na semana passada, durante a segunda aula da Formação em Gestão de IA da ESPM , resolvi fazer um teste real. Como os incas, ensinei o método AIM (Ator, Input e Missão), depois o MAAP (Memória, Assets, Ação e Prompt), aí fomos para refinamento cruzado, few-shot prompting, cadeia de pensamento e tal. Mas, antes de tudo isso, fiz o disclaimer que estou explicando aqui: disse com todas as letras que a engenharia de prompts como funcionava no passado já não é tão efetiva porque os modelos estão tão inteligentes, com contextos tão grandes, que deduzem o que o seu cérebro paleolítico precisa com bastante precisão -- sem que você escreva um prompt gigantesco nem precise mandar o modelo se comportar como um "programador experiente". Depois fomos para os exercícios. Pedi que tirassem uma selfie para transformar em foto de perfil do LinkedIn. Todos fizeram seus pedidos num prompt basicão. Depois, pedi para passarem a mesma imagem num prompt longo e detalhado que esmiuçava uma produção de estúdio fotográfico profissional. Pedi para compararem os resultados. Uma ou outra pessoa preferiu o resultado do prompt genérico. Apesar do meu desespero docente naquele momento, entendo que aí é gosto e gosto não se discute. Mas o intuito pedagógico foi atingido: queria provar que um prompt bem feito ainda faz diferença. Ou seja, por mais que as IAs "melhorem" e nos entreguem resultados excelentes a partir de cada vez menos esforço e pensamento humano, entender o processo e se forçar a aprender a estrutura por trás de bons comandos ainda é uma habilidade válida. Esse esforço de pensar um prompt maior, esse atrito, essa recusa do resultado "padrão" que a IA entrega é o que nos manterá relevantes. Ah, e uma ou outra aulinha de datilografia também não faria mal a ninguém.