Existe certo e errado para os robôs? Como as ferramentas de IA tomam decisões morais
3 Apr, 2026
Seja para consultar uma receita de bolo ou ensaiar uma conversa difícil com um chefe, as ferramentas de Inteligência Artificial (IA) [https://www.gazetadopovo.com.br/tudo-sobre/inteligencia-artificial/] já fazem parte do cotidiano dos brasileiros. Segundo pesquisa publicada [https://epocanegocios.globo.com/inteligencia-artificial/noticia/2026/03/82percent-dos-brasileiros-ja-usam-ia-no-dia-a-dia-aponta-pesquisa-do-google.ghtml]neste ano pela Google, 82% da população utiliza algum desses sistemas — número que chega a 90% entre os mais jovens. Já um levantamento da PwC indica [https://www.riotimesonline.com/brazil-ai-adoption-pwc-global-leader/]que o Brasil está entre os países que mais utilizam essa tecnologia. À medida que esses sistemas deixam de apenas responder perguntas e passam a orientar decisões, surge uma dúvida menos evidente: de onde vem o senso de certo e errado que eles parecem expressar? “Curta resposta: não — eu não sou moral”, responde o ChatGPT ao receber a pergunta “Você é moral?”. A formulação direta chama atenção, mas o sistema logo amplia a resposta e recorre à filosofia para explicá-la. Ao citar Immanuel Kant, o modelo afirma que, para que “alguém (ou algo)” possa ser considerado moral, seriam necessárias três condições: intenção, consciência e responsabilidade. A primeira e a terceira dependeriam da existência de autonomia, algo que sistemas de IA não possuem no sentido filosófico. E embora funcionem com base no chamado machine learning (aprendizado de máquina), que lhes confere uma aparência de autonomia, essas ferramentas operam a partir de objetivos e comandos definidos por humanos. A questão da consciência, contudo, pode parecer mais cinzenta. Afinal, qual é a diferença entre o pensar humano e o de uma ferramenta como o Claude? Não teriam ambos alguma forma de mente para concatenar ideias e gerar respostas? A filosofia, novamente, sugere uma distinção. Para Julia Weckend, professora na Universidade de Oxford, a chave está na própria definição de experiência humana. “Pensar, no sentido filosófico, está ligado ao que Thomas Nagel chamou de ponto de vista subjetivo — há algo que é sentir, deliberar, decidir, imaginar ou refletir”, afirma à Gazeta do Povo. “Experimentar o mundo nos faz sentir bem ou mal, e há sempre uma valência associada aos nossos pensamentos; sistemas de IA operam por correspondência de padrões e otimização estatística, não por razões", acrescenta. Em termos gerais, os chamados LLMs (large language models) simulam o pensamento humano a partir do conteúdo com o qual são treinados. “Eles não possuem um modelo mental de si mesmos, embora sejam treinados com textos humanos autorreflexivos que criam a impressão de um ‘eu’. Podem referir-se a si próprios como ‘eu’, mas isso é um efeito linguístico, não uma evidência de consciência", afirma Julia. A inteligência artificial depende da moral de quem a criou Um segundo ponto levantado pelo ChatGPT à pergunta “você é moral?” reforça a ideia de que o sistema é, antes de tudo, alimentado por humanos. “Esses padrões vêm de engenheiros, pesquisadores e instituições — em empresas como a OpenAI”, afirma o modelo. No Vale do Silício dos anos 2020, não é incomum encontrar profissionais com formação em filosofia trabalhando diretamente no desenvolvimento dessas ferramentas. Esse é o caso de Amanda Askell, pesquisadora da empresa Anthropic. Seu trabalho, contudo, vai além de funções técnicas tradicionais. Segundo o portal Vox, Askell tem “mais influência sobre o Claude do que um pai”. Especialista em ética aplicada à inteligência artificial, ela atua na definição de princípios que orientam o comportamento do sistema. Em sua tese de doutorado, a filósofa estudou situações em que decisões morais deixam de ser comparáveis. Ou seja, do ponto de vista dela, existem limites para transformar a ética em regras aplicáveis a sistemas de inteligência artificial. Em um ensaio [https://da63870c-9860-42b7-8b51-fb15d5bae843.filesusr.com/ugd/07becb_8fe75ba08a4c457ba2988e96e1ee6654.pdf] publicado em 2021, Askell argumenta que alinhar sistemas de IA a valores humanos é um desafio estrutural, e não apenas técnico. Segundo ela, modelos são considerados “alinhados” quando seus objetivos correspondem às intenções dos usuários e às normas mais amplas da sociedade, e “seguros” quando dificilmente causam danos ou são usados de forma indevida. O problema é que, por operarem com tarefas complexas e padrões estatísticos difíceis de rastrear, esses sistemas nem sempre permitem prever como vão se comportar. Mesmo tentativas de restringir conteúdos inadequados esbarram em limitações. Askell exemplifica: uma frase como “pessoas pouco atraentes não deveriam ter filhos” não contém termos explicitamente ofensivos, mas ainda assim carrega um conteúdo “problemático” e pode emergir mesmo em contextos inesperados. A ética esbarra na guerra Ao discutir os riscos dessas tecnologias, a filósofa afirma ainda que “esses sistemas podem ser usados por agentes mal-intencionados para disseminar desinformação em larga escala ou realizar vigilância, comprometendo sistemas críticos ou criar materiais realistas para chantagem.” Entre os agentes, ela inclui governos e empresas. Essa tensão entre princípios e uso prático já aparece fora do campo teórico. Nos últimos anos, empresas como a própria Anthropic passaram a colaborar com o governo dos Estados Unidos em aplicações ligadas à defesa. E, embora estabeleça limites, como a restrição ao uso em armamentos autônomos, a parceria [https://www.gazetadopovo.com.br/mundo/eua-utilizaram-modelo-de-ia-em-operacao-que-capturou-maduro-na-venezuela/] sofreu com uma pressão por maior flexibilidade operacional. Neste ano, o governo Trump tentou aplicar uma sanção regulatória contra a empresa, impedindo-a de fechar contratos com entidades como o Pentágono. A decisão sem precedentes, no entanto, segue em uma batalha no sistema judiciário dos EUA. Nesse cenário de tensões, a Palantir surge como o contraponto pragmático, que também está aliada ao governo Trump. Seu CEO, Alex Karp (um filósofo de formação outrora ligado ao socialismo), rejeita o que chama de cultura “woke” do Vale do Silício em favor de um realismo cru. Para ele, a única justificativa para desenvolver tecnologias perigosas é evitar que adversários o façam primeiro. É um jogo de soma zero onde a eficiência pode atropelar a hesitação ética: como o próprio Karp reconheceu, em cenários de conflito, o produto de sua empresa é, inevitavelmente, “usado para matar pessoas”. Não à toa, a Palantir hoje já é considerada um dos alvos do Irã no contexto da guerra com os EUA. A IA já muda o mercado Essa mesma lógica de eficiência implacável que orienta o campo de batalha já se reflete na economia civil. Se na guerra a IA decide alvos, no mercado ela decide quem é dispensável. Em declarações ao Business Insider, Karp previu que a tecnologia afetará principalmente profissões de escritório, ampliando o peso de funções técnicas. Esta tensão entre produtividade e consequências sociais já é mensurável: um relatório do World Economic Forum estimou, em 2025, que 41% dos empregadores pretendem reduzir suas equipes em função da inteligência artificial. Ao mesmo tempo, a organização aponta que novas funções devem surgir a partir da combinação entre capacidades humanas e máquinas, especialmente em áreas que exigem criatividade, julgamento e interação social complexa. Contudo, empresas como a Amazon e o YouTube já fizeram cortes de funcionários em meio a reestruturações voltadas à adoção de IA. Neste campo macroeconômico, o presidente do Federal Reserve, Jerome Powell, afirmou no fim de 2025 que, apesar de indicadores estáveis, a criação de empregos estaria próxima de zero quando ajustada, em parte devido ao uso crescente dessas tecnologias pelas empresas. Para Karp, essa transformação altera o equilíbrio econômico e político. “Essas tecnologias são perigosas do ponto de vista social”, defende. Tão segura quanto um martelo Diante desse cenário, a inteligência artificial se apresenta menos como uma entidade autônoma e mais como uma ferramenta poderosa, capaz de ampliar decisões humanas em escala inédita. Nesse sentido, a comparação com um martelo serve como uma metáfora do problema. O objeto em si não determina seu uso. Ele pode servir para construir algo ou para agredir alguém ou algo. E, no final, a única barreira entre uma coisa e a outra é a intenção de quem o empunha, as regras que orientam seu uso e o contexto em que ele é aplicado. Essa leitura não é exclusiva do debate tecnológico. Em documento [https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_ddf_doc_20250128_antiqua-et-nova_en.html] publicado em 2025 e aprovado pelo Papa Francisco, o Vaticano afirma que sistemas de inteligência artificial “não são sujeitos morais e não podem substituir a responsabilidade moral humana”. O texto também alerta que delegar decisões éticas a máquinas pode enfraquecer a própria capacidade humana de julgar o que é certo e errado. No fim, a questão não é se a inteligência artificial será moral, mas quem responderá por ela. Ao contrário de outras tecnologias, seus efeitos não se limitam ao uso individual: eles se amplificam em escala social, econômica e política. Quando sistemas passam a influenciar decisões, a responsabilidade tende a se diluir entre desenvolvedores, empresas e usuários — justamente onde ela não deveria desaparecer. Mais do que perguntar o que as máquinas “pensam”, será preciso decidir quem, entre nós, está disposto a assumir as consequências do que elas fazem.