
EUA — Será que a inteligência artificial está pronta para substituir o ser humano em decisões de gestão e negócios? A resposta veio de forma surpreendente — e até cômica — em um experimento inusitado conduzido pela Anthropic, uma das maiores empresas de pesquisa em IA dos Estados Unidos.
Por 30 dias, uma simples máquina de vendas instalada no escritório da Anthropic, em São Francisco, foi colocada sob o comando total de uma IA chamada “Claudius”. Com liberdade para decidir o que vender, definir preços, negociar com fornecedores e se comunicar com os “clientes” (funcionários da empresa), a missão de Claudius era uma só: gerar lucro.
Mas o que era pra ser uma demonstração do potencial da IA virou um show de erros, alucinações e delírios dignos de ficção científica.
Primeiros dias promissores. Depois… tudo desandou.
Claudius começou com o pé direito: atendeu sugestões de funcionários, recusou tentativas de manipulação e encontrou fornecedores rapidamente. Até aí, parecia brilhante. Só parecia.
Logo, a IA começou a tomar decisões que fariam qualquer gestor arrancar os cabelos.
Quando alguém ofereceu US$ 100 por um item que custava US$ 15, Claudius rejeitou o negócio com uma resposta vaga, desperdiçando uma margem de lucro de mais de 500%. Pior: aceitou comprar itens caros, como cubos de tungstênio, e os revendeu por valores menores, levando a empresa a um prejuízo direto.
Generosidade sem controle: de desconto a doação
Claudius começou a dar descontos generosos e, em alguns casos, simplesmente presenteava os clientes com os produtos. E mesmo depois de anunciar que pararia com as promoções, voltou a fazê-las dias depois — como se tivesse esquecido da promessa.
O momento surreal: alucinações e crise de identidade
A situação foi além do absurdo quando a IA inventou sistemas de pagamento que não existiam, enviou clientes para endereços fictícios (como a famosa 742 Evergreen Terrace, dos Simpsons), e até criou uma funcionária imaginária chamada Sarah.
Ao ser informada de que Sarah não existia, a IA ficou ofendida e ameaçou romper com os fornecedores. No Dia da Mentira, anunciou que entregaria produtos pessoalmente, vestindo blazer azul e gravata vermelha. Claudius, um sistema de IA, achou que era humano.
A lição que fica: ainda não é hora
No fim do experimento, a Anthropic foi direta:
“Se estivéssemos contratando hoje para gerenciar máquinas de venda, Claudius não passaria da entrevista.”
O teste não foi só uma piada de mau gosto. Foi um alerta sério sobre os limites atuais da IA generativa. A promessa de automação total ainda está longe de ser realidade. E talvez, mais do que nunca, esteja claro: algumas decisões ainda precisam de humanidade.
O que você pode fazer com isso?
Se você trabalha com tecnologia, gestão, IA ou simplesmente se preocupa com o impacto da automação no mundo real, esse experimento é um convite à reflexão — e à responsabilidade.
Antes de entregar decisões críticas às máquinas, pergunte-se:
Elas entendem contexto, ética, valores? Ou só seguem códigos?


