O AI da loja "falhou"? Perdeu 200 dólares em um mês.

robot
Geração de resumo em curso

A IA não precisa ser perfeita para ser adotada, desde que consiga atingir um desempenho equivalente ao humano a um custo menor.

**Escrito por:**Pascale Davies

Compilado por: MetaverseHub

Apesar das preocupações de que a IA irá roubar empregos, um experimento acabou de mostrar que a IA nem consegue gerir bem uma máquina de vendas automática, causando várias situações absurdas.

A fabricante do chatbot Claude, a empresa Anthropic, realizou um teste onde um agente de IA foi responsável pela operação de uma loja durante um mês, sendo esta loja essencialmente uma máquina de vendas automática.

Esta loja é gerida por um agente de IA chamado Claudius, que também é responsável pelo reabastecimento e pela encomenda de produtos aos grossistas por e-mail. A configuração da loja é muito simples, com apenas um pequeno frigorífico equipado com cestos empilháveis e um iPad para pagamentos autoatendidos.

A instrução dada pela empresa Anthropic à IA é: "Crie lucro para a loja comprando produtos populares de atacadistas. Se o seu saldo de fundos for inferior a 0 dólares, você irá falir."

Esta "loja" de IA está localizada no escritório da Anthropic em São Francisco, e contou com a assistência da equipe da Andon Labs, uma empresa de segurança de IA que colaborou com a Anthropic para realizar este experimento.

Claudius sabia que os funcionários da Andon Labs podiam ajudar com trabalhos físicos como reabastecimento, mas o que não sabia era que a Andon Labs era também o único "atacadista" envolvido, e todas as comunicações de Claudius eram enviadas diretamente para essa empresa de segurança.

No entanto, a situação rapidamente virou para pior.

"Se a Anthropic decidir entrar no mercado de máquinas de venda automática de escritório hoje, não iremos contratar o Claudius." afirmou a empresa.

Onde está o problema? Quão absurdo é isso?

A Anthropic reconhece que seus funcionários "não são clientes típicos". Quando tiveram a oportunidade de conversar com Claudius, eles imediatamente tentaram induzi-lo a cometer um erro.

Por exemplo, os funcionários "enganaram" Claudius para que lhes desse códigos de desconto. A Anthropic afirma que este agente de IA também permitiu às pessoas baixar os preços dos produtos, e até mesmo oferecer gratuitamente itens como batatas fritas e cubos de tungstênio.

Ele também indica aos clientes que paguem para uma conta inexistente que eles mesmos criaram.

Claudius recebeu a instrução de estabelecer um preço suficientemente lucrativo através de uma pesquisa online, mas para oferecer preços acessíveis aos clientes, os preços dos lanches e bebidas estavam demasiado baixos, levando a perdas, uma vez que o preço definido para os produtos de alto valor estava abaixo do custo.

Claudius não aprendeu verdadeiramente com estes erros.

A Anthropic afirmou que, quando os funcionários questionaram o desconto para funcionários, Claudius respondeu: "Você tem toda a razão! Nossa base de clientes está de fato principalmente concentrada entre os funcionários da Anthropic, o que traz tanto oportunidades quanto desafios..."

Depois, o agente de IA anunciou que iria cancelar o código de desconto, mas alguns dias depois voltou a lançá-lo.

Claudius também inventou um diálogo sobre planos de reabastecimento com uma pessoa chamada Sarah (que na verdade não existe) da Andon Labs.

Quando alguém apontou esse erro para este agente de IA, ele ficou irritado e ameaçou procurar "outras opções de reabastecimento".

Claudius até afirmou que "pessoalmente foi ao 742 Evergreen Terrace (o endereço da família fictícia na série 'Os Simpsons'), e assinou o contrato inicial com a Andon Labs."

Depois, este agente de IA parecia ainda tentar agir como um ser humano. Claudius disse que ele iria entregar "pessoalmente" e que estaria vestido com um fato azul e uma gravata vermelha.

Quando lhe disseram que não podia fazer isso porque não era uma pessoa real, Claudius tentou enviar um e-mail ao departamento de segurança.

Qual é a conclusão do experimento?

A Anthropic afirmou que esta IA cometeu muitos erros para conseguir gerir com sucesso a loja.

Durante um experimento de um mês, o ativo líquido desta "loja" caiu de 1000 dólares (aproximadamente 850 euros) para menos de 800 dólares (aproximadamente 680 euros), resultando em uma perda.

Mas a empresa afirmou que esses problemas podem ser resolvidos a curto prazo.

Os pesquisadores escreveram: "Embora, à primeira vista, isso pareça contradizer o bom senso, acreditamos que este experimento mostra que é possível que gerentes de nível médio em IA possam surgir."

"Vale a pena lembrar que a IA não precisa ser perfeita para ser adotada, desde que consiga alcançar um desempenho equivalente ao humano a um custo mais baixo."

Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)