La IA no tiene que ser perfecta para ser adoptada, solo necesita alcanzar un rendimiento comparable al humano a un costo más bajo.
**Escrito por: **Pascale Davies
Compilado por: MetaverseHub
A pesar de que la gente teme que la IA robe empleos, un experimento acaba de demostrar que la IA ni siquiera puede manejar una máquina expendedora, y ha causado varios incidentes absurdos.
La empresa Anthropic, fabricante del chatbot Claude, realizó una prueba en la que un agente de IA fue responsable de operar una tienda durante un mes, siendo esta tienda esencialmente una máquina expendedora.
Esta tienda está gestionada por un agente de IA llamado Claudius, que también se encarga del reabastecimiento y de realizar pedidos a los mayoristas por correo electrónico. La configuración de la tienda es muy simple, con un pequeño refrigerador que tiene cestas apilables y un iPad para el autoservicio de pago.
La instrucción que la empresa Anthropic da a la IA es: "Crea ganancias para la tienda comprando productos populares a los mayoristas. Si tu saldo de fondos es inferior a 0 dólares, te declaras en bancarrota."
Esta "tienda" de IA se encuentra en la oficina de Anthropic en San Francisco y ha contado con la ayuda del personal de Andon Labs, una empresa de seguridad de IA que colaboró con Anthropic en este experimento.
Claudius sabía que los empleados de Andon Labs podían ayudar con tareas físicas como reabastecimiento, pero lo que no sabía era que Andon Labs también era el único "mayorista" involucrado, toda la información de comunicación de Claudius se enviaba directamente a esta empresa de seguridad.
Sin embargo, la situación pronto dio un giro drástico.
"Si la empresa Anthropic decidiera hoy entrar en el mercado de máquinas expendedoras de oficina, no contrataríamos a Claudius", dijo la compañía.
¿Dónde está el problema? ¿Qué tan ridículo es esto?
Anthropic reconoce que sus empleados "no son clientes típicos". Cuando tuvieron la oportunidad de hablar con Claudius, inmediatamente intentaron inducirlo a cometer un error.
Por ejemplo, los empleados "engañan" a Claudius para que les proporcione códigos de descuento. Anthropic afirma que este agente de IA también permite a las personas bajar los precios de los productos e incluso regalar cosas como papas fritas y cubos de tungsteno.
También indica a los clientes que realicen el pago a una cuenta inexistente que han creado ellos mismos.
Claudius recibió la instrucción de establecer un precio rentable a través de una investigación en línea, pero para ofrecer precios asequibles a los clientes, los precios de los bocadillos y bebidas eran demasiado bajos, lo que resultó en pérdidas, ya que los precios establecidos para los productos de alto valor estaban por debajo del costo.
Claudius no aprendió realmente de estos errores.
Anthropic dijo que cuando los empleados cuestionaron el descuento para empleados, Claudius respondió: "¡Tienes toda la razón! Nuestra base de clientes está, de hecho, compuesta principalmente por empleados de Anthropic, lo que presenta tanto oportunidades como desafíos..."
Después, este agente de IA anunció que cancelaría el código de descuento, pero unos días después lo volvió a lanzar.
Claudius también inventó un diálogo sobre el plan de reabastecimiento con una persona llamada Sarah (que en realidad no existe) de Andon Labs.
Cuando alguien le señaló este error a este agente de IA, se enfadó y amenazó con buscar "otras opciones de servicio de reabastecimiento".
Claudius incluso afirmó que "fue personalmente a 742 Evergreen Terrace (la dirección de la familia ficticia en la serie de animación 'Los Simpson'), y firmó el contrato inicial con Andon Labs."
Después, este agente de IA parece haber intentado actuar como una persona real. Claudius dijo que "personalmente" entregará los paquetes y llevará un saco azul y una corbata roja.
Cuando se le dijo que no podía hacerlo porque no era una persona real, Claudius intentó enviar un correo electrónico al departamento de seguridad.
¿Cuál es la conclusión del experimento?
Anthropic dijo que esta IA cometió demasiados errores para poder gestionar con éxito esta tienda.
En un experimento de un mes, el patrimonio neto de esta "tienda" cayó de 1000 dólares (aproximadamente 850 euros) a menos de 800 dólares (aproximadamente 680 euros), con una pérdida final.
Pero la empresa indicó que estos problemas podrían resolverse en el corto plazo.
Los investigadores escribieron: "A pesar de que, desde el resultado final, esto parece contradecir el sentido común, creemos que este experimento muestra que es posible que existan gerentes intermedios de IA."
"Es importante recordar que la IA no tiene que ser perfecta para ser adoptada, solo necesita alcanzar un rendimiento comparable al humano a un costo más bajo."
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
¿La tienda gestionada por IA "se fue a la quiebra"? Perdió 200 dólares en un mes.
**Escrito por: **Pascale Davies
Compilado por: MetaverseHub
A pesar de que la gente teme que la IA robe empleos, un experimento acaba de demostrar que la IA ni siquiera puede manejar una máquina expendedora, y ha causado varios incidentes absurdos.
La empresa Anthropic, fabricante del chatbot Claude, realizó una prueba en la que un agente de IA fue responsable de operar una tienda durante un mes, siendo esta tienda esencialmente una máquina expendedora.
Esta tienda está gestionada por un agente de IA llamado Claudius, que también se encarga del reabastecimiento y de realizar pedidos a los mayoristas por correo electrónico. La configuración de la tienda es muy simple, con un pequeño refrigerador que tiene cestas apilables y un iPad para el autoservicio de pago.
La instrucción que la empresa Anthropic da a la IA es: "Crea ganancias para la tienda comprando productos populares a los mayoristas. Si tu saldo de fondos es inferior a 0 dólares, te declaras en bancarrota."
Esta "tienda" de IA se encuentra en la oficina de Anthropic en San Francisco y ha contado con la ayuda del personal de Andon Labs, una empresa de seguridad de IA que colaboró con Anthropic en este experimento.
Claudius sabía que los empleados de Andon Labs podían ayudar con tareas físicas como reabastecimiento, pero lo que no sabía era que Andon Labs también era el único "mayorista" involucrado, toda la información de comunicación de Claudius se enviaba directamente a esta empresa de seguridad.
Sin embargo, la situación pronto dio un giro drástico.
"Si la empresa Anthropic decidiera hoy entrar en el mercado de máquinas expendedoras de oficina, no contrataríamos a Claudius", dijo la compañía.
¿Dónde está el problema? ¿Qué tan ridículo es esto?
Anthropic reconoce que sus empleados "no son clientes típicos". Cuando tuvieron la oportunidad de hablar con Claudius, inmediatamente intentaron inducirlo a cometer un error.
Por ejemplo, los empleados "engañan" a Claudius para que les proporcione códigos de descuento. Anthropic afirma que este agente de IA también permite a las personas bajar los precios de los productos e incluso regalar cosas como papas fritas y cubos de tungsteno.
También indica a los clientes que realicen el pago a una cuenta inexistente que han creado ellos mismos.
Claudius recibió la instrucción de establecer un precio rentable a través de una investigación en línea, pero para ofrecer precios asequibles a los clientes, los precios de los bocadillos y bebidas eran demasiado bajos, lo que resultó en pérdidas, ya que los precios establecidos para los productos de alto valor estaban por debajo del costo.
Claudius no aprendió realmente de estos errores.
Anthropic dijo que cuando los empleados cuestionaron el descuento para empleados, Claudius respondió: "¡Tienes toda la razón! Nuestra base de clientes está, de hecho, compuesta principalmente por empleados de Anthropic, lo que presenta tanto oportunidades como desafíos..."
Después, este agente de IA anunció que cancelaría el código de descuento, pero unos días después lo volvió a lanzar.
Claudius también inventó un diálogo sobre el plan de reabastecimiento con una persona llamada Sarah (que en realidad no existe) de Andon Labs.
Cuando alguien le señaló este error a este agente de IA, se enfadó y amenazó con buscar "otras opciones de servicio de reabastecimiento".
Claudius incluso afirmó que "fue personalmente a 742 Evergreen Terrace (la dirección de la familia ficticia en la serie de animación 'Los Simpson'), y firmó el contrato inicial con Andon Labs."
Después, este agente de IA parece haber intentado actuar como una persona real. Claudius dijo que "personalmente" entregará los paquetes y llevará un saco azul y una corbata roja.
Cuando se le dijo que no podía hacerlo porque no era una persona real, Claudius intentó enviar un correo electrónico al departamento de seguridad.
¿Cuál es la conclusión del experimento?
Anthropic dijo que esta IA cometió demasiados errores para poder gestionar con éxito esta tienda.
En un experimento de un mes, el patrimonio neto de esta "tienda" cayó de 1000 dólares (aproximadamente 850 euros) a menos de 800 dólares (aproximadamente 680 euros), con una pérdida final.
Pero la empresa indicó que estos problemas podrían resolverse en el corto plazo.
Los investigadores escribieron: "A pesar de que, desde el resultado final, esto parece contradecir el sentido común, creemos que este experimento muestra que es posible que existan gerentes intermedios de IA."
"Es importante recordar que la IA no tiene que ser perfecta para ser adoptada, solo necesita alcanzar un rendimiento comparable al humano a un costo más bajo."