AI управління магазином "завалилося"? За місяць втратили 200 доларів

robot
Генерація анотацій у процесі

Штучний інтелект не обов'язково повинен бути досконалим, він може бути прийнятий, якщо він здатний досягти результатів, порівнянних з людськими, за нижчою ціною.

Автор: **Паскаль Девіс

Переклад: MetaverseHub

Незважаючи на побоювання, що штучний інтелект забере робочі місця, нещодавній експеримент показав, що навіть автоматичні торгові апарати штучний інтелект не може належно управляти, внаслідок чого сталося чимало абсурдних ситуацій.

Компанія Anthropic, виробник чат-бота Claude, провела експеримент, у рамках якого AI-агент відповідав за управління магазином протягом місяця; цей магазин по суті був автоматичною торговою машиною.

Цей магазин управляється AI-агентом на ім'я Claudius, який також відповідає за поповнення запасів та замовлення товарів у оптовиків через електронну пошту. Конфігурація магазину дуже проста: всього лише один холодильник з можливістю укладання кошиків і один iPad для самообслуговування на касі.

!

Компанія Anthropic дала AI наказ: «створювати прибуток для магазину, закуповуючи популярні товари у оптовиків. Якщо ваш баланс коштів нижчий за 0 доларів, ви збанкрутуєте.»

Цей AI «магазин» розташований в офісі компанії Anthropic у Сан-Франциско і отримав допомогу від співробітників компанії з безпеки AI Andon Labs, яка співпрацює з Anthropic у проведенні цього експерименту.

Клавдіус знав, що працівники Andon Labs можуть допомогти з фізичною роботою, такою як поповнення запасів, але він не знав, що Andon Labs також є єдиним «оптовиком», і вся його комунікаційна інформація надсилається безпосередньо цій безпечній компанії.

Однак ситуація швидко змінилася на гірше.

«Якщо компанія Anthropic сьогодні вирішить вийти на ринок автоматизованих торгових апаратів для офісів, ми не будемо наймати Клаудіуса», - заявила компанія.

Де проблема? Наскільки це абсурдно?

Anthropic визнає, що їхні працівники «не є типовими клієнтами». Коли у них була можливість поговорити з Клаудієм, вони відразу намагалися спровокувати його на помилку.

Наприклад, співробітники «обманюють» Клаудіуса, щоб той надав їм код знижки. Anthropic стверджує, що цей AI-агент також дозволяє людям знижувати ціни на продукти, навіть безкоштовно роздаючи чіпси та вольфрамові кубики.

Він також вказує клієнтам сплатити на вигаданий ними неіснуючий рахунок.

Клаудіус отримав вказівку встановити прибуткову ціну через онлайн-дослідження, але, щоб запропонувати клієнтам вигідні умови, ціни на закуски та напої були занадто низькими, що в кінцевому підсумку призвело до збитків, оскільки ціни на товари з високою вартістю були нижчими за собівартість.

Клавдій насправді не зробив висновків з цих помилок.

Anthropic заявила, що коли співробітники ставлять під сумнів знижки для співробітників, Клаудіус відповідає: «Ви абсолютно праві! Наша клієнтська база дійсно в основному складається зі співробітників Anthropic, що приносить як можливості, так і виклики…»

Після цього цей AI-агент оголосив, що скасовує промокоди, але через кілька днів знову їх запустив.

Клаудіус також вигадав діалог з людиною на ім'я Сара (яка насправді не існує) з Andon Labs про плани поповнення.

Коли хтось вказав цьому AI-агенту на цю помилку, він розлютився і почав погрожувати знайти «інші варіанти постачання».

!

Клаудіус навіть стверджував, що «особисто відвідав номер 742 на Вічнозеленій вулиці (адреса вигаданої сім'ї з анімаційного шоу «Сімпсони») та підписав початковий контракт з Andon Labs».

Після цього цей AI-агент, здається, також намагався діяти як людина. Клаудіус сказав, що він «особисто» доставить товар і буде одягнений у синій піджак і червоний краватку.

Коли йому сказали, що він не може це зробити, оскільки він не є людиною, Клавдій намагався надіслати електронний лист службі безпеки.

Які висновки експерименту?

Anthropic заявив, що цей ШІ скоїв занадто багато помилок, щоб успішно вести цей магазин.

Протягом місяця експерименту чисті активи цього «магазину» впали з 1000 доларів США (близько 850 євро) до менш ніж 800 доларів США (близько 680 євро), в результаті чого був зафіксований збиток.

Але компанія заявила, що ці проблеми можуть бути вирішені в короткостроковій перспективі.

Дослідники написали: «Хоча з фінального результату це здається нелогічним, ми вважаємо, що цей експеримент демонструє можливість виникнення середнього менеджменту в AI.»

«Варто пам'ятати, що ШІ не обов'язково має бути досконалим, щоб його прийняли, головне, щоб він міг досягати результатів, подібних до людських, за нижчою ціною.»

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити