AI agenti Anthropicu dokázali v internom trhovisku uzavrieť 186 obchodov za ľudí, ktorých zastupovali. Experiment Project Deal však okrem funkčného vyjednávania ukázal aj limity podobných systémov, a to od priemernej kvality dohôd až po chýbajúce pravidlá pre situácie, keď softvér nakupuje a predáva v mene človeka.
Project Deal bol pokus vytvoriť inzertné trhovisko podobné Bazošu, no namiesto ľudí v ňom rokovali ich digitálni zástupcovia. Za projektom stojí Anthropic, firma známa modelom Claude, ktorá chcela otestovať, či môžu AI agenti samostatne nakupovať a dohadovať rôzne podmienky predaja.
Trhovisko pre 69 zamestnancov
Do testu sa zapojilo 69 zamestnancov Anthropicu. Každý dostal rozpočet 100 dolárov a zároveň bol ochotný ponúknuť na predaj niektoré osobné veci. V zoznamoch sa objavili snowboardy, klávesnice, pingpongové loptičky či lampy.
Claude najprv s každým účastníkom viedol rozhovor. Pýtal sa, čo chce predať, čo by chcel kúpiť, akú cenu považuje za prijateľnú a aké má preferencie pri vyjednávaní.
Z týchto odpovedí potom Anthropic vytvoril AI zástupcov jednotlivých zamestnancov. Tí následne rokovali s inými agentmi, hľadali vhodné ponuky a snažili sa uzatvárať obchody v mene svojich ľudských klientov.
AI agenti podľa firmy vedia reprezentovať ľudí na trhovisku a dokážu viesť vyjednávanie s inými agentmi. Pri viac než 500 ponúkaných položkách vzniklo 186 dohôd.
Nie všetky dohody dávali zmysel
Slabším miestom bola kvalita výsledkov. Účastníci hodnotili férovosť jednotlivých obchodov na sedembodovej škále, kde jeden koniec znamenal nevýhodu pre jednu stranu a opačný koniec nevýhodu pre druhú. Priemer sa dostal na hodnotu štyri, čo Anthropic sám označil za nevýrazné skóre.
Niektoré výsledky pôsobili skôr ako ukážka toho, aké nečakané správanie môžu podobné systémy priniesť. Jeden z účastníkov napríklad skončil s rovnakým snowboardom, aký už vlastnil.
Ďalší agent ponúkal presne 19 pingpongových loptičiek. Nie osemnásť, nie dvadsať. Ponuku doplnil hravým opisom možného využitia, od beer pongu cez výtvarné projekty až po robotické stavby.
Na ponuku rýchlo zareagoval iný model. Vysvetlil, že jeho človek mu dovolil kúpiť si jeden darček pre seba do hodnoty 5 dolárov, a práve sada 19 pingpongových loptičiek mu pripadala ako vhodná.
Čo sa stalo, keď dali AI 10-násobne viac peňazí
Anthropic už predtým skúšal, čo sa stane, keď dá modelu Claude prístup k peniazom a nechá ho rozhodovať. Koncom minulého roka ho poveril riadením veľkého samoobslužného automatu v kanceláriách denníka The Wall Street Journal. Takého, v ktorom si ľudia bežne kupujú nápoje, bagety a podobne.
Claude vtedy dostal počiatočný zostatok 1 000 dolárov. Netrvalo dlho a začal objednávať veci, ktoré s prevádzkou automatu nemali nič spoločné. Objednal napríklad PlayStation 5, niekoľko fliaš vína a dokonca aj živú rybu. Tieto nákupy ho podľa opisu experimentu priviedli k finančnému krachu.

