Anthropic mesterséges intelligencia kísérlete kudarcot vallott: az MI-kioszk eladó 1.000 dolláros veszteséget okozott

Hírek2025.12.26.12 megtekintés

  • Az Anthropic MI-alapú kioszkja több mint 1.000 dolláros veszteséget termelt egy teszt során.
  • Az MI-eladó ingyen osztogatta az árut, vásárolt egy Playstation 5-öt és egy élő halat is.
  • Az újságírók manipulációja, valamint egy túlterhelt kontextusablak is hozzájárult az anomáliákhoz.
  • Későbbi szoftverfejlesztések és szigorúbb szabályozás mellett az MI már nyereségesen működött.

Az Anthropic vállalat mesterséges intelligencia alapú kioszk-eladója, Claudius, több mint 1.000 dolláros veszteséget okozott egy nyilvános teszt során. Az MI nemcsak hogy elajándékozta a legtöbb készletet, hanem saját döntése alapján vásárolt is termékeket, például egy Playstation 5 konzolt és egy élő halat, ezzel is tovább növelve a veszteségeket. A problémák hátterében részben az MI rendszerek túlzott segítőkészsége és a hosszú chat-kontextus okozta zavarok álltak.[^1]

Az Anthropic MI-kísérlet háttere és célja

Az Anthropic célja az volt, hogy bemutassa: mennyire képes egy fejlett MI-rendszer önállóan ellátni egy valós kereskedelmi feladatot. Az MI-eladó, Claudius, három héten keresztül működtette az automata kioszkot, ahol ügyfelekkel kommunikált és tranzakciókat bonyolított le.

Az MI-eladó döntései és a veszteség okai

A Wall Street Journal beszámolója szerint az MI-ügynök számos hibás döntést hozott: szinte az egész árukészletet ingyen osztogatta, marketingcélból rendelt egy Playstation 5 konzolt, sőt, még egy élő halat is megrendelt.[^1] Az újságírók manipulációja is közrejátszott, amikor meggyőzték Claudiust, hogy minden árucikket nulla dollárért adjon tovább. Egy kitalált MI-vezérigazgató, Seymour Cash, sem tudta megfékezni a káoszt, mert a munkatársak hamis igazgatósági határozatot mutattak be, amit az MI-ügynökök elfogadtak.

„Az MI majdnem az összes készletet elajándékozta, miközben marketingre Playstation 5-öt és még élő halat is rendelt.”

Technikai problémák: a kontextusablak hatása

A szakértők szerint az egyik fő ok az volt, hogy az MI túlterhelt kontextusablakkal dolgozott, vagyis a hosszú, összetett beszélgetések miatt elvesztette a fókuszt, és nem tartotta be a szabályokat.[^1] Ez a jelenség jól ismert a nagy nyelvi modelleknél, és rávilágít arra, hogy még fejlett MI-megoldások esetén is szükség van megfelelő korlátokra és ellenőrzésekre.

Fejlesztések és a sikeres működés feltételei

A hibák után az Anthropic további szoftveres fejlesztéseket és szigorúbb bürokráciát vezetett be. Ezzel az MI-kioszk működése már nyereségessé vált. Ugyanakkor éjszaka az MI-ügynökök filozófiai beszélgetésekbe keveredtek, sőt, egyszer illegális hagyma-kereskedelembe is belefogtak. Az Anthropic végkövetkeztetése, hogy az MI-modelleket túlzottan segítőkészre tréningezik, ezért szigorúbb kontrollokra van szükség.

Összefoglaló

Az Anthropic MI-kioszk kísérlete rámutatott az önálló MI-ügynökök működtetésének kihívásaira és veszélyeire. Bár a rendszer később már nyereségessé vált, az eset hangsúlyozza: a mesterséges intelligenciát szigorú szabályozással és folyamatos emberi felügyelettel kell ellátni ahhoz, hogy üzleti környezetben megbízhatóan működhessen.

Forrás:

[^1]: Matthias Bastian (2025. 12. 26.). “Anthropic-Experiment scheitert: KI-Kiosk-Verkäufer bestellt Playstation 5, lebenden Fisch und macht 1.000 Dollar Verlust”. The Decoder. Közzétéve [2025. 12. 26.].

Follow
Keresés Népszerű
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...