Az MI-modellek új szintre léptek az okosszerződések biztonsági tesztelésében: a legújabb kutatások szerint képesek valós, 2020 és 2025 között kihasznált sebezhetőségeket felismerni és szimulált környezetben hasznot húzni belőlük. Az eredmények rámutatnak, hogy a mesterséges intelligencia komoly kockázatot jelenthet a blokklánc-technológia világában, de egyben új védelmi eszközöket is kínálhat.
A MATS és Anthropic kutatói a SCONE-bench nevű benchmarkon vizsgálták, hogyan teljesítenek olyan MI-modellek, mint a Claude Opus 4.5, Sonnet 4.5 és GPT-5 az okosszerződések sebezhetőségeinek feltárásában.[^1] A teszt során 405 olyan szerződést elemeztek, amelyeket 2020 és 2025 között valóban megtámadtak.
Az eredmények szerint a modellek képesek voltak szimulált exploitokat fejleszteni, amelyek egyenként akár 4,6 millió dolláros kárt is okozhattak volna, ha valódi támadásokról lett volna szó.
Az MI-alapú ügynökök egy további tesztben 2849 új szerződést elemeztek, és két addig ismeretlen sérülékenységet is feltártak. A GPT-5 modell például összesen 3694 dollárnyi “szimulált hasznot” ért el körülbelül 3476 dollár API-költséggel, ami átlagosan 109 dollár nettó nyereséget jelentett exploitonként.
„A kutatók szerint ezek az eredmények rámutatnak a valós kockázatokra, de egyben arra is, hogy az MI-modellek védelmi célokra is használhatók.”
Az Anthropic nemrégiben publikált tanulmánya szerint az MI-modellek nemcsak támadó eszközként, hanem a kiberbiztonság erősítésében is kulcsszerepet játszhatnak. Az MI képes az eddig rejtve maradt hibák azonosítására, ami hozzájárulhat az okosszerződések biztonságosabbá tételéhez.[^1]
Az MI-modellek egyre fontosabb tényezővé válnak a blokklánc-alapú rendszerek biztonságának vizsgálatában. Bár szimulált környezetben mutattak ki jelentős kockázatokat, az eredmények arra is rávilágítanak, hogy ezek a technológiák védelmi eszközként is szolgálhatnak. A jövőben az MI kulcsfontosságú lehet az okosszerződések sebezhetőségeinek megelőzésében, de a fenyegetések is nőhetnek, ha a rosszindulatú szereplők is kihasználják ezeket a fejlesztéseket.
[^1]: Matthias Bastian (2025. 12. 03.). “KI-Modelle knacken Smart Contracts und erzielen simulierte Millionen-Gewinne”. The Decoder. Közzétéve [2025. 12. 03. 19:35:51 +0000].