A Google bemutatta a mesterséges intelligencia (MI) modellek jövőjét meghatározó újításait: az Titans architektúrát és az MIRAS keretrendszert. Ezek a fejlesztések lehetővé teszik, hogy az MI-rendszerek tartósan tanuljanak, valamint jelentősen hatékonyabban kezeljék a rendkívül hosszú adatsorokat, például könyveket vagy genom szekvenciákat, mint a jelenlegi legelterjedtebb modellek.[^1]
Az Titans architektúra és az MIRAS keretrendszer bemutatásával a Google mérnökei egy központi problémát céloztak meg a mesterséges intelligencia fejlődésében: hogyan lehet az MI-modelleket úgy tervezni, hogy azok ne csak előre betanított, statikus rendszerek legyenek, hanem képesek legyenek a használat során folyamatosan fejlődni és hosszú távú információkat megőrizni.
Az Titans rendszer egyedülálló módon ötvözi a mesterséges rövid- és hosszútávú memóriát. A modell az információk megtartására úgy dönt, hogy a “meglepetés” mértékét veszi alapul: minél meglepőbb egy információ, annál valószínűbb, hogy hosszú távon is elraktározza. Emellett egy beépített “felejtési mechanizmus” is működik, amely a kevésbé fontos adatokat eltávolítja a memóriából, így optimalizálva az erőforrásokat.[^1]
A kutatók három változatot dolgoztak ki a hosszú távú memória kezelésére:
Az MIRAS (Memory-Informed Retrieval and Attention System) egy átfogó elméleti keretrendszer, amely a szekvenciaalapú modellek, például a Transformer és újabb változatai (RetNet, Mamba, stb.) működésének alapelveit foglalja össze. Az MIRAS négy kulcskérdés mentén elemzi a modellek különbségeit: hogyan néz ki a belső “adatbázis” (vektor, mátrix, hálózat), milyen szabály szerint dönt, hogy mi kerül tárolásra, milyen gyorsan felejt, és milyen tanulási szabályokat alkalmaz az emlékek frissítésekor.[^1]
Az Titans architektúrát széles körben tesztelték nyelvi modellezési és időbeli előrejelzési feladatokban. Különösen jól szerepelt a “Needle in the Haystack” (NIAH) teszten, ahol hosszú szövegekben kellett specifikus információkat megtalálnia: még 16 000 token hosszúságú szövegek esetén is több mint 95%-os pontosságot ért el.[^1]
Az BABILong benchmarkban – ahol a modelleknek szétszórt információkat kell egyesíteniük hosszú dokumentumokon át – az Titans olyan nagy modelleket is felülmúlt, mint a GPT-4, RecurrentGemma-9B és Llama3.1-70B. Mindezt úgy érte el, hogy a legnagyobb Titans változat “csak” 760 millió paraméterrel rendelkezik, ami jóval kevesebb, mint a legtöbb csúcskategóriás modell paraméterszáma.[^1]
Az Google fejlesztései rámutatnak, hogy az MI-modellek jövője a folyamatos tanulásban és a hosszú távú memóriában rejlik. Az Titans és MIRAS architektúrák nemcsak a nyelvi modellezésben, hanem más területeken – például DNS- vagy videóadatok feldolgozásában – is új távlatokat nyithatnak meg, ha a laboratóriumi eredmények a gyakorlatban is igazolódnak.[^1]
[^1]: The Decoder szerkesztőség (2025. 12. 05.). “MIRAS und Titans: Google zeigt, wie KI-Modelle dauerhaft dazulernen können”. The Decoder. Közzétéve [2025. 12. 05.].