A Google továbbfejleszti az Android XR ökoszisztémát, ahol az Gemini nevű mesterséges intelligencia-modell lesz az alapvető technológia. Az MI-képességek nemcsak headseteken, hanem új, fejlesztés alatt álló MI-szemüvegeken is központi szerepet kapnak, amelyek valós idejű, multimodális asszisztenciát kínálnak a felhasználóknak.
Az „Android Show: XR Edition” rendezvényen a Google részletesen ismertette az Android XR platform jövőjét. Az eseményen bemutatták, hogy az Gemini lesz az az összekötő elem, amely lehetővé teszi a kontextusfüggő interakciókat különféle eszközök között. Az MI-modell mély integrációjának célja, hogy egységes felhasználói élményt nyújtson, függetlenül attól, hogy headsetet vagy okosszemüveget használnak-e.
Az Samsung Galaxy XR headset már most megkapja az új MI-alapú funkciókat. Ezek közül kiemelkedik a “Likeness” nevű funkció, amely egy valósághű digitális avatárt hoz létre a felhasználóról. Ez az avatar képes a mimika és a kézmozdulatok valós idejű tükrözésére, növelve ezzel a hitelességet például videóhívások során. Az újítás mögött fejlett számítógépes látás algoritmusok állnak, amelyek a felhasználói adatokat dolgozzák fel az azonnali visszacsatoláshoz[^1].
További jelentős újítás az “Auto-Spatialization” funkció, amely 2026-ban érkezik. Az eszközbe épített MI elemzi a hagyományos 2D tartalmakat, például YouTube-videókat vagy játékokat, és automatikusan átalakítja azokat sztereoszkópikus 3D élménnyé.
A legnagyobb előrelépés az okosszemüvegek területén várható. A Google a Samsung, Gentle Monster és Warby Parker cégekkel dolgozik együtt olyan MI-szemüvegeken, amelyek multimodális bemeneteket kezelnek. Ezek az eszközök kamerákkal és mikrofonokkal rendelkeznek, így az Gemini képes valós idejű környezeti információkat feldolgozni.
“A szemüveg például képes tárgyakat azonosítani, szövegeket valós időben lefordítani, vagy automatikusan tájékoztatni a felhasználót a következő vonatok indulásáról a pályaudvaron.”
Az MI-szemüvegek két fő kategóriába sorolhatók: audio-MI-szemüvegek és kijelzős MI-szemüvegek, attól függően, milyen interakciós formát támogatnak. Mindegyik modell célja a mindennapi feladatok proaktív támogatása és a felhasználó környezetének intelligens értelmezése[^1].
A Google kiadta az Android XR SDK Developer Preview 3-at, amelyben a Gemini Live API is elérhető. Ez lehetővé teszi, hogy fejlesztők olyan alkalmazásokat hozzanak létre, amelyek a szemüveg vizuális és auditív szenzorait használják a kontextusfüggő funkciókhoz.
“Az MI-szemüveg például felismeri a repülőtéren a felhasználó helyét, vizuálisan vezeti őt a megfelelő autóhoz, azonosítja a sofőr rendszámát és valós idejű információkat jelenít meg.”
Az XREAL Project Aura szintén bemutatásra került, amely egy kábelcsatlakozású XR-szemüveg, AR-interfészként és külső monitorként funkcionál, szintén az Gemini MI-integrációjával.
Az Gemini mély integrációja az Android XR platformon és az új MI-szemüvegek fejlesztése átalakíthatja a felhasználói élményt a kiterjesztett valóságban. Az új generációs, kontextusérzékeny MI-eszközök a mindennapi élet számos területén kínálnak majd intelligens támogatást, miközben a fejlesztők számára is új lehetőségeket nyitnak meg.
[^1]: THE DECODER (2025. 12. 09.). “Google verankert Gemini als Kern von Android XR und plant KI-Brillen”. Közzétéve [2025. 12. 09.].