Google radikálisan átalakította MI-stratégiáját: belső chiphasználóból chipgyártóvá és -kereskedővé lépett elő, amivel kihívója lett az Nvidia-nak. Egy új elemzés szerint az új Google TPUv7 “Ironwood” MI-chipek piacra lépése jelentősen csökkenti az MI-számítási kapacitás árát, és ezzel átformálja az egész iparágat.
Hosszú ideig Google kizárólag belső MI-modellekhez használta saját fejlesztésű “Tensor Processing Unit” (TPU) chipjeit. Azonban az új TPUv7 “Ironwood” generációval Google most agresszíven kínálja chipeit külső ügyfeleknek is, és ezzel közvetlen versenybe száll az Nvidia-val. A legfontosabb partner Anthropic MI-startup, amely akár egymillió TPU-t is beszerezhet, részben hardvervásárlás, részben a Google Cloud Platformon keresztül bérelt szolgáltatás formájában. A teljes infrastruktúra energiafogyasztása meghaladja az egy gigawattot.
Az új Google TPUs piacra lépése már most érzékelhető hatással van az árakra: például az OpenAI 30%-os kedvezményt tudott kiharcolni Nvidia GPU-inak bérleti díjából, pusztán annak a fenyegetésnek köszönhetően, hogy alternatívaként Google TPUs-hoz fordulhat. Az elemzés szerint:
„Minél több TPUs-t vásároltok, annál több Nvidia-beruházást spóroltok meg.”
– jegyezték meg az elemzők ironikusan az Nvidia vezérigazgatójának legendás mondatára utalva.
Az új Google TPUv7 “Ironwood” chipek teljesítményben és memória-sávszélességben szinte teljesen felzárkóztak az Nvidia Blackwell-generációhoz. A fő előny a költségekben mutatkozik: Google becslései szerint a teljes működési költség (TCO) chipenként 44%-kal alacsonyabb, mint egy hasonló Nvidia GB200 rendszer esetén. Külső ügyfelek, például az Anthropic számára is 30–50%-kal olcsóbb lehet a tényleges számítási kapacitás, különösen optimalizált szoftverhasználat mellett.
A Google TPU-rendszerei akár 9 216 chipet is képesek egyetlen hálózatban összekapcsolni, amely lehetővé teszi az igazán nagy MI-tréningek hatékony szétosztását, szemben az Nvidia rendszerek tipikus 64–72 chipet összefogó csoportjaival.
Az elterjedés fő akadálya eddig a szoftveres környezet volt: az Nvidia CUDA-platformja ipari szabvánnyá vált. Google jelentős fejlesztéseket indított, hogy megkönnyítse a TPUs használatát: natív támogatást fejleszt a PyTorch-hoz és integrációt készít az inferencia-könyvtárakba (pl. vLLM). Ugyanakkor a TPU szoftverkötegének magja (XLA-compiler) zárt marad, amit az elemzők a nyílt forrású közösség számára elvesztegetett lehetőségként értékelnek.
Az Nvidia következő generációja, a „Vera Rubin”, 2026/2027-re várható, és olyan fejlett technológiákat vezet be, mint a HBM4-memória és extrém sávszélesség. Google válasza a TPUv8, amely két változatban érkezik: a Broadcommal (“Sunfish”), illetve a MediaTekkel (“Zebrafish”) közösen fejlesztett verzióban. Azonban a Google fejlesztései lemaradásban vannak, és konzervatívabb architektúrát alkalmaznak, nem használják ki olyan agresszívan a legújabb gyártástechnológiákat, mint az Nvidia.
Az elemzés szerint, ha az Nvidia Rubin rendszerei beváltják a hozzájuk fűzött reményeket, Google jelenlegi költségelőnye teljesen eltűnhet. Sőt, akár az is előfordulhat, hogy az Nvidia Rubin (“Kyber Rack”) olcsóbb lesz a Google számára is, mint a saját fejlesztésű TPUv8 használata. Ez komoly kockázatot jelent a keresőóriás számára, hiszen a piaci előny gyorsan elolvadhat.
Google új TPUv7 chipjei jelentősen felforgatták az MI-hardver piacot, árnyomást helyezve az Nvidiára, miközben alternatívát kínálnak a fejlesztők számára. Azonban a technológiai verseny kiélezett: az Nvidia hamarosan válaszolhat Rubin generációjával, míg Google-nek szoftveres és fejlesztési kihívásokkal kell szembenéznie. A következő években eldőlhet, ki uralja az MI-infrastruktúra piacát.