Egy friss, a Science folyóiratban megjelent tanulmány alapján a mesterséges intelligencia által támogatott algoritmusok valós időben képesek befolyásolni a politikai polarizáció mértékét az X (korábban Twitter) platformon. A kutatók egy böngészőbővítménnyel 1256 amerikai felhasználó hírfolyamát manipulálták, hogy vizsgálják, milyen hatással van a toxikus, antidemokratikus tartalmak jelenléte vagy hiánya a politikai ellenségességre.[^1]
A kutatók egy böngészőbővítményt alkalmaztak, amely a felhasználók „Neked” hírfolyamának adatforgalmát rögzítette és elemezte. Az MI – pontosabban egy nagy nyelvi modell (LLM) – valós időben vizsgálta a politikai tartalmakat, azonosítva az antidemokratikus vagy ellenséges megnyilvánulásokat. Az algoritmus ezek alapján két kísérleti csoportot különböztetett meg: az egyikben a toxikus bejegyzéseket elrejtette, a másikban kiemelte azokat.[^1]
A résztvevőket online kérdőíves felületen toborozták, akik tudatos beleegyezéssel, önkéntesen telepítették az eszközt, 20 dolláros díjazás fejében. Tudták, hogy feedjük módosításra kerül, de azt nem, milyen irányban. Ez a módszer lehetővé tette, hogy a tudósok a platform együttműködése nélkül, mégis etikusan végezzenek beavatkozó kísérletet.[^1]
A tanulmány szerint a toxikus, antidemokratikus tartalmak elrejtése mérhetően csökkentette a résztvevők negatív érzéseit a másik politikai táborral szemben. Ezzel szemben, ha ezek a tartalmak gyakrabban jelentek meg a hírfolyamban, a politikai ellenszenv és ellenséges érzelmek jelentősen erősödtek. Az így elért változás mértéke megegyezett azzal, amit az USA-ban három év alatt tapasztaltak a társadalmi polarizáció terén.[^1]
A toxikus tartalmak háttérbe szorítása ugyanakkor csökkentette az X-en töltött időt és a felhasználói aktivitást (például „Like”-ok számát), ami azt jelzi, hogy a gyűlöletkeltő tartalmak elhagyása gazdasági szempontból hátrányos lehet a platformnak. Az érzelmi hatások mindkét politikai oldal – demokraták és republikánusok – esetében hasonlóan jelentkeztek.[^1]
A kutatók kiemelték, hogy módszerük új lehetőségeket teremt: többé nincs szükség a platformok zárt algoritmusainak megnyitására vagy céges engedélyekre a társadalmi beavatkozás kutatásához. Korábban az ilyen vizsgálatok csak a platformok (pl. Meta) beleegyezésével történhettek, és ezek általában korlátozott eredményeket hoztak.[^1]
Az MI-alapú feed-manipulációs kísérlet egyértelműen bizonyította, hogy az online politikai polarizáció mérsékelhető vagy felerősíthető a hírfolyam algoritmikus szerkesztésével. Az új technológiai megközelítés független a nagyvállalatok együttműködésétől, így jelentős távlatokat nyithat a jövőbeli társadalmi és digitális médiakutatások számára.
[^1]: Redaktion The Decoder (2025-11-28). “Forschende manipulieren X-Feed mit KI, um politische Polarisierung zu steuern”. The Decoder. Közzétéve [2025. 11. 28.].