Kutatók mesterséges intelligenciával manipulálták az X-hírcsatornát a politikai polarizáció befolyásolására

Hírek2025.11.28.30 megtekintés

  • Egy új tudományos vizsgálat bizonyítja, hogy az MI-alapú algoritmusok manipulációja jelentősen befolyásolhatja a politikai ellenségeskedést az X platformon.
  • A kutatók böngészőbővítménnyel, platformfüggetlenül, valós időben változtatták meg 1256 amerikai felhasználó hírfolyamát.
  • Az eredmények szerint a toxikus tartalmak elrejtése csökkentette a politikai ellenfelekkel szembeni negatív érzéseket, míg ezek kiemelése fokozta azokat.
  • A módszer független a technológiai cégek együttműködésétől, új lehetőségeket nyit a társadalmi kutatások előtt.

Egy friss, a Science folyóiratban megjelent tanulmány alapján a mesterséges intelligencia által támogatott algoritmusok valós időben képesek befolyásolni a politikai polarizáció mértékét az X (korábban Twitter) platformon. A kutatók egy böngészőbővítménnyel 1256 amerikai felhasználó hírfolyamát manipulálták, hogy vizsgálják, milyen hatással van a toxikus, antidemokratikus tartalmak jelenléte vagy hiánya a politikai ellenségességre.[^1]

A mesterséges intelligencia szerepe az X-Feed manipulációjában

Innovatív technikai megoldás: böngészőbővítmény és LLM

A kutatók egy böngészőbővítményt alkalmaztak, amely a felhasználók „Neked” hírfolyamának adatforgalmát rögzítette és elemezte. Az MI – pontosabban egy nagy nyelvi modell (LLM) – valós időben vizsgálta a politikai tartalmakat, azonosítva az antidemokratikus vagy ellenséges megnyilvánulásokat. Az algoritmus ezek alapján két kísérleti csoportot különböztetett meg: az egyikben a toxikus bejegyzéseket elrejtette, a másikban kiemelte azokat.[^1]

A kutatás menete és etikája

A résztvevőket online kérdőíves felületen toborozták, akik tudatos beleegyezéssel, önkéntesen telepítették az eszközt, 20 dolláros díjazás fejében. Tudták, hogy feedjük módosításra kerül, de azt nem, milyen irányban. Ez a módszer lehetővé tette, hogy a tudósok a platform együttműködése nélkül, mégis etikusan végezzenek beavatkozó kísérletet.[^1]

Az eredmények: A politikai polarizáció csökkentése vagy fokozása MI-vel

Érzelmi hatások és affektív polarizáció

A tanulmány szerint a toxikus, antidemokratikus tartalmak elrejtése mérhetően csökkentette a résztvevők negatív érzéseit a másik politikai táborral szemben. Ezzel szemben, ha ezek a tartalmak gyakrabban jelentek meg a hírfolyamban, a politikai ellenszenv és ellenséges érzelmek jelentősen erősödtek. Az így elért változás mértéke megegyezett azzal, amit az USA-ban három év alatt tapasztaltak a társadalmi polarizáció terén.[^1]

Gazdasági és viselkedési következmények

A toxikus tartalmak háttérbe szorítása ugyanakkor csökkentette az X-en töltött időt és a felhasználói aktivitást (például „Like”-ok számát), ami azt jelzi, hogy a gyűlöletkeltő tartalmak elhagyása gazdasági szempontból hátrányos lehet a platformnak. Az érzelmi hatások mindkét politikai oldal – demokraták és republikánusok – esetében hasonlóan jelentkeztek.[^1]

Függetlenség a technológiai cégektől: új kutatási távlatok

A kutatók kiemelték, hogy módszerük új lehetőségeket teremt: többé nincs szükség a platformok zárt algoritmusainak megnyitására vagy céges engedélyekre a társadalmi beavatkozás kutatásához. Korábban az ilyen vizsgálatok csak a platformok (pl. Meta) beleegyezésével történhettek, és ezek általában korlátozott eredményeket hoztak.[^1]

Összefoglaló

Az MI-alapú feed-manipulációs kísérlet egyértelműen bizonyította, hogy az online politikai polarizáció mérsékelhető vagy felerősíthető a hírfolyam algoritmikus szerkesztésével. Az új technológiai megközelítés független a nagyvállalatok együttműködésétől, így jelentős távlatokat nyithat a jövőbeli társadalmi és digitális médiakutatások számára.

Forrás:

[^1]: Redaktion The Decoder (2025-11-28). “Forschende manipulieren X-Feed mit KI, um politische Polarisierung zu steuern”. The Decoder. Közzétéve [2025. 11. 28.].

Follow
Keresés Népszerű
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...