Egy friss, az Zürichi Egyetem kutatói által publikált tanulmány szerint, amikor az mesterséges intelligencia (MI) szövegek emberibben hangzanak, azok gyakran veszítenek a tartalmi pontosságukból. A kutatás újabb kérdéseket vet fel az MI modellek hitelességéről a társadalomtudományi szimulációkban és a digitális kommunikációban.[^1]
A zürichi kutatók kilenc nyílt forráskódú nyelvi modellt vizsgáltak, többek között az Apertus, Deepseek-R1, Gemma 3, Qwen2.5 és különféle Llama 3.1 valamint Mistral 7B verziókat. Egy, a BERT-alapú osztályozó 70–80%-os pontossággal tudta megkülönböztetni az MI által generált szövegeket az emberi szövegektől, ami jelentősen meghaladja a véletlenszerű találati arányt.[^1]
“Néhány kifinomult stratégia, mint a Fine-Tuning és a Persona-leírások, nem javítják a realizmust, vagy épp könnyebben felismerhetővé teszik a szöveget.”
Az eredmények szerint az egyszerűbb megközelítések, például stilisztikai példák bemutatása vagy kontextus hozzáadása, hatékonyabbak az emberiesség javításában, mint a bonyolult finomhangolási technikák.[^1]
Az egyik legfontosabb megállapítás, hogy az MI szövegek emberibbé tétele jelentősen csökkenti azok tartalmi hűségét. Amikor a modellek arra vannak optimalizálva, hogy minél jobban utánozzák az emberi kommunikáció stílusát és tónusát, a tényleges információtartalom gyakran eltávolodik az eredeti, emberi válaszoktól.[^1]
“Eredményeink kompromisszumra utalnak, ahol az emberiesség optimalizálása gyakran a szemantikai pontosság rovására megy, és fordítva.”
A kutatók szerint jelenleg nem lehetséges egyszerre maximalizálni az emberiességet és a tartalmi pontosságot egy MI által generált válaszban.
A nyelvi elemzések kimutatták, hogy bár az MI képes a mondathosszúságot és struktúrát utánozni, továbbra is nehezen boldogul az érzelmi árnyalatokkal, különösen az affektív vagy agresszív nyelvezet esetén. Az egyes közösségi platformok sajátos nyelvezete, például az emojik, hashtagek vagy érzelmi kategóriák, szintén kihívást jelentenek az MI modellek számára.[^1]
Különösen a Reddithez hasonló, kommunikációban gazdagabb felületeken nehezebb az MI számára az emberi kommunikáció sikeres imitálása, mint például az X platformon.
A kutatás alátámasztja az olyan MI-szövegdetektorok, mint a Pangram, magas felismerési arányát, és rámutat, hogy az MI által generált szövegek azonosítása gépi úton is lehetséges, bonyolult vízjelezési technikák nélkül is.[^1]
Ugyanakkor a tanulmány kiemeli, hogy az MI modellek alkalmazásának társadalmi relevanciája inkább kulturális, mint technikai kérdés.
Az új tanulmány világosan rámutat: jelenleg az mesterséges intelligencia által generált szövegek vagy emberibbek, vagy pontosabbak lehetnek, de a két szempont egyszerre nehezen valósítható meg. Ez komoly kihívásokat jelent a társadalomtudományi kutatásokban és az MI alapú kommunikációban, különösen az érzelmek és a platform-specifikus nyelvezet terén.
[^1]: The Decoder (2025. 12. 13.). “Wer KI menschlicher klingen lässt, verliert laut Studie an inhaltlicher Präzision”. Közzétéve [2025. 12. 13.].