Az mesterséges intelligencia is kezd egyre inkább leépülni, mivel a közösségi média kommunikációja rendkívül sekélyessé vált.


Kiderült, ha a nagy nyelvi modelleket silány minőségű posztokkal tréningezik, azok észrevehetően elbutulnak, hasonlóan az emberekhez.

Egy nemrégiben végzett kutatás rávilágított, hogy a mesterséges intelligencia (MI, AI) is hasonló "agyrothadásos" tünetekkel küzdhet, mint az emberek, amennyiben túlzottan sok felszínes közösségi média tartalomnak van kitéve. A Texasi Egyetem, a Texas A&M és a Purdue Egyetem tudósai által végzett közös tanulmány eredményei azt mutatják, hogy:

ha nagy nyelvi modelleket (LLM-eket) népszerű, de silány minőségű posztokkal tréningeznek, azok észrevehetően elveszítik a gondolkodási képességüket, vagyis elbutulnak.

A kutatók több mint egymillió posztot gyűjtöttek az X-ről, hogy azokkal képezzenek ki két nyílt forráskódú modellt, a Meta Llamáját és az Alibaba Qwenjét. Az egyik csoport a közösségi médiából származó, kattintásvadász bejegyzéseket kapta, tele olyan szavakkal, mint "hűha", (wow) "nézd" (look) vagy "csak ma" (today only), a másik csoport ezzel szemben kiegyensúlyozottabb, informatívabb szövegeken tanult.

Az eredmény világosan kirajzolódott: azok a modellek, amelyeket "szeméttartalommal" tápláltak, jelentős memóriazavarral küzdöttek, érvelési képességeik erőteljesen csökkentek, és etikai iránytűjük is megingott. Néhány teszt alapján pedig még pszichopatikusabbá is váltak.

A jelenség kísértetiesen hasonlít az embereknél megfigyelt hatásokra, korábbi kutatások ugyanis kimutatták, hogy a gyenge minőségű online tartalmak rontják az emberek kognitív képességeit - nem véletlen, hogy a "brain rot" (agyrothadás) kifejezés lett az Oxford Dictionary 2024-es év szava.

Junyuan Hong, a kutatás társszerzője és a Szingapúri Nemzeti Egyetem leendő adjunktusa – aki a Texasi Egyetemen doktoranduszként vett részt a munkában – rámutatott, hogy az MI-iparra gyakorolt hatások jelentősek lehetnek. Sokan a fejlesztők közül úgy vélik, hogy a közösségi médiából származó bejegyzések kiváló alapot nyújtanak a modellek betanításához. "Ez azonban csendben alááshatja a modellek logikai felépítését, etikai normáit és hosszú távú megbízhatóságát" – figyelmeztetett Hong.

A probléma azért különösen aggasztó, mert az MI egyre gyakrabban generálja saját közösségimédia-tartalmait, amelyek jellemzően szintén az elérésre vannak optimalizálva és nem a minőségre. A kutatók azt is megállapították, hogy a gyenge minőségű tartalommal "megfertőzött" modelleket újratanítással sem lehet teljesen helyrehozni, vagyis a modellek minősége visszafordíthatatlanul romolhat.

Ahogy a mesterséges intelligencia által létrehozott tartalom egyre inkább elárasztja a közösségi médiát, úgy ez káros hatással van azokra az adatokra, amelyekből a jövőbeli modellek tanulnak. Kutatásaink azt jelzik, hogy ha ez a folyamat egyszer elindul, a későbbi, tiszta adatállomány sem képes teljes mértékben helyreállítani a helyzetet.

Aggasztó új MI-funkció debütált a Facebookon: a telefonod fényképei között kémkedik. Érdemes résen lenni, mert a Meta mostantól a galériád tartalmát is szemügyre veszi.

Van egy videojáték, ami akár 10 évvel is megfiatalíthatja az emberi agyat Úgy tűnik, az agy öregedésének üteme nem biztos, hogy kőbe van vésve, és nem feltétlenül megállíthatatlan folyamat.

Related posts