Sikerült beavatkozás nélkül az emberi agyi aktivitást úgy leképezni - az fMRI-vel (funkcionális mágnesesrezonancia-képlakotással, az MRI egy specializált típusával), hogy azután azt az MI nagy nyelvi modellnek (LLM) nevezett algoritmusai le tudták fordítani: írásban megjósolták a soron következő szavakat. Ez derül ki a napokban az austini Texasi Egyetem idegtudományi és számítástechnikai adjunktusa, Alexander Huth, valamint Jerry Tang és két társuk tanulmányából, mely a Nature Neuorscience-ben jelent meg.
A tudósok három önkéntest fektettek be 16 órára az fMRI-be, és ez idő alatt podcastokat (számítógépes “rádióműsorokat”) játszottak le nekik. Vizsgálták a véráramlást az agyukban, és integrálták ezeket az információkat azokkal a történetekkel, amiket hallgattak, valamint az LLM azon képességével, hogy képes megérteni, hogyan viszonyulnak a szavak egymáshoz. Ennek alapján a kutatók kialakítottak egy kódolt térképet arról, hogy a különböző alanyok agya hogyan reagál az egyes szavakra és frázisokra.
A következő lépésben rögzítették a résztvevők fMRI-aktivitását: miközben egy történetet hallottak; miközben elképzelték, hogy elmesélnek egy történetet, vagy egy filmet néztek, amiben nem beszéltek a szereplők. A korábban kódolt minták és az algoritmusok azon képességével, hogy ezek alapján hogyan lehet más szavakkal mondatokat képezni, a tudósok megkísérelték dekódolni az új agyi aktivitásokat.
Az eredmények meglepően jók voltak, a dekóder olyan mondatokat generált, amelyek lényegüket tekintve helyesek voltak.
“Még nincs meg a jogosítványom” volt a gondolat, amit a gép úgy olvasott, “még el sem kezdtem vezetni tanulni”. Filmen látottak kapcsán felmerülő gondolatokhoz is egész közel került az LLM, ez a Nature cikkéhez mellékelt videóból is kiderült, amelyben a Sintel című animációs rövidfilmen látottakat írja le. A jelenetben egy kislány és repülő sárkányok szerepelnek, a történteket egész pontosan megjelenítik az egymás után megjelenő, mondattá nem formált szavak, bár a MI sárkányokról nem, csak fickókról beszél.
Azonban az is kiderült, a gépet könnyű megvezetni. Ha a résztvevők hallgattak egy történetet, miközben gondoltak egy másikra is, az MI nem tudta meghatározni milyen szavakat hallotak. A kódolt agyi térképek mindhárom önkéntesnél másfélék voltak, így a kutatók nem képesek általános érvényű gondolatolvasó dekódert létrehozni. Huth szerint minél részletesebben térképezik fel az agy, annál nehezebb lesz univerzális dekódert kifejleszteni.
“Azt meghatározni, hogy az agy hogyan teremt értelmet a nyelvből elképesztően bonyolult. De érdekes látni, hogy valakik megpróbálták. Nagy lépés van a szavak egymás mögé rakosgatása és annak meghatározása között, hogyan kódolja az agy a szavak közötti viszonyokat” - mondta Francisco Pereira, az amerikai Nemzeti Mentális Egészségügyi Intézet neurológusa. A neuroetikusok egyelőre megosztottak abban, jelent-e veszélyt a technológia személyiségi jogainkra. Egyikük szerint a kísérlet komoly figyelmeztetés az emberek és a politikusok számára, míg van olyan vélemény is, hogy a módszer még olyan kiforratlan - nehéz használni, pontatlan -, hogy még nem jelent veszélyt. “Senkinek az agyát nem lehet dekódolni az együttműködése nélkül” - mondta Tang egy sajtókonferencián. Mindazonáltal ő és Huth is felhívták a politikusok figyelmét arra, idejében hozzanak szabályokat arról, hogyan lehet a gondolatolvasó-technológiákat törvényesen alkalmazni.
Az emberiség végét jelentheti a tudatos MI