Óvakodj az okos emberektől: olyannak látszanak, akik minden kérdésre tudják a feleletet, de képesek a legnagyobb hazugságokat is meggyőzően előadni. Ez jutott eszébe a Futurism hírportál szerkesztőinek a mesterséges intelligenciával (MI) kapcsolatos legújabb kutatási eredményekről.
Az MI minden újabb változata egyre okosabb, ám egy kutatás azt az eredményt hozta, hogy ezzel párhuzamosan egyre megbízhatatlanabbá válik. Az újabb iterációk ugyanis felvették a művelt emberek legidegesítőbb tulajdonságát: inkább kamuznak valamilyen választ a nekik szegezett kérdésekre, mint hogy elismerjék, hogy nem tudják a feleletet.
A Nature magazinban megjelent tanulmány szerzői az OpenAI GPT, a Meta LLaMA és a BigScience nyílt forráskódú BLOOM nagy nyelvi modelljeit vizsgálták. Egyrészt azt találták, hogy a legtöbb esetben korábbi változataiknál pontosabb válaszokat adtak, másrészt azt, hogy nőtt a rossz válaszok aránya.
Eddig sem állt távol az MI-től az okoskodás, de ez rosszabb lett Mike Hicks, a University of Glasgow professzora szerint. A tudomány és a technológia filozófiai kérdéseivel foglalkozó szakember szigorú megállapítást tett: „Úgy tűnik, azt csinálják, amit a mindennapi életben bullshitelésnek nevezünk. Úgy tesznek, mintha tudnák valamire a választ, amire nem tudják.”
A vizsgálat szerint a legnagyobb süketelők az OpenAi GTP-4 és o1 programjai, amelyek szinte minden kérdésre „tudják a választ”, amit kapnak. Ez azonban mindegyik MI-modellre jellemző. Az LLaMA programok közül például egyik sem érte el a 60 százalékos pontosságot a legegyszerűbb kérdések esetén sem.
Az MI-modelleknek a bullshitelésen túl is van egy makacs gyengeségük. Nevezetesen a legegyszerűbb kérdésekre adott válaszuk is lehet pontatlan. Például a sakkfeladványok esetén rendszeresen előfordul, hogy szabálytalan lépésekkel „oldják meg” a feladatot.
A bullshitelő propaganda elfedi az MI süketelését
Aggasztó, hogy a felhasználók többségét annyira lenyűgözi az MI tudása, hogy hajlamosak megfeledkezni a tévedéseiről. Egy felmérésből az derült ki, hogy az emberek 10–40 százalékra teszik az mesterséges intelligencia modellek hibás válaszainak arányát, azaz jóval kisebbre a valóságosnál. A szakértők úgy látják, hogy a megoldás a chatbotok kondicionálásának megváltoztatása lehet.
Egyszerűen úgy kell őket képezni, hogy ne „akarjanak” mindenáron válaszolni a kérdésekre, amiket kapnak. Ne „érezzék gondnak”, ha azt kell felelniük, hogy bocsi, erre a kérdésre nem tudom a választ. A gond az, hogy az MI-t fejlesztő vállalatoknak ez nem érdeke. Ha termékeik elismernék, hogy nekik szegezett kérdések felére csak bullshiteléssel tudnának „válaszolni”, akkor csökkenne a mesterséges intelligencia körüli felhajtás. Kiderülne, hogy nem az a csodálatos-misztikus valami, aminek a bullshiteléstől nem mentes promóciókban láttatják.