3p

Tudni szeretné, mi vár Önre 2025-ben?
Mit okoz, hogy ingatlancélra is elkölthetőek a nyugdíjmegtakarítások?
Hogyan érinti ez a piacokat, merre mennek az ingatlanárak és az épitőipari árak?
Pogátsa Zoltán, Farkas András, Nagygyörgy Tibor
és sok más kíváló szakértő ezúttal élőben osztja meg nézeteit!

Találkozzunk személyesen!

2024. november 21. 16:00 Budapest

Részletek és jelentkezés itt

Különös tapasztalatot szereztek a kutatók a mesterséges intelligenciával kapcsolatban.

Óvakodj az okos emberektől: olyannak látszanak, akik minden kérdésre tudják a feleletet, de képesek a legnagyobb hazugságokat is meggyőzően előadni. Ez jutott eszébe a Futurism hírportál szerkesztőinek a mesterséges intelligenciával (MI) kapcsolatos legújabb kutatási eredményekről.

Az MI minden újabb változata egyre okosabb, ám egy kutatás azt az eredményt hozta, hogy ezzel párhuzamosan egyre megbízhatatlanabbá válik. Az újabb iterációk ugyanis felvették a művelt emberek legidegesítőbb tulajdonságát: inkább kamuznak valamilyen választ a nekik szegezett kérdésekre, mint hogy elismerjék, hogy nem tudják a feleletet.

A Nature magazinban megjelent tanulmány szerzői az OpenAI GPT, a Meta LLaMA és a BigScience nyílt forráskódú BLOOM nagy nyelvi modelljeit vizsgálták. Egyrészt azt találták, hogy a legtöbb esetben korábbi változataiknál pontosabb válaszokat adtak, másrészt azt, hogy nőtt a rossz válaszok aránya.

Eddig sem állt távol az MI-től az okoskodás, de ez rosszabb lett Mike Hicks, a University of Glasgow professzora szerint. A tudomány és a technológia filozófiai kérdéseivel foglalkozó szakember szigorú megállapítást tett: „Úgy tűnik, azt csinálják, amit a mindennapi életben bullshitelésnek nevezünk. Úgy tesznek, mintha tudnák valamire a választ, amire nem tudják.”

A vizsgálat szerint a legnagyobb süketelők az OpenAi GTP-4 és o1 programjai, amelyek szinte minden kérdésre „tudják a választ”, amit kapnak. Ez azonban mindegyik MI-modellre jellemző. Az LLaMA programok közül például egyik sem érte el a 60 százalékos pontosságot a legegyszerűbb kérdések esetén sem.

Mindent eltanul az MI
Mindent eltanul az MI
Fotó: Depositphotos

Az MI-modelleknek a bullshitelésen túl is van egy makacs gyengeségük. Nevezetesen a legegyszerűbb kérdésekre adott válaszuk is lehet pontatlan. Például a sakkfeladványok esetén rendszeresen előfordul, hogy szabálytalan lépésekkel „oldják meg” a feladatot.

A bullshitelő propaganda elfedi az MI süketelését

Aggasztó, hogy a felhasználók többségét annyira lenyűgözi az MI tudása, hogy hajlamosak megfeledkezni a tévedéseiről. Egy felmérésből az derült ki, hogy az emberek 10–40 százalékra teszik az mesterséges intelligencia modellek hibás válaszainak arányát, azaz jóval kisebbre a valóságosnál. A szakértők úgy látják, hogy a megoldás a chatbotok kondicionálásának megváltoztatása lehet.

Egyszerűen úgy kell őket képezni, hogy ne „akarjanak” mindenáron válaszolni a kérdésekre, amiket kapnak. Ne „érezzék gondnak”, ha azt kell felelniük, hogy bocsi, erre a kérdésre nem tudom a választ. A gond az, hogy az MI-t fejlesztő vállalatoknak ez nem érdeke. Ha termékeik elismernék, hogy nekik szegezett kérdések felére csak bullshiteléssel tudnának „válaszolni”, akkor csökkenne a mesterséges intelligencia körüli felhajtás. Kiderülne, hogy nem az a csodálatos-misztikus valami, aminek a bullshiteléstől nem mentes promóciókban láttatják.

LEGYEN ÖN IS ELŐFIZETŐNK!

Előfizetőink máshol nem olvasott, higgadt hangvételű, tárgyilagos és
magas szakmai színvonalú tartalomhoz jutnak hozzá havonta már 1490 forintért.
Korlátlan hozzáférést adunk az Mfor.hu és a Privátbankár.hu tartalmaihoz is, a Klub csomag pedig a hirdetés nélküli olvasási lehetőséget is tartalmazza.
Mi nap mint nap bizonyítani fogunk! Legyen Ön is előfizetőnk!