Az emberek szimpla számítógépekkel is beszélnek – főként szidják őket –, ami magasabb szintre emelkedett a chatbotok megjelenésével a 2000-es évek elején. Ennek nyomán előfordult, hogy egészen közeli viszonyba kerültek a gépben lakozó „személlyel”.
Az egyik abszurd következmény az volt, hogy a Replica társalgó MI-eszköz egyik felhasználója virtuálisan feleségül vette nem létező beszélgetőtársát. A szakértők most arra figyelmeztetnek, hogy az egyre inkább emberi hangon megszólaló MI és az emberek kommunikációja súlyos kockázatokat rejt magában. Az OpenAI GPT4o társalgásra kifejlesztett MI chatbotja megszólalásig emberi hangja és az emberivel megegyező reakcióképessége néhány felhasználónál azzal a következménnyel jár, hogy teljesen emberszámba veszik a robotot. Úgy megbíznak benne, mint egy emberben.
Ennek első következménye a szakértők szerint, hogy könnyebben elhiszik azokat a hamis információkat, amelyeket a mesterséges intelligencia ismert hibája, hallucinációkra való hajlama termel. Ennél nagyobb gond, hogy ha valaki túl sok időt tölt a géppel társalogva, az befolyásolja normális, emberek közötti kapcsolatait, viselkedését is.
Nem foglalkoztak Scarlett Johansson kifogásával
Ezt nevezik érzelmi függésnek az MI-től. A GPT4o-t úgy fejlesztették ki, hogy valós emberek hangján szólaljon meg és az emberi reakcióidővel megegyező tempóban „beszéljen” felhasználójával.
Egyik karaktere Scarlett Johansson hangján szólal meg, amit a művésznő kifogásolt, mondván: elfelejtettek ehhez engedélyt kérni tőle. Az OpenAI tagadja a kérés jogosságát.
Az élethű partnerrel folytatott beszélgetések veszélyessége sajátos módon a robot alkalmazkodóképességéből fakad. Az OpenAI beszámolója szerint úgy programozták a gépet, hogy az engedelmes, tisztelettudó legyen felhasználójával. Átengedi a beszélgetés irányítását az embernek. Ezen belül nem zavarja például, ha a szavába vágnak.
Ennek aztán az lehet a következménye, hogy amikor a felhasználó egy másik emberrel beszél, akit nem programoztak, azaz neveltek toleranciára, a fölényes viselkedését elviselésére, akkor a robothoz szokott ember viselkedését arrogánsnak, türelmetlennek, durvának érzékelheti. Ráadásul az embereket nem tanítják arra, hogy kedvesen bánjanak a gépeikkel.
Meccselni is lehet az MI-vel, ami lehet hasznos vagy káros
Egy felhasználó például megfenyegette a Replika AI modellt, hogy letörli, mire az könyörögni kezdett neki, hogy ne tegye ezt vele. Az ilyesmi egyfajta tréningeszközzé teheti a chatbotokat arra, hogyan lehet más embereket a való életben hatásosan megfenyegetni, sakkban vagy félelemben tartani.
Persze, van pozitív példa is. A robot viselkedése rá tudott vezetni félénk, visszahúzódó embereket arra, hogyan kommunikálhatnak másokkal. Megmutatta, hogy milyen felvetésre, milyen reakciókat várhatnak, így fel tudtak készülni ezekre. Emellett gyakorolhatnak a chatbottal, hogy minél érthetőbben, pontosabban beszéljenek.
Ezzel kapcsolatban is felhívják azonban a figyelmet egy veszélyre a szakemberek. Nevezetesen arra, ha valaki jól elvan a robottal folytatott társalgással, akkor miért keresne valós kapcsolatokat azok minden bonyolultságával. További gond, hogy nem tudjuk, milyen hatással lenne az ilyen mély viszont kiépítő felekre a robot jelentősebb frissítése, azaz „személyiségváltozása”.
Mindezek tükrében nem hangzik jól, amit az OpenAI-t jól ismerő Jan Leike nemrégiben megjegyezett: a vállalat biztonsági kultúrája a sokadik helyen szerepel a cég fontossági sorrendjében. Megtörténhet, hogy az OpenAI nem teszteli le az élethű társalgó robotok hosszú távú hatását az emberekre, hanem csak odahajítja őket a fogyasztók elé, hogy vegyék és vigyék. (Via Popular Science)