12p

Ez a cikk Privátbankár.hu / Mfor.hu archív prémium tartalma, amelyet a publikálástól számított egy hónap után ingyenesen elolvashat.
Amennyiben első kézből szeretne ehhez hasonló egyedi, máshol nem olvasható, minőségi tartalomhoz hozzáférni, akár hirdetések nélkül, válasszon előfizetői csomagjaink közül!

A mesterséges intelligencia kutatásának egyik újabb iránya az arcunkból akarja kiolvasni az érzelmeinket, majd az alapján kiszámolni a motivációinkat. Ezt a technológiát egy sor iparágban lehet alkalmazni, kezdve a még jobban targetáló reklámipartól az elkalandozó diákokat figyelmeztető távoktató-szoftveren át a különféle HR-, de akár rendészeti megoldásokig. A pandémia óriási lökést adott a területnek - akkor is, ha a robotok arcolvasó képessége egyelőre elég pontatlan, ráadásul a gépek előítéletesek is.

A robot belenéz a szemünkbe, és megmondja, mit érzünk, és azt is, hogy mire készülünk. Egy közhelyes sci-fi kezdődhetne valami ilyesmi felütéssel, de mivel 2021-et írunk, ez természetesen már maga a valóság. Olyannyira az, hogy könnyen elképzelhető: az imént vázolt szituáció többünkkel már meg is esett. Mondjuk ez a robot egyelőre nem valami kifinomult, hibákat vét - amitől azonban nem lesz kevésbé félelmetes, csak máshogy kell tartanunk tőle. Persze most nem emberszabásúra megmunkált robotokra kell gondolni, hanem például webkamerákra, melyek mögött egyedi szoftver dohog.

Ahogy egyre fejlettebb a mesterséges intelligencia (innentől: MI) és a gépi tanulás, úgy fordítanak egyre komolyabb összegeket cégek százai arra, hogy finomhangolják ezeket a robotokat, melyek elemzik az arckifejezéseinket, azokból kikövetkeztetik a lelkiállapotunkat, és azt is, hogy az aktuális érzelmeinkből kiindulva mit fogunk tenni. Ilyen technológiát egy sor gigacég - például az Amazon, a Microsoft és a Google - is használ. A Disney ezzel a technológiával elemezte a közönség reakcióit többek között az Állati nagy balhé (Zootopia) című animációs filmje és a Star Wars: Az ébredő erő egyes vetítésein. A Ford, a BMW és a Kia Motors a sofőrre szegezett kamera képének alakulása alapján az autóvezetői éberséget monitorozza, a reklámiparban például a Milwall Brown alkalmazza arra, hogy szondázza a közönség reakcióit olyan ügyfeleik számára, mint a Coca-Cola vagy az Intel, és a londoni Piccadilly Circuson szintén kamerák dolgoztak korábban azon, hogy elemezzék a járókelők reakcióit a hatalmas kivetítőkön futó reklámokra. Kisebb cégek pedig például a HR-ben kísérleteznek a technológiával.

Veszélyesebb területeken is használják már egy ideje a gépi arckifejezés-elemzést: Nagy-Britanniában a Lincolnshire-i rendőrség kapott pénzügyi támogatást arra, hogy ilyen szoftverrel szűrje ki a gyanús állampolgárokat, és évek finomhangolása után élesben alkalmazzák már Kína Hszincsiang tartományában is az elnyomott ujgurok még teljeskörűbb ellenőrzésére "hogy azonnal azonosítsák a potenciális bűnelkövetőket a mentális állapotuk alapján."

A pandémia nyertesei

Számos egyéb, digitális alapú iparághoz hasonlóan az MI-s arckifejezés-elemés is óriásit nyert a koronavírus-járványon. A lezárások miatt a fehér galléros dolgozók home office-ba, a gyerekek távoktatásba kényszerültek, így megsokszorozódott a lehetőség az arcolvasó robotok fejlesztésére és elterjesztésére is. Úgy tűnik ráadásul, hogy ez a fellendülés a pandémiás helyzet hosszú távú hatásai miatt tartós lesz - sokan nem szeretnének visszatérni már az irodákba - , az iparág értéke a Markets and Markets elemzőcég előrejelzése szerint néhány éven belül közel meg fog duplázódni, a 2020-as 19,5 milliárd dollárról 2026-ra 37,1 milliárd dollárosra dagad. Más predikciók szerint 56 milliárd dollárosra nő meg 2024-ig - igaz, eszerint 2019-ben már eleve 21,6 milliárd dollárt ért. Akármelyik jóslatot is nézzük, a a feltételezett értéknövekedés mértéke és üteme impozáns.

Kate Crawford, a New York University MI-szakértője szerint ilyen megfigyelőprogramokat fejlesztenek a távmunkások teljesítményének elemzésére, a táv-állásinterjúkon pedig már több helyütt alkalmazzák is. A távoktatásban néhány helyen már szintén jelen vannak ezek a megoldások. Például Hongkongban: a Kowloon városában működő True Light College lánygimnázium növendékei nem simán csak kornyadoznak a monitorok előtt, hanem a webkamera-képükön keresztül az arcuk minden rezdülését megfigyelik és elemzik a robotok.

Az arcolvasó gépek történetét a Financial Times cikke hozza kicsit közelebb. Az iskolában használt szoftver a 4 Little Trees névre hallgat, elemzéseinek célja az, hogy a tanárok személyre szabottabb és interaktívabb távórákat tudjanak adni, valós időben reagálva az egyéni diákreakciókra. A robot a mimikai izmok mikromozgásainak elemzésével próbál meg beazonosítani például boldogságot, szomorúságot, mérgességet, meglepetést vagy félelmet. Az adatok alapján a gép részletes jelentést készít minden tanuló érzelmi állapotának a tanóra alatti alakulásáról. A robot fejlesztői úgy vélik, képesek felderíteni, mi indítja be a diákok motivációját és koncentrációját. A gép azt is jelzi a diákoknak, ha úgy méri, hogy azok épp elkalandoznak, és ideje ismét koncentrálniuk.

A tanárból cégalapítóvá avanzsált Vicky Lim szerint a szoftver 85 százalékos pontossággal állapítja meg helyesen a fiatalok érzelmeit. A gépek a fáradtságot, a stresszt, a szorongást is be tudják azonosítani, arckifejezések, mikrogesztusok, szemmozgás és hangszín-elemzés alapján. A pandémia valóban felpörgette az üzletet: korábban 34 hongkongi iskola használta a 4 Little Treest, de a tavalyi év során ez a szám 83-ra nőtt.

A pókerarc mint csodafegyver

Az iparág nagy lelkesedését alááshatja, hogy a technológia valójában nem valami pontos, bármivel is büszkélkedjen a 4 Little Trees vezetője. Azt legalábbis felmérések kimutatták, hogy még ha sikerül is beazonosítani az arckifejezéseket, azokból nem feltétlenül lehet következtetni az alany valódi érzelmeire, gondolataira, és a következő cselekedeteire. Az Association for Psychological Science nonprofit szervezet megbízásából öt MI-tudós az elmúlt két évben több mint ezer az érzelemfelismerő technológiákról szóló tanulmányt elemzett, és azt a végkövetkeztetést vonták le, hogy annyira sok eszközt használunk fel az érzelmeink kifejezéséhez, hogy lehetetlen pontos következtetéseket levonni pusztán a mimikai elemzéssel.

Kutatások mutatták ki, hogy amikor az emberek mérgesek, az esetek csak kevesebb mint 30 százalékában ráncolják a homlokukat - utóbbi az egyik leggyakoribb mimikai mozgás, amit hagyományosan az indulatossághoz társítunk. A szemöldök összevonása tehát nagyon nem csak a düh jele, sokszor teszünk így akkor is, amikor nem vagyunk mérgesek - ugyanakkor, ha mérgesek vagyunk, az esetek 70 százalékában nem ráncoljuk a homlokunkat, fejtette ki a Financial Timesnak Lisa Feldman Barrett, a Northwestern University pszichológusa, aki részt vett a fent említett tanulmányözön elemzésében. Ugyanígy nem lehet egyértelműen megfeleltetni egy mosolyt a boldogsággal, a lebiggyedő ajkat a szomorúsággal, és így tovább. Az ilyen egyszerű megfeleltetéseket nem szabad tehát tudományos tényként kezelni.

Nem valami kiforrott még a rendszer. (Illusztráció: Depositphotos)
Nem valami kiforrott még a rendszer. (Illusztráció: Depositphotos)

Ezek a megfeleltetések egy Paul Ekman nevű pszichológus munkásságán alapulnak. Ekman a '60-as években Pápua Új-Guineába utazott, és kísérletek sorát végezte el, hogy igazolja az elméletét, mely szerint minden emberi lény, függetlenül a kulturális, nemi és földrajzi beágyazottságától, ugyanazt a hét univerzális érzelmet mutatja: örömöt, haragot, meglepetést, undort, szomorúságot, félelmet és megvetést. Ezt a régi értelmezési keretet használják fel a cégek arra, hogy megtanítsák a robotoknak az érzelmek felismerését, annak ellenére, hogy az érzelemkifejezés módját valójában számos körülmény módosítja. Csak hát ez az univerzális keret passzol az MI-eszközökhöz - úgy tűnik, ebben az esetben a gombhoz varrják a kabátot.

A ma 87 éves Ekman továbbra is védi a rendszerét, ám azt mondja, a cégek kereskedelmi célból "visszaélnek vele." És ő is arról beszél, hogy a vállalatoknak külön kutatniuk kéne az arckifejezések és a mutatott viselkedés közti kapcsolatot, mert pusztán az arcelemzés nem fogja elárulni, hogy az adatokból levont következtetések adott szituációban pontosak vagy pontatlanok. Ráadásul személyenként változhat az is, hogy egyes érzelmeket hogyan mutatunk ki. "A legnagyobb része, amit láttam belőle, pszeudo-tudomány volt" - mondta Ekman a technológiáról.

A szándékok arcelemzés-alapú kikövetkeztetésével az is baj a kritikusok szerint, hogy olyan kényes területeken hozhat hibáktól hemzsegő és prekoncepciók-fűtötte döntéseket, mint az oktatás, a rendészet, a munkaerő-felvétel vagy a határellenőrzés. Suresh Venkatasubramanian, a University of Utah előítélet- és diszkrimináció-vizsgálatra szakosodott gépitanulás-kutatója - és a HR-területen tevékenykedő arcelemző HireVue cég korábbi főmunkatársa - szerint minden esetben tanulási adatok tömkelegére van szükség, ha egy gépet akarunk kiképezni a felelős döntéshozatalra. És minden tanulási adatot fel kellene címkéznie egy ellenőrnek, hogy az helyes vagy helytelen - ebben az esetben az ellenőrnek azt kellene megítélnie, hogy adott arckifejezés mit takar valójában. Azt mondja, ez a rendszer így "túl zajos", és nincsenek benne megbízható indikátorok.

Előítéletes, de legalább tőlünk tanulta

Munkaerő-toborzásban a jelentkezők arckifejezéséből vonnak le következtetéseket azok megbízhatóságáról, lelkiismeretességéről, érzelmi intelligenciájáról és kognitív képességeiről. A fent említett HireVue több mint 700 ügyfele közé tartozik a GE, a Hilton és a Delta, az ugyanezen területen tevékenykedő Human nevű cég pedig az Unileverrel dolgozik együtt. Az előítéletesség azonban az itt felhasznált adatok terén is felüti a fejét. A Bayerischer Rundfunk például a Retorio nevű müncheni HR-robotot tesztelve azt találta, hogy az másként osztályozza ugyanazt a pályázót, ha az illető különböző öltözékben és kiegészítőkkel jelenik meg - másként reagál például arra, ha valaki fejkendőt köt vagy akár csak szemüveget vesz fel. A cég közlése szerint részben azért működött így a robotjuk, mert annak gépi tanulása valódi HR-esek viselkedésén alapult. Tehát sikeresen eltanulta tőlük az előítéletességet is.

A legfőbb probléma Venkatasubramanian szerint az, hogy az emberekkel szemben a gépek nem tudják menet közben módosítani a viselkedésüket. Emberként, ha hibát vétünk a másik érzelmeinek értelmezésében, azonnal megkapjuk erről a visszajelzést, és korrigálunk, ám a robot millió esetből lepárolt modellekkel dolgozik, finomhangolásra nem képes. A HireVue-t 2019-ben beperelték az előítéletes HR-programja miatt, így a cég januárban be is jelentette, hogy a továbbiakban nem használja az arcelemzését állásinterjúk során, és erre buzdítja a versenytársait is, mert a foglalkozások többségénél sokkal kisebb az összefüggés az arckifejezések és a munkahelyi produktivitás között, mint amekkora korreláció az arckifejezések és egyéb területek között fennáll. Viszont a jelentkezők nyelvhasználatát továbbra is elemezni fogják, mert az szerintük meglehetősen jó jóslatokat ad arról, hogy adott jelölt mennyire alkalmas adott pozícióra.

Az is az arckifejezés-elemzés ellen szól, hogy különböző kultúrák különbözőképpen fejezik ki az érzelmeket. A fentebb említett hét alapérzelem a hozzájuk társított arckifejezésekkel abszolút nyugatcentrikus alapokon nyugszik. A kulturális különbségeket ebben a tükörben maga Ekman is vizsgálta egyébként, még a '80-as években. Az amerikai és japán egyetemi hallgatók körében elvégzett kísérlet azt vizsgálta, miként reagálnak erőszakos filmekre a hallgatói csoportok, attól függően, hogy ott van-e velük a vetítés közben olyasvalaki, aki hozzájuk képest hatalmi pozícióban van. A vizsgálat azt találta, hogy az amerikai hallgatók mutatott reakciói nem változtak meg, a japán hallgatók viszont másként regáltak a filmekre, ha egy magasabb tekintéllyel rendelkező személy is ott volt velük: saját kultúrkörük szabályait követték, mely meghatározza, hogy ki kinek mit mutathat meg magából a különböző szituációkban.

Csak ha rábólintottunk

Az optimisták szerint igenis van jövője a technológiának, és sokkal pontosabbak lesznek a következtetések, amint a cégek elkezdenek ország- és kultúrkör-specifikus megoldásokon dolgozni. Néhányan már most így tesznek, az Empath nevű tokiói cég például felismeri, hogy a kulturális különbségek mennyire meghatározzák a mimikát, és hogy az érzelmek mennyire más szintű kimutatását (vagy elfojtását) tartja elfogadhatónak egy nyugati és egy japán közösség. A 4 Little Trees pedig kínai arcokon taníttatja a gépét. Úgy tűnik, az iparág jövője tehát a helyi közösségek és kontextusok gépi megtanulásában rejlik.

Azzal együtt a kritikusok továbbra is megkérdőjelezik, hogy kellene-e a gépeknek egyáltalán arról döntenie, hogyan fognak reagálni az emberek a különböző szituációkban, különösen, ha ezt a döntést az engedélyünk nélkül hozzák meg. Az Európai Unió a nemrég benyújtott MI-szabályozási tervezetében mindenesetre "magas kockázatúnak" bélyegezte az érzelemfelismerő technológiákat, és az emberek előzetes beleegyezéséhez kötné ezeket a gépi döntéseket. Ekman, akinek a korai kutatásán ez az egész alapul, egyetért az uniós óvatossággal. Mint mondja, valakinek az arckifejezéseit fürkészni - főleg az alany tudta nélkül - a magánszféra megsértése. Szerinte, ha azt nem előzi meg az alany megfelelő informáláson alapuló beleegyezése, akkor törvényileg meg kellene tiltani az arckifejezések rögzítését és elemzését.

(Financial Times)

LEGYEN ÖN IS ELŐFIZETŐNK!

Előfizetőink máshol nem olvasott, higgadt hangvételű, tárgyilagos és
magas szakmai színvonalú tartalomhoz jutnak hozzá havonta már 1490 forintért.
Korlátlan hozzáférést adunk az Mfor.hu és a Privátbankár.hu tartalmaihoz is, a Klub csomag pedig a hirdetés nélküli olvasási lehetőséget is tartalmazza.
Mi nap mint nap bizonyítani fogunk! Legyen Ön is előfizetőnk!