A mesterséges intelligencia (AI) elterjedése nem csak pozitívumokat fog hozni, számos kockázatot is hordoz, legalább is egy ismert amerikati háttérszervezet szerint. A hadügyi és biztonságpolitikai területen meglehetősen otthonosan mozgó RAND Corporation most publikált elemzése szerint, amelyet a CNBC idézett a következő két évtizedben a AI sok területen segíthet a döntéselőkészítésben, majd vehet át a későbbiekben konkrét döntéseket is. Ez azonban komoly biztonságpolitikai kockázatokat hordoz magában.
Eddig ugyanis hiába fejlesztett számos ország atomfegyvert, az intézményes megállapodások mellett volt egy olyan vezérelv is, amely szerint bárki lövi ki az első atomrakétát, annak beláthatatlan következményei lesznek az egész emberiségre nézve. Éppen ezért - a II. világháborús japán bombázást kivéve - a legfeszültebb pillanatokban is mellőzték eddig az atomfegyverek használatát a nagyhatalmak. Félő viszont, hogy erre a fajta belátásra nehéz kondícionálni a mesterséges intelligenciát, amelynek döntési módszerei eltérnek a humán folyamatoktól. Az AI ugyanis a különböző körülményeket elemezve könnyen juthat arra a döntésre, hogy adott szituációban az a legsikeresebb stratégia, ha megelőző csapást mérnek egy másik országra, hogy jobb alkupozícióba kerüljenek, még akkor is, ha nem szándékoznak támadást folytatni - állítják a kutatók.
Egyes szakemberek attól tartanak, hogy a mesterséges intelligenciára való fokozott támaszkodás új típusú katasztrofális hibákhoz vezethet - mondta Andrew Lohn, a RAND elemzésének társszerzője. A RAND-dokumentum kiemeli az AI használatának veszélyeit, ezek ugyanis olyan katonai döntéseket hozhatnak, amelyek egy bizonyos szempontrendszerben elvileg logikusak. Így a harci drónok, vagy más gyilkos robotok bevetése saját oldalon például nem jár embei veszteséggel, a következmények azonban felmérhetetlenek.
A szakértők példaként kiemelik, hogy 1983-ban a gépek kishíjján atomháborúba sodorták a világot. Akkor egyetlen ember bátorsága és a józan észre hagyatkozása akadályozta csak meg, hogy egy félreértés miatt atomháború robbanjon ki. A szuperhatalmak közötti mélységes bizalmatlanságnak ez a légköre uralkodott, amikor szeptemberben riasztás érkezett: a Kozmosz 1382-es felderítő műhold egy Minuteman amerikai interkontinentális rakéta indítását jelezte. Valójában nem is rakétafellövés, hanem egy villámcsapás volt, amit a műhold érzékelt. Szerencsére Sztanyiszlav Petrov főhadnagy, aki rangidős tiszt volt műholdmegfigyelő központ parancsnokságán megőrizte a nyugalmát, és arra utasította beosztottjait, hogy ne reagáljanak a jelzésre. Valószínűsíthető, hogy egy ilyen téves riasztásra, ha gépek reagálnak, akkor a válaszcsapás (ami valójában nem is az) nem várat magára.
A helyzetet bonyolítja, hogy miközben a sajtó elsősorban a polgári alkalmazással foglalkozik, legyen szó például önvezető autókról vagy az okosvárokról és intelligens otthonokról, a legnagyobb összegeket ezen a területen is a hadiipari fejlesztések viszik el, ezek kockázata pedig nehezen felmérhető. Talán nem véletlen, hogy napjaink egyik legismertebb technológiai úttörője, Elon Musk, aki az elektromos autókat gyártó Tesla, vagy a jövőbeni polgári űrrepülést végző Space-X vállalatok első embere is figyelmeztetett korábban. Musk azt jelezte, hogy az ENSZ-nek mielőbb meg kell akadályozni a halálos autonóm fegyverek fejlesztését. Ezek ugyanis lelkismeret nélküli diktátorokká válhatnak, amelyek elől senki nem menekülhet, és a harmadik világháborút kirobbanthatják.
Atomháborút robbant ki mesterséges intelligencia?
Egy most publikált elemzés szerint az emberek ugyan időnként irracionálisan viselkednek, de vélhetően elkerülik az atomháborút, a mesterséges intelligencia térhódítása viszont ilyen kockázattal is járhat.