Az egyre népszerűbb mesterséges intelligenciával (MI) működtetett eszközök óriási adattömegeket dolgoznak fel. Milliárdnyi, sőt ezermilliárdnyi információmorzsából rakják össze válaszaikat a nekik feltett kérdésekre, aminek kiszolgálása óriási adatközpontokat igényel.
Fotó: Depositphotos
Az ERPI számításai szerint az OpenAI ChatGPT-je, ami elindította az MI rohamos terjedését 2022 végétől kezdve, tízszer annyit energiát fogyaszt, mint amennyit a tipikus Google-keresések. Ez a tréningezése közben felhalmozott óriási adatbázis mozgatásából és az ehhez szükséges energia hőtermelésének levezetéséből fakad. Szaporítva a statisztikai adatokat ideillik a Goldman Sachs bankház szakértőinek becslése. E szerint 2028-ban az adatközpontok energiafogyasztásának 19 százalékáért az MI-s modellek lesznek a felelősek. A Goldman másik előrejelzése szerint 2024-ben a világ energiafogyasztásának egy-két százalékát fogják képviselni az adatközpontok. Ez 3-4 százalékra mehet fel 2030-ra. Az USA-ban, ahol az ilyen központok nagyjából fele található, nyolc százalék lehet ez az arány. A Goldmannek arra is van becslése, hogy ennek a többletigények a kiszolgálása milyen arányban származhat hagyományos módon előállított elektromos energiából. Hatvan százalékra teszik ezt forrást, ami azt jelenti, hogy az MI hozzájárul a globális felmelegedéshez. Ez ellentmond azoknak a szakértői véleményeknek, amelyek szerint a mesterséges intelligencia terjedése enyhíteni fogja a klímaválságot. Pontosabban úgy kell fogalmaznunk, hogy a tudósoknak és a gazdaság szervezeteknek az MI segítségével jobban kell segíteniük az zöldenergia termelésének terjedését, mint amilyen tempóban nő az adatközpontok energiafogyasztása. (Via Popular Science)