3p

Miből lesz pénz a választási osztogatásra?
Mit okoz az árrésstop?
Mit kellene tenni a költségvetéssel?

Online Klasszis Klub élőben Békesi Lászlóval!
Vegyen részt és kérdezze Ön is a korábbi pénzügyminisztert!

2025. június 11. 15:30

A részvétel ingyenes, regisztráljon itt!

Olyan problémával kerültek szembe a mesterséges intelligencia modellek fejlesztői, ami alapjaiban fenyegeti üzletüket, mert termékeik a hasznavehetetlenségig megbízhatatlanná válhatnak.

Miközben a vállalatvezetők egyik legfontosabb problémája, hogy eldöntsék, mennyit és miként fektessenek be a mesterséges intelligenciába (MI), nem is tudnak róla, hogy az MI modelleket, amelyek a cégéhez kerülhetnek súlyos fertőzés fenyegeti – írta a Futurism hírportál. Azokról a szoftverekről van szó, amelyek a ChatGPT 2022 végi megjelenése és használatba vétele után készültek.

A szakértők szerint ezek a mesterséges intelligencia modellek összeomolhatnak annak következtében. hogy az emberek az MI megjelenése óta a zűrzavaros kérdéseikre kapott mindenféle válaszokkal teleszemetelték az internetet. Ez a szemét bekerülhet az újabb modellek tudásanyagába. A sajátos kannibalizmussal degradálódhat az a háttértudás, amire az MI-modellek saját válaszaikat alapozzák.

A mesterséges intelligencia selejtes tartalmai mérgezik a mesterséges intelligenciát

Az MI-ipar nagy léptekkel menetel a felé az állapot felé, amikor a modelljei felkészítéséhez felhasznált emberek által előállított, autentikus információforrás kimerül. Vannak olyan szakértők, akik szerint már el is érkezett ez a helyzet. Az eredmény leegyszerűsítve az lehet, hogy selejtes tartalom kerül be az MI-modellekbe, ami növeli a valószínűségét, hogy saját válaszaik is selejtesek lesznek: megbízhatatlanná, félrevezetővé válnak.

Érdekes elemzés érkezett
Érdekes elemzés érkezett
Fotó: Pixabay

A problémára válaszul a nagy fejlesztő cégek, a Google, az OpenAI, az Anthropic kitalálták az úgynevezett retrieval-argumented generation (RAG, adatkeresésre alapozott generálás) módszerét. Ez lényegében lehetővé teszi a nagy nyelvi modelleknek (LLM), hogy „szétnézve” az interneten kipótolják a tudásukat olyan ismeretekkel, amelyek a kiokosításuk után kerültek fel a világhálóra. Ez nagyon jól hangzik, leszámítva az a gondot, hogy az internet ma már tele van a lusta felhasználók olyan tartalmaival, amelyek a mesterséges intelligencia felhasználásával készültek. Ezek gyakran mulatságosan rossz vagy legalábbis pontatlan információk, amelyeket a GAC segítségével vidáman lenyelnekk az MI-modellek.

Új munkakör születhet, amit MI-ellenőrnek nevezhetünk

A Bloomberg tanulmánya szerint a legújabb LLM-ek, köztük az OpenAI GPT-40, az Anthropic Claude-3,5-Sonnet és a Google Gemma–7B modellje sokkal kevésbé biztonságos válaszokat adnak a felhasználók kérdéseire, mint a RAG képességável nem rendelkező társaik. Nagyobb gyakorisággal adnak káros, sértő, etikátlan válaszokat, illetve terjesztenek hamis információt és veszélyeztetik az emberek magánszféráját. A végeredmény az, hogy amikor a mesterséges intelligencia kimeríti a képzéséhez felhasznált adatokat, és az internetről próbálja kiegészíteni azt, akkor ingoványos talajra téved, ahol bármikor belephet egy sáros tócsába, ami bepiszkolja a tudását. A megbízhatatlanság aztán elérheti azt a szintet, amikor még nem túl okos cégvezetők is rájönnek, hogy korrigálniuk kell vagy figyelmen kívül kell hagyniuk azt, amit vállalatuk MI-modellje sugall nekik.

LEGYEN ÖN IS ELŐFIZETŐNK!

Előfizetőink máshol nem olvasott, higgadt hangvételű, tárgyilagos és
magas szakmai színvonalú tartalomhoz jutnak hozzá havonta már 1490 forintért.
Korlátlan hozzáférést adunk az Mfor.hu és a Privátbankár.hu tartalmaihoz is, a Klub csomag pedig a hirdetés nélküli olvasási lehetőséget is tartalmazza.
Mi nap mint nap bizonyítani fogunk! Legyen Ön is előfizetőnk!