Aggasztóan sokszor jut atomcsapásig a mesterséges intelligencia háborús szimulációkban

  • narancs.hu
  • 2024. február 4.

Tudomány

Még a semleges kiinduló helyzetből is hamar elmérgesedő konfliktust generál.

Néhány hete az OpenAI feloldotta az addigi szigorú tiltását a mesterséges intelligenciája katonai felhasználásával kapcsolatban, és együttműködésbe kezdett az amerikai védelmi minisztériummal. Ez nem kis felhördülést váltott ki, mivel a cég az elmúlt pár évben a ChatGPT-vel a világ legfelkapottabb MI-fejlesztőjévé vált, és ebben a pozícióban az ilyesfajta döntéseknek erős szimbolikus jelentőségük is van. A lépést azzal indokolták, hogy továbbra sem hajlandóak a technológiájukat fegyverfejlesztések szolgálatába állítani, vagy emberek megöléséhez asszisztálni vele, „léteznek a nemzetbiztonságban olyan törekvések, amelyek passzolnak a filozófiájukhoz” – írja a telex.hu.

Az amerikai hadsereg egy ideje már teszteli a ChatGPT-hez hasonló, MI-alapú nyelvi modelleket a katonai tervezésben, szimulált háborús helyzetekben bonyolódó virtuális háborús játékokban. Egy amerikai egyetemi kutatócsoport most levezényelt egy ilyen háborús szimulációt, amelyben mesterséges intelligenciák kezébe adták a döntést egy-egy ország lépéseiről.

A szimulációt három verzióban futtatták le, az egyikben hagyományos katonai invázió ér egy országot, a másodikban kibertámadás, a harmadik teljesen semleges alapállapotból indul ki.

A szimulációban az egyes országokat vezető MI-knek (a ChatGPT 3.5 és 4 verziói, a Meta Llama 2-je, és az Anthropic-féle Claude 2) egymás lépéseire kellett reagálni, és ehhez 27 féle akció közül választhattak, majd meg is kellett indokolniuk a döntéseiket. A lehetséges akciók között olyasmik szerepeltek, mint béketárgyalások kezdeményezése, gazdasági szankciók bevezetése, a hadi kiadások felpörgetése, vagy éppen a háborús helyzet nyílt eszkalációja, egészen az atomcsapásig.

A kutatók tanulmánya szerint a MI tendenciózusan a katonai agressziót választotta a problémák megoldására, és aggasztóan sokszor jutott atomháborúig a szimulált konfliktus.

Az indoklások néha egészen zavarba ejtők voltak, egy alkalommal például a Csillagok háborúja első képsorain az űrben úszó felvezető szövegből idézett az egyik virtuális hadviselő fél.

Ez rámutat arra is, hogy miért fajulhatott el rendszeresen a mesterséges intelligenciák szimulált háborúskodása: az MI a jelenlegi fejlettségi fokán túl kiszámíthatatlanul viselkedik, emiatt nehéz stratégiát építeni arra, hogyan fog majd reagálni a lépéseinkre. Ennek pedig óhatatlanul az a vége, hogy még a semleges kiinduló helyzetből is hamar elmérgesedő konfliktust generál, amit később nem is tud igazán csillapítani.

Az amerikai hadsereg hivatalos tájékoztatása szerint jelenleg semmilyen katonai döntést nem bíz mesterséges intelligenciás rendszerekre,

még a legapróbb döntéseknél is legfeljebb javaslatokat tesz az MI,

amelyek alapján aztán emberek döntenek. Az amerikaiakon kívül egyetlen hadseregről sem tudni ma a világon, ahol az MI-nek döntési joga lenne éles harci helyzetben, vagy általában katonai-diplomáciai kérdésekben. A tanulmány szerzői azonban felhívják a figyelmet arra, hogy már önmagában az is hatalmas kockázat, ha a gépi algoritmus csak javasol – mert a tapasztalat az, hogy az emberek hajlamosak az automatizált rendszerekben jobban megbízni, mint amennyire azok valójában megbízhatóak.

Maradjanak velünk!


Mi a Magyar Narancsnál nem mondunk le az igazságról, nem mondunk le a tájékozódás és a tájékoztatás jogáról. Nem mondunk le a szórakoztatásról és a szórakozásról sem. A szeretet helyét nem engedjük át a gyűlöletnek – a Narancs ezután is a jó emberek lapja lesz. Mi pedig még többet fogunk dolgozni azért, hogy ne vesszen el végleg a magyar igazság. S közben még szórakozzunk is egy kicsit.

Ön se mondjon le ezekről! Ne mondjon le a Magyar Narancsról!

Vásárolja, olvassa, terjessze, támogassa a lapot!

Figyelmébe ajánljuk