Vastörvény - A robotok és az etika

Tudomány

Kit véd a robotautó? A gazdáját vagy az óvatlan járókelőket? És ki fogja beprogramozni a cselekedeteit vezérlő utasításokat?

A mesterséges intelligenciáról szóló diskurzusban mindig hangsúlyosan szerepeltek etikai elemek, de korunk technológiai fejlődése nyomán ezek gyakorlati fontosságot is nyertek. Az első efféle megfontolások még a science fiction irodalomban jelentkeztek: ki ne emlékezne például Asimovra és a robotika törvényeire (ezeket a nem olvasók fejébe is beleverték Spielberg Én, a robot című, mondjuk erősen vitatott értékű filmes interpretációjának jelenetei). Napjainkban viszont már nagyüzemben tesztelik a sofőrt sem igénylő autókat (bővebben: Mindig igazuk van, Magyar Narancs, 2016. február 11.), s ezek többször kerültek balesethez vezető szituációkba, sőt haláleset is előfordult a próbautak során. Ugyanakkor minden eddigi eredmény azt mutatja, hogy a nagyobb mértékben robotok kezébe adott közlekedési rendszer jóval kevesebb emberi áldozattal jár, mint napjaink autósvilága. Ám mind közelebb jutunk azokhoz a korábbi morálfilozófiai szempontból is elemzett dilemmákhoz, amikor egyes kimenetekhez meghatározott statisztikai valószínűségekkel jellemzett, vagy éppen holtbiztosnak tekintett áldozatszámok tartoznak, s a járműnek, egészen pontosan a programozójának választania kell: kit áldozzon fel? Netán a saját utasát?

A halál villamosa

Az egyik ilyen morális paradoxonhelyzetet villamosdilemmának (angolban eredetileg trolley-dilemma) nevezték el kiötlői. Eredetileg Philippa Foot brit morálfilozófus alkalmazta e példát még 1967-ben, de azóta kollégái, Judith Jarvis Thomson, Peter Unger és Frances Kamm interpretációi nyomán is emlegetik. Foot eredeti példájában egy villamos közeledik megállíthatatlanul a síneken dolgozó öt ember felé, de a vezető egy elágazásnál még letérhet, s így „csak” egy ember vész oda. Azóta a morálfilozófusok újabb generációi tesztelték és fejlesztették tovább a példát: az egyik esetben a villamosvezető (aki ebben az esetben még határozottan ember) választhat, hogy emberek egy csoportjának vagy egy másik villamosnak vezeti frontálisan a kötöttpályás járművet, máskor egy megfigyelő dönthet úgy, hogy egy járókelő sínre lökésével fékezi le a villamost. Nyilvánvaló, hogy választás előtt állunk, de értenünk kell, hogy a dilemma során az a két opció, hogy hagyunk-e valakiket meghalni, vagy úgy mentjük őket, hogy tudatosan megölünk másvalakit, etikai szempontból különböző esetek, s a villamos-dilemma verziói is másképp értékelendők.

Tesztüzem

Tesztüzem

Fotó: wikipedia

Miután már Budapesten is közlekednek vezető nélküli metrókocsik, még jobban átélhető, hogy az autonóm járművek is kerülhetnek ilyen mindenképpen veszteséggel járó no win szituációba, s ilyenkor a beléjük plántált algoritmus dönthet életek sorsáról. De még egyértelműbbek az ilyen helyzetek a mostanában tesztelt nem kötöttpályás, autonóm, önvezető járművek esetében. Egy útra dőlt vagy a kereszteződésben felbukkanó kikerülhetetlen akadály észlelése nyomán (már ekkor sem mindegy, hogy fatörzsről vagy szarvasról beszélünk!)  a robotsofőrnek el kell döntenie, hogy saját utasa, passzív „vezetője” életét kockáztatja, vagy félrerántja a kormányt és elgázol egy gyalogost. A pusztán biztos végkimenetelek számbavételét bonyolíthatja, ha az egyes forgatókönyvekhez valószínűségeket társítunk, mert mit mondhatnánk arra, hogy az egyik esetben négy ember hal meg ötvenszázalékos valószínűséggel, a másikban csak kettő, de az ő esélyük a halálra már 80 százalék. És hogyan bonyolítja a mérlegelést, ha a potenciális áldozatok között gyerekek is vannak? Az ilyen szinte feloldhatatlan dilemmák kezelésére valamiféle preferenciarendszert kell beprogramozni a gépekbe, amelyek az így megadott algoritmus alapján dönthetnek adott szituációban. Először el kell dönteni, hogy kinek az értékrendje határozza meg azt, hogy mi kerüljön a robotba. Vajon a kiválasztott szakértő kevesek racio­nális mérlegelése, a kockázatok kimenetelének hidegen észszerű elemzése, a potenciális áldozatok száma és fontossága szerinti súlyozás szabja meg a robot viselkedésének alapjait vagy épp ellenkezőleg, és demokratikus körülmények között döntsön a többségi akarat arról, hogyan viselkedjenek kritikus szituációkban az intelligens gépek? És ha a többség a nagyobb jó mellett dönt (lásd Asimov és a robotok című keretes írásunkat), akkor az autonóm autó áldozza fel saját utasát s így mentsen meg egy ütközési szituációban egy nagyobb csoportnyi embert? Hogyan lehet ilyen számító, racionális eszközök használatára, pláne a megvásárlására bírni bárkit is, annak tudatában, hogy a gép beáldozhatja saját vezetőjét is? Nem beszélve arról, hogy az ilyenkor keletkező kockázatokat be kell áraznia a biztosítónak, s a bekövetkező balesetek ügyében döntenie kell a bíróságnak is. Emberi sofőr híján ki lesz a felelős? Csak nem a programozó?

Gondban a robot

Az sem egyértelmű, hogy a gépek miként értelmezik majd saját, beléjük ültetett parancsolataikat, hiszen a programozó oldaláról látszólag világos utasítások értelmezéséből fakadó dilemmák végül döntésképtelenséghez vezetnek. Nemrég Alan Whitfield robotkutató egy bristoli laboratóriumban végzett el egy leegyszerűsített kísérletet, amivel a robotok és más mesterséges intelligenciával bíró létformák viselkedését szimulálta életszerű szituációban. Két robotot programozott be: az egyiket önfejű emberi logikával ruházta fel, s ez egyenesen megindult egy lyuk felé, a másik feladata az volt, hogy jól kivitelezhető módon eltérítse az útjából, például lökje föl és így akadályozza meg, hogy belezuhanjon a gödörbe. Amíg ilyen egyszerű dolga volt, minden esetben sikerrel járt, de  de a helyzet a kísérlet következő fázisában tovább bonyolódott. Ekkor már két vesztébe rohanó robotot indítottak a lyuk felé, s ekkor a 32 esetből csak kétszer tudta a „józan” robot megmenteni mindkét társát. Az esetek felében legalább az egyiket eltérítette a rossz útról, de 14-szer olyan hosszan elemezte gépagyával a helyzetet, hogy mindkét delikvens belepottyant a gödörbe. Winfield úgy véli, hogy etikai döntéshozatal elé állította a robotot, aki azért bukott el, mert nem „értette” a tettei mögött megbújó (merőben morális természetű) indítékot.

Az efféle kísérletek tanulságait elemezve a kutatók állítják, hogy az ilyen szituációkból jobban megérthetjük akár az összetettebb etikai viselkedés alapjait (és nem csak a robotokét).
Az is valószínűnek tűnik, hogy a gépi morális döntéshozatalban akkor következhet be nagyobb áttörés, ha majd a robotok képesek lesznek olyan körülményekre is jól reagálni, amelyekkel korábban nem találkoztak. Meglehet, ehhez még kevés, ha „beléjük verünk” néhány mérlegelést lehetővé tevő ökölszabályt vagy beléjük programozzuk a döntés hátterét biztosító finom statisztikai kockázatelemezés fortélyait. Arról már nem is beszélve, hogy bizonyos közlekedési szituációkban, amelyekkel a vezető nélküli, autonóm autók gyakorta szembekerülhetnek, akár ütközhetnek is az etikai szempontok illetve a törvények, szabályok betartásának parancsa. Például megsértené-e a robotautó a közlekedési szabályokat, hogy életeket mentsen?

Asimov és a robotok

Isaac Asimov, a modern sci-fi irodalom egyik legtöbbet idézett klasszikusa számos munkájában foglalkozott az ember és robot közötti, akkor még csak hipotetikus viszony problémáival. 1942-ben írt Körbe-körbe (Run­a­round) című elbeszélésében fektette le a robotika három alaptörvényét, amelyek azóta nemcsak a sci-fi irodalomban számítanak alapvetőnek, de a tudományos megközelítés számára is jól elemezhető etikai szempontokat vetnek fel. Az első törvény szerint a robotnak nem szabad kárt, pláne sérülést okoznia egy embernek, s azt sem tűrheti tétlenül, hogy bárkinek baja essen. A második törvény szerint a robotnak engedelmeskednie kell az emberi utasításoknak, amíg azok konfliktusba nem kerülnek az első törvénnyel. A harmadik szerint a robotnak önnön épségét is oltalmaznia kell, amíg ez nem ütközik az első és a második törvénnyel. Ezekből a törvényekből természetesen számos paradox szituáció fakadhat, s ezek kedvelt témái voltak Asimov későbbi pályafutásának is – robottárgyú novelláit Én, a robot (I, Robot) címmel gyűjtötte össze és publikálta még 1950-ben. Később kidolgozott egy afféle nulladik törvényt is, mely szerint a robotnak meg kell védenie az emberiséget, illetve passzivitásával sem veszélyeztetheti annak létét, még ha eközben összeütközésbe is kerül is az első törvénnyel. A nagyobbik jó elve pedig máris elvezet minket a kockázatos kimenetelű szituációkban döntési kényszerbe kerülő mesterséges intelligenciák dilemmáihoz.

Figyelmébe ajánljuk

Eldobott aggyal

  • - ts -

A kortárs nagypolitika, adott esetben a kormányzás sűrű kulisszái mögött játszódó filmek, tévésorozatok döntő többsége olyan, mint a sci-fi, dolgozzék bármennyi és bármilyen hiteles forrásból.

Nemes vadak

Jason Momoa és Thomas Pa‘a Sibbett szerelemprojektje a négy hawaii királyság (O‘ahu, Maui, Kaua‘i és Hawai‘i) egyesítését énekli meg a 18. században.

Kezdjetek el élni

A művészetben az aktív eutanázia (asszisztált öngyilkosság) témaköre esetében ritkán sikerül túljutni egyfajta ájtatosságon és a szokványos „megteszem – ne tedd meg” dramaturgián.

A tudat paradoxona

  • Domsa Zsófia

Egy újabb dózis a sorozat eddigi függőinek. Ráadásul bőven lesz még utánpótlás, mivel egyelőre nem úgy tűnik, mintha a tucatnyi egymással érintőlegesen találkozó, egymást kiegészítő vagy egymásnak éppen ellentmondó történetből álló regényfolyam a végéhez közelítene: Norvégiában idén ősszel az eredetileg ötrészesre tervezett sorozat hatodik kötete jelenik meg.

Törvény, tisztesség nélkül

Hazánk bölcsei nemrég elfogadták az internetes agresszió visszaszorításáról szóló 2024. évi LXXVIII. törvényt, amely 2025. január 1. óta hatályos. Nem a digitális gyűlöletbeszédet kriminalizálja a törvény, csak az erőszakos cselekményekre felszólító kommentek ellen lép fel.

Nem így tervezte

Szakszerűtlen kéményellenőrzés miatt tavaly januárban szén-monoxid-mérgezésben meghalt egy 77 éves nő Gyulán. Az ügyben halált okozó, foglalkozás körében elkövetett gondatlan veszélyeztetés vétsége miatt ítélték el és tiltották el foglalko­zásától az érintettet.

Amikor egy haldokló csak az emberségre számíthat – életvégi ellátás helyett marad a várakozás a sürgősségin

A gyógyító kezelésekre már nem reagált az idős szegedi beteg szervezete, így hazaadták, ám minden másnap a sürgősségire kellett vinni. Olykor kilenc órát feküdt a váróban emberek között, hasán a csövekkel és a papucsával. Palliatív ellátás sok helyen működik Magyar­országon – a szegedi egyetem intézményeiben még nem.