Vastörvény - A robotok és az etika

Tudomány

Kit véd a robotautó? A gazdáját vagy az óvatlan járókelőket? És ki fogja beprogramozni a cselekedeteit vezérlő utasításokat?

A mesterséges intelligenciáról szóló diskurzusban mindig hangsúlyosan szerepeltek etikai elemek, de korunk technológiai fejlődése nyomán ezek gyakorlati fontosságot is nyertek. Az első efféle megfontolások még a science fiction irodalomban jelentkeztek: ki ne emlékezne például Asimovra és a robotika törvényeire (ezeket a nem olvasók fejébe is beleverték Spielberg Én, a robot című, mondjuk erősen vitatott értékű filmes interpretációjának jelenetei). Napjainkban viszont már nagyüzemben tesztelik a sofőrt sem igénylő autókat (bővebben: Mindig igazuk van, Magyar Narancs, 2016. február 11.), s ezek többször kerültek balesethez vezető szituációkba, sőt haláleset is előfordult a próbautak során. Ugyanakkor minden eddigi eredmény azt mutatja, hogy a nagyobb mértékben robotok kezébe adott közlekedési rendszer jóval kevesebb emberi áldozattal jár, mint napjaink autósvilága. Ám mind közelebb jutunk azokhoz a korábbi morálfilozófiai szempontból is elemzett dilemmákhoz, amikor egyes kimenetekhez meghatározott statisztikai valószínűségekkel jellemzett, vagy éppen holtbiztosnak tekintett áldozatszámok tartoznak, s a járműnek, egészen pontosan a programozójának választania kell: kit áldozzon fel? Netán a saját utasát?

A halál villamosa

Az egyik ilyen morális paradoxonhelyzetet villamosdilemmának (angolban eredetileg trolley-dilemma) nevezték el kiötlői. Eredetileg Philippa Foot brit morálfilozófus alkalmazta e példát még 1967-ben, de azóta kollégái, Judith Jarvis Thomson, Peter Unger és Frances Kamm interpretációi nyomán is emlegetik. Foot eredeti példájában egy villamos közeledik megállíthatatlanul a síneken dolgozó öt ember felé, de a vezető egy elágazásnál még letérhet, s így „csak” egy ember vész oda. Azóta a morálfilozófusok újabb generációi tesztelték és fejlesztették tovább a példát: az egyik esetben a villamosvezető (aki ebben az esetben még határozottan ember) választhat, hogy emberek egy csoportjának vagy egy másik villamosnak vezeti frontálisan a kötöttpályás járművet, máskor egy megfigyelő dönthet úgy, hogy egy járókelő sínre lökésével fékezi le a villamost. Nyilvánvaló, hogy választás előtt állunk, de értenünk kell, hogy a dilemma során az a két opció, hogy hagyunk-e valakiket meghalni, vagy úgy mentjük őket, hogy tudatosan megölünk másvalakit, etikai szempontból különböző esetek, s a villamos-dilemma verziói is másképp értékelendők.

Tesztüzem

Tesztüzem

Fotó: wikipedia

Miután már Budapesten is közlekednek vezető nélküli metrókocsik, még jobban átélhető, hogy az autonóm járművek is kerülhetnek ilyen mindenképpen veszteséggel járó no win szituációba, s ilyenkor a beléjük plántált algoritmus dönthet életek sorsáról. De még egyértelműbbek az ilyen helyzetek a mostanában tesztelt nem kötöttpályás, autonóm, önvezető járművek esetében. Egy útra dőlt vagy a kereszteződésben felbukkanó kikerülhetetlen akadály észlelése nyomán (már ekkor sem mindegy, hogy fatörzsről vagy szarvasról beszélünk!)  a robotsofőrnek el kell döntenie, hogy saját utasa, passzív „vezetője” életét kockáztatja, vagy félrerántja a kormányt és elgázol egy gyalogost. A pusztán biztos végkimenetelek számbavételét bonyolíthatja, ha az egyes forgatókönyvekhez valószínűségeket társítunk, mert mit mondhatnánk arra, hogy az egyik esetben négy ember hal meg ötvenszázalékos valószínűséggel, a másikban csak kettő, de az ő esélyük a halálra már 80 százalék. És hogyan bonyolítja a mérlegelést, ha a potenciális áldozatok között gyerekek is vannak? Az ilyen szinte feloldhatatlan dilemmák kezelésére valamiféle preferenciarendszert kell beprogramozni a gépekbe, amelyek az így megadott algoritmus alapján dönthetnek adott szituációban. Először el kell dönteni, hogy kinek az értékrendje határozza meg azt, hogy mi kerüljön a robotba. Vajon a kiválasztott szakértő kevesek racio­nális mérlegelése, a kockázatok kimenetelének hidegen észszerű elemzése, a potenciális áldozatok száma és fontossága szerinti súlyozás szabja meg a robot viselkedésének alapjait vagy épp ellenkezőleg, és demokratikus körülmények között döntsön a többségi akarat arról, hogyan viselkedjenek kritikus szituációkban az intelligens gépek? És ha a többség a nagyobb jó mellett dönt (lásd Asimov és a robotok című keretes írásunkat), akkor az autonóm autó áldozza fel saját utasát s így mentsen meg egy ütközési szituációban egy nagyobb csoportnyi embert? Hogyan lehet ilyen számító, racionális eszközök használatára, pláne a megvásárlására bírni bárkit is, annak tudatában, hogy a gép beáldozhatja saját vezetőjét is? Nem beszélve arról, hogy az ilyenkor keletkező kockázatokat be kell áraznia a biztosítónak, s a bekövetkező balesetek ügyében döntenie kell a bíróságnak is. Emberi sofőr híján ki lesz a felelős? Csak nem a programozó?

Gondban a robot

Az sem egyértelmű, hogy a gépek miként értelmezik majd saját, beléjük ültetett parancsolataikat, hiszen a programozó oldaláról látszólag világos utasítások értelmezéséből fakadó dilemmák végül döntésképtelenséghez vezetnek. Nemrég Alan Whitfield robotkutató egy bristoli laboratóriumban végzett el egy leegyszerűsített kísérletet, amivel a robotok és más mesterséges intelligenciával bíró létformák viselkedését szimulálta életszerű szituációban. Két robotot programozott be: az egyiket önfejű emberi logikával ruházta fel, s ez egyenesen megindult egy lyuk felé, a másik feladata az volt, hogy jól kivitelezhető módon eltérítse az útjából, például lökje föl és így akadályozza meg, hogy belezuhanjon a gödörbe. Amíg ilyen egyszerű dolga volt, minden esetben sikerrel járt, de  de a helyzet a kísérlet következő fázisában tovább bonyolódott. Ekkor már két vesztébe rohanó robotot indítottak a lyuk felé, s ekkor a 32 esetből csak kétszer tudta a „józan” robot megmenteni mindkét társát. Az esetek felében legalább az egyiket eltérítette a rossz útról, de 14-szer olyan hosszan elemezte gépagyával a helyzetet, hogy mindkét delikvens belepottyant a gödörbe. Winfield úgy véli, hogy etikai döntéshozatal elé állította a robotot, aki azért bukott el, mert nem „értette” a tettei mögött megbújó (merőben morális természetű) indítékot.

Az efféle kísérletek tanulságait elemezve a kutatók állítják, hogy az ilyen szituációkból jobban megérthetjük akár az összetettebb etikai viselkedés alapjait (és nem csak a robotokét).
Az is valószínűnek tűnik, hogy a gépi morális döntéshozatalban akkor következhet be nagyobb áttörés, ha majd a robotok képesek lesznek olyan körülményekre is jól reagálni, amelyekkel korábban nem találkoztak. Meglehet, ehhez még kevés, ha „beléjük verünk” néhány mérlegelést lehetővé tevő ökölszabályt vagy beléjük programozzuk a döntés hátterét biztosító finom statisztikai kockázatelemezés fortélyait. Arról már nem is beszélve, hogy bizonyos közlekedési szituációkban, amelyekkel a vezető nélküli, autonóm autók gyakorta szembekerülhetnek, akár ütközhetnek is az etikai szempontok illetve a törvények, szabályok betartásának parancsa. Például megsértené-e a robotautó a közlekedési szabályokat, hogy életeket mentsen?

Asimov és a robotok

Isaac Asimov, a modern sci-fi irodalom egyik legtöbbet idézett klasszikusa számos munkájában foglalkozott az ember és robot közötti, akkor még csak hipotetikus viszony problémáival. 1942-ben írt Körbe-körbe (Run­a­round) című elbeszélésében fektette le a robotika három alaptörvényét, amelyek azóta nemcsak a sci-fi irodalomban számítanak alapvetőnek, de a tudományos megközelítés számára is jól elemezhető etikai szempontokat vetnek fel. Az első törvény szerint a robotnak nem szabad kárt, pláne sérülést okoznia egy embernek, s azt sem tűrheti tétlenül, hogy bárkinek baja essen. A második törvény szerint a robotnak engedelmeskednie kell az emberi utasításoknak, amíg azok konfliktusba nem kerülnek az első törvénnyel. A harmadik szerint a robotnak önnön épségét is oltalmaznia kell, amíg ez nem ütközik az első és a második törvénnyel. Ezekből a törvényekből természetesen számos paradox szituáció fakadhat, s ezek kedvelt témái voltak Asimov későbbi pályafutásának is – robottárgyú novelláit Én, a robot (I, Robot) címmel gyűjtötte össze és publikálta még 1950-ben. Később kidolgozott egy afféle nulladik törvényt is, mely szerint a robotnak meg kell védenie az emberiséget, illetve passzivitásával sem veszélyeztetheti annak létét, még ha eközben összeütközésbe is kerül is az első törvénnyel. A nagyobbik jó elve pedig máris elvezet minket a kockázatos kimenetelű szituációkban döntési kényszerbe kerülő mesterséges intelligenciák dilemmáihoz.

Figyelmébe ajánljuk