Vastörvény - A robotok és az etika

Tudomány

Kit véd a robotautó? A gazdáját vagy az óvatlan járókelőket? És ki fogja beprogramozni a cselekedeteit vezérlő utasításokat?

A mesterséges intelligenciáról szóló diskurzusban mindig hangsúlyosan szerepeltek etikai elemek, de korunk technológiai fejlődése nyomán ezek gyakorlati fontosságot is nyertek. Az első efféle megfontolások még a science fiction irodalomban jelentkeztek: ki ne emlékezne például Asimovra és a robotika törvényeire (ezeket a nem olvasók fejébe is beleverték Spielberg Én, a robot című, mondjuk erősen vitatott értékű filmes interpretációjának jelenetei). Napjainkban viszont már nagyüzemben tesztelik a sofőrt sem igénylő autókat (bővebben: Mindig igazuk van, Magyar Narancs, 2016. február 11.), s ezek többször kerültek balesethez vezető szituációkba, sőt haláleset is előfordult a próbautak során. Ugyanakkor minden eddigi eredmény azt mutatja, hogy a nagyobb mértékben robotok kezébe adott közlekedési rendszer jóval kevesebb emberi áldozattal jár, mint napjaink autósvilága. Ám mind közelebb jutunk azokhoz a korábbi morálfilozófiai szempontból is elemzett dilemmákhoz, amikor egyes kimenetekhez meghatározott statisztikai valószínűségekkel jellemzett, vagy éppen holtbiztosnak tekintett áldozatszámok tartoznak, s a járműnek, egészen pontosan a programozójának választania kell: kit áldozzon fel? Netán a saját utasát?

A halál villamosa

Az egyik ilyen morális paradoxonhelyzetet villamosdilemmának (angolban eredetileg trolley-dilemma) nevezték el kiötlői. Eredetileg Philippa Foot brit morálfilozófus alkalmazta e példát még 1967-ben, de azóta kollégái, Judith Jarvis Thomson, Peter Unger és Frances Kamm interpretációi nyomán is emlegetik. Foot eredeti példájában egy villamos közeledik megállíthatatlanul a síneken dolgozó öt ember felé, de a vezető egy elágazásnál még letérhet, s így „csak” egy ember vész oda. Azóta a morálfilozófusok újabb generációi tesztelték és fejlesztették tovább a példát: az egyik esetben a villamosvezető (aki ebben az esetben még határozottan ember) választhat, hogy emberek egy csoportjának vagy egy másik villamosnak vezeti frontálisan a kötöttpályás járművet, máskor egy megfigyelő dönthet úgy, hogy egy járókelő sínre lökésével fékezi le a villamost. Nyilvánvaló, hogy választás előtt állunk, de értenünk kell, hogy a dilemma során az a két opció, hogy hagyunk-e valakiket meghalni, vagy úgy mentjük őket, hogy tudatosan megölünk másvalakit, etikai szempontból különböző esetek, s a villamos-dilemma verziói is másképp értékelendők.

Tesztüzem

Tesztüzem

Fotó: wikipedia

Miután már Budapesten is közlekednek vezető nélküli metrókocsik, még jobban átélhető, hogy az autonóm járművek is kerülhetnek ilyen mindenképpen veszteséggel járó no win szituációba, s ilyenkor a beléjük plántált algoritmus dönthet életek sorsáról. De még egyértelműbbek az ilyen helyzetek a mostanában tesztelt nem kötöttpályás, autonóm, önvezető járművek esetében. Egy útra dőlt vagy a kereszteződésben felbukkanó kikerülhetetlen akadály észlelése nyomán (már ekkor sem mindegy, hogy fatörzsről vagy szarvasról beszélünk!)  a robotsofőrnek el kell döntenie, hogy saját utasa, passzív „vezetője” életét kockáztatja, vagy félrerántja a kormányt és elgázol egy gyalogost. A pusztán biztos végkimenetelek számbavételét bonyolíthatja, ha az egyes forgatókönyvekhez valószínűségeket társítunk, mert mit mondhatnánk arra, hogy az egyik esetben négy ember hal meg ötvenszázalékos valószínűséggel, a másikban csak kettő, de az ő esélyük a halálra már 80 százalék. És hogyan bonyolítja a mérlegelést, ha a potenciális áldozatok között gyerekek is vannak? Az ilyen szinte feloldhatatlan dilemmák kezelésére valamiféle preferenciarendszert kell beprogramozni a gépekbe, amelyek az így megadott algoritmus alapján dönthetnek adott szituációban. Először el kell dönteni, hogy kinek az értékrendje határozza meg azt, hogy mi kerüljön a robotba. Vajon a kiválasztott szakértő kevesek racio­nális mérlegelése, a kockázatok kimenetelének hidegen észszerű elemzése, a potenciális áldozatok száma és fontossága szerinti súlyozás szabja meg a robot viselkedésének alapjait vagy épp ellenkezőleg, és demokratikus körülmények között döntsön a többségi akarat arról, hogyan viselkedjenek kritikus szituációkban az intelligens gépek? És ha a többség a nagyobb jó mellett dönt (lásd Asimov és a robotok című keretes írásunkat), akkor az autonóm autó áldozza fel saját utasát s így mentsen meg egy ütközési szituációban egy nagyobb csoportnyi embert? Hogyan lehet ilyen számító, racionális eszközök használatára, pláne a megvásárlására bírni bárkit is, annak tudatában, hogy a gép beáldozhatja saját vezetőjét is? Nem beszélve arról, hogy az ilyenkor keletkező kockázatokat be kell áraznia a biztosítónak, s a bekövetkező balesetek ügyében döntenie kell a bíróságnak is. Emberi sofőr híján ki lesz a felelős? Csak nem a programozó?

Gondban a robot

Az sem egyértelmű, hogy a gépek miként értelmezik majd saját, beléjük ültetett parancsolataikat, hiszen a programozó oldaláról látszólag világos utasítások értelmezéséből fakadó dilemmák végül döntésképtelenséghez vezetnek. Nemrég Alan Whitfield robotkutató egy bristoli laboratóriumban végzett el egy leegyszerűsített kísérletet, amivel a robotok és más mesterséges intelligenciával bíró létformák viselkedését szimulálta életszerű szituációban. Két robotot programozott be: az egyiket önfejű emberi logikával ruházta fel, s ez egyenesen megindult egy lyuk felé, a másik feladata az volt, hogy jól kivitelezhető módon eltérítse az útjából, például lökje föl és így akadályozza meg, hogy belezuhanjon a gödörbe. Amíg ilyen egyszerű dolga volt, minden esetben sikerrel járt, de  de a helyzet a kísérlet következő fázisában tovább bonyolódott. Ekkor már két vesztébe rohanó robotot indítottak a lyuk felé, s ekkor a 32 esetből csak kétszer tudta a „józan” robot megmenteni mindkét társát. Az esetek felében legalább az egyiket eltérítette a rossz útról, de 14-szer olyan hosszan elemezte gépagyával a helyzetet, hogy mindkét delikvens belepottyant a gödörbe. Winfield úgy véli, hogy etikai döntéshozatal elé állította a robotot, aki azért bukott el, mert nem „értette” a tettei mögött megbújó (merőben morális természetű) indítékot.

Az efféle kísérletek tanulságait elemezve a kutatók állítják, hogy az ilyen szituációkból jobban megérthetjük akár az összetettebb etikai viselkedés alapjait (és nem csak a robotokét).
Az is valószínűnek tűnik, hogy a gépi morális döntéshozatalban akkor következhet be nagyobb áttörés, ha majd a robotok képesek lesznek olyan körülményekre is jól reagálni, amelyekkel korábban nem találkoztak. Meglehet, ehhez még kevés, ha „beléjük verünk” néhány mérlegelést lehetővé tevő ökölszabályt vagy beléjük programozzuk a döntés hátterét biztosító finom statisztikai kockázatelemezés fortélyait. Arról már nem is beszélve, hogy bizonyos közlekedési szituációkban, amelyekkel a vezető nélküli, autonóm autók gyakorta szembekerülhetnek, akár ütközhetnek is az etikai szempontok illetve a törvények, szabályok betartásának parancsa. Például megsértené-e a robotautó a közlekedési szabályokat, hogy életeket mentsen?

Asimov és a robotok

Isaac Asimov, a modern sci-fi irodalom egyik legtöbbet idézett klasszikusa számos munkájában foglalkozott az ember és robot közötti, akkor még csak hipotetikus viszony problémáival. 1942-ben írt Körbe-körbe (Run­a­round) című elbeszélésében fektette le a robotika három alaptörvényét, amelyek azóta nemcsak a sci-fi irodalomban számítanak alapvetőnek, de a tudományos megközelítés számára is jól elemezhető etikai szempontokat vetnek fel. Az első törvény szerint a robotnak nem szabad kárt, pláne sérülést okoznia egy embernek, s azt sem tűrheti tétlenül, hogy bárkinek baja essen. A második törvény szerint a robotnak engedelmeskednie kell az emberi utasításoknak, amíg azok konfliktusba nem kerülnek az első törvénnyel. A harmadik szerint a robotnak önnön épségét is oltalmaznia kell, amíg ez nem ütközik az első és a második törvénnyel. Ezekből a törvényekből természetesen számos paradox szituáció fakadhat, s ezek kedvelt témái voltak Asimov későbbi pályafutásának is – robottárgyú novelláit Én, a robot (I, Robot) címmel gyűjtötte össze és publikálta még 1950-ben. Később kidolgozott egy afféle nulladik törvényt is, mely szerint a robotnak meg kell védenie az emberiséget, illetve passzivitásával sem veszélyeztetheti annak létét, még ha eközben összeütközésbe is kerül is az első törvénnyel. A nagyobbik jó elve pedig máris elvezet minket a kockázatos kimenetelű szituációkban döntési kényszerbe kerülő mesterséges intelligenciák dilemmáihoz.

Figyelmébe ajánljuk

Tendencia

Minden tanítások legveszélyesebbike az, hogy nekünk van igazunk és senki másnak. A második legveszélyesebb tanítás az, hogy minden tanítás egyenértékű, ezért el kell tűrni azok jelenlétét.

Bekerített testek

A nyolcvanas éveiben járó, olasz származású, New Yorkban élő feminista aktivista és társadalomtudós műveiből eddig csak néhány részlet jelent meg magyarul, azok is csupán internetes felületeken. Most azonban hét fejezetben, könnyebben befogadható, ismeretterjesztő formában végre megismerhetjük 2004-es fő műve, a Caliban and the Witch legfontosabb felvetéseit.

„Nem volt semmi másuk”

Temették már el élve, töltött napokat egy jégtömbbe zárva, és megdöntötte például a lélegzet-visszatartás világrekordját is. Az extrém illuzionista-túlélési-állóképességi mutatványairól ismert amerikai David Blaine legújabb műsorában körbejárja a világot, hogy felfedezze a különböző kultúrákban rejlő varázslatokat, és a valódi mesterektől tanulja el a trükköket. 

Játék és muzsika

Ugyanaz a nóta. A Budapesti Fesztiválzenekarnak telefonon üzenték meg, hogy 700 millió forinttal kevesebb állami támogatást kapnak az együttes által megigényelt összegnél.

A klónok háborúja

Március 24-én startolt a Tisza Párt Nemzet Hangja elnevezésű alternatív népszavazása, és azóta egyetlen nap sem telt el úgy, hogy ne érte volna atrocitás az aktivistákat.

Hatás és ellenhatás

  • Krekó Péter
  • Hunyadi Bulcsú

Az európai szélsőjobb úgy vágyott Donald Trumpra, mint a megváltóra. Megérkezik, majd együtt elintézik „Brüsszelt” meg minden liberális devianciát! Ám az új elnök egyes intézkedései, például az Európával szemben tervezett védővámok, éppen az ő szavazó­táborukat sújtanák. Egyáltalán: bízhat-e egy igazi európai a szuverenista Amerikában?

„Egy normális országban”

Borús, esős időben több száz fő, neonácik és civilek állnak a Somogy megyei Fonó község központjában. Nemzeti és Mi Hazánk-os zászlók lobognak a szélben. Tyirityán Zsolt, a Betyársereg vezetője és Toroczkai László, a szélsőjobboldali párt elnöke is beszédet mond. A résztvevők a lehangoló idő ellenére azért gyűltek össze szombat délután, mert pár hete szörnyű esemény történt a faluban. Március 14-én egy 31 éves ámokfutó fahusánggal rontott rá helyi lakosokra: egy középkorú és egy idős nő belehalt a támadásba, egy idős férfi súlyos sérüléseket szenvedett.