Márton Miklós: Felelősen a megbízható mesterséges intelligenciáért

(Virginia Dignum: Responsible artificial intelligence. How to develop and use AI in a responsible way. Springer Nature, Switzerland AG, 2019)

Az utóbbi években hozzászokhattunk már, hogy nemigen tudunk akárcsak pár percet böngészni az interneten anélkül, hogy bele ne botlanánk valamilyen hírbe, elemzésbe vagy interjúba, amely a mesterséges intelligencia működésével kapcsolatos erkölcsi dilemmáról és morális kockázatról szól. Ki ne hallott volna már a gyilkos önvezető autókról, a kegyetlen autonóm fegyverrendszerekről, az előítéletes banki hitelbíráló rendszerről, a rasszista gépi HR asszisztensről, a privát adatainkkal visszaélő ajánlórendszerekről vagy a diktatórikus rezsimek szolgálatába állított megfigyelőrendszerekről? És mivel a következő években az MI-rendszerek használatának folyamatos növekedésére számíthatunk az élet majd minden területén – a közlekedésben, a szolgáltatási szektorban, az egészségügyben, az oktatásban, a közbiztonságban, a foglalkoztatásban vagy a szórakoztatóiparban –, ezért az ilyen kérdésfelvetések nem kerülnek le egyhamar a napirendről. Sőt, már manapság sem ritka, hogy valaki egyenesen amellett érveljen: az ilyesfajta rendszerek elterjedése teljes mértékben átalakítja életünket, méghozzá morálisan igencsak megkérdőjelezhető irányokban. Az MI ugyanis jobban ismerheti hosszútávú érdekeinket, és jobb döntéseket hozhat helyettünk annak köszönhetően, hogy elképesztő mennyiségű adatot képes hatékonyan feldolgozni. Lehet, hogy ebben az új világban több élvezetet élünk át, és eredményesebben állítjuk a technológiát érdekeink szolgálatába, ám kérdésessé válik, mennyiben maradunk autonóm, önmeghatározó lények, ami sokak szerint emberi mivoltunk egyik leglényegesebb összetevője.

Az MI voltaképpen egyszerű alapelvek szerint működő információgyüjtő és -feldolgozó rendszer, azonban számítási kapacitásának, illetve az utóbbi évtizedekben elterjedő gépi tanulási módszereknek köszönhetően többé-kevésbé autonóm módon cselekvő ágensnek tekinthetjük. Ez azt jelenti, hogy a tervezés során beépített algoritmus önmagában nem határozza meg a gép tényleges működését – amiképpen önmagában az almáspite receptje sem határozza meg, hogy milyen lesz az elkészült sütemény, hiszen az éppúgy múlik az alapanyagok minőségén vagy azon, mennyire vagyunk tapasztalt cukrászok. Az MI esetében ugyanez a helyzet: a tényleges eredmények legalább annyira múlnak a tanulási fázisban alkalmazott adatbázisok minőségén, a működtetési környezeten, a tesztelés mikéntjén stb., mint a tervezők által beépített algoritmuson. Az, hogy az MI önálló ágensként működik, Dignum megfogalmazásában azt jelenti, hogy a rendszer autonóm, vagyis képes változó környezetben is stabilan fönntartani céljait külső behatás nélkül; adaptív, vagyis explicit instrukciók nélkül képes mintázatokat azonosítani a környezetből származó adatokban, és ezeket a cél szerinti relevancia szempontjából értékelni, magyarán tanul az információkból; és végül interaktív, vagyis képes más ágensek érzékelésére és ágensként történő azonosítására, illetve ennek megfelelő interakcióba is képes lépni velük. Persze ne felejtsük: az így felfogott ágencia mindig a rendszer számára külső forrásból – a tervezőtől vagy a felhasználótól – kapott végső, funkcionális cél szempontjából vett autonómiát jelent.

Az autonóm ágensként működő MI koncepciója szinte automatikusan morális aggályokat vet föl. Egyrészt a gépi tanulás módszerével dolgozó MI sikere nagyrészt a tanulási fázisban alkalmazott adatbázison múlik – de ez veszélyeket is rejt magában. Ha az adatbázis nem eléggé reprezentatív, ha torzít, elfogultságokat és előítéleteket foglal magába, ha megengedhetetlen módszerekkel, esetleg más, az aktuális felhasználástól eltérő célokra gyűjtötték, akkor az MI által fölfedezett mintázatok, csoportok, klasszifikációk és az ezeken alapuló döntések is tévesek, előítéletesek vagy elfogadhatatlanok lesznek. A módszer másik, etikai szempontból fontos problémája az átláthatóság alacsony szintje. Mivel a gépi tanulással dolgozó rendszerek maguk alkotják meg azt az algoritmust, amely a felfedezett mintázatok alapján az adatokból optimális módon előállítja a célként megfogalmazott eredményt, ezért itt egy úgynevezett black box effektus lép föl: még a rendszer tervezői vagy működtetői sem feltétlenül tudják, pontosan milyen mintázatok, struktúrák alapján és milyen algoritmus szerint működik az MI. További problémákat vet föl a fizikailag humán ágensnek kinéző és viselkedő robotikus MI-rendszerek alkalmazása (ehhez lásd Balogh Zsuzsanna korábbi esszéjét a Kiskátéban). Ezekre a rendszerekre sokan antropomorf lényekként tekintenek, és így legtöbbször téves elvárásokkal közelítenek hozzájuk – különösen egyes sérülékeny csoportok tagjai, mint például a kisgyermekek vagy a demenciával élő idősek.

Mindezen „beépített” problémák miatt egyre fontosabb, hogy választ találjunk a felelősségallokáció kérdésére. Kié a felelősség egy bűncselekménnyel vádolt személy próbára bocsátása, egy nehéz orvosi (diagnosztikai vagy terápiás) döntés, egy hitelkérelem elutasítása esetében, ha ezeket a döntéseket egy MI-rendszer hozza meg? A lehetséges jelöltek száma igencsak nagy. Szóba jöhet az algoritmus fejlesztője, a berendezés gyártója, telepítője, a tanulási fázisban felhasznált adatok szolgáltatója, a szenzorok gyártója, amelyeket a gép az adatok begyűjtésére használ, a rendszer üzemeltetője, az autoritással bíró szervezet, amelyik jóváhagyta az adott MI működését, a jogalkotó, aki szabályozza az MI fejlesztését, telepítését és felhasználását, és végül a felhasználó, aki személyre szabta a beállításokat és elfogadta a gép döntéseit. Félreértés ne essék, az MI-rendszerek működésével kapcsolatos számos felelősségi problémát képesek vagyunk jól kezelni a jelenlegi – főként polgári – jogi szabályozás eszközeivel, például a termékfelelősségi, mögöttes felelősségi, veszélyes üzemre vonatkozó szabályokra hivatkozva. Sok érv szól azonban amellett, hogy újabb szabályozási eljárásokra, vagy akár új szemléletre van szükség, egészen addig az extrém javaslatig (ez Dignum értékelése), amely jogi személyiséget biztosítana bizonyos MI-rendszerek számára, ahogy azt egy európai parlamenti javaslat 2017-ben fölvetette. Mindezek miatt mostanában anélkül is alig telik el hét, hogy új hírek ne érkeznének az MI-vel kapcsolatos friss – nemzeti vagy multinacionális szintű – szabályozásokról, elvekről, iránymutatásokról vagy állásfoglalásokról.

Virginia Dignum könyve azonban szándékai szerint nem egy újabb szakmunka az MI etikájának területéről, amely valamelyik fenti részproblémát elemzi a morálfilozófia fogalmi eszközeivel, és érvel valamilyen etikai koncepció vagy felelősségelméleti megközelítés, esetleg konkrét megoldás mellett. A könyv ennél lényegesen általánosabb célt tűz ki maga elé, nevezetesen azoknak az elméleti, társadalmi, gyakorlati feltételeknek és követelményeknek az összegyűjtését, elemzését és indoklását, amelyek együttesen garantálhatják, hogy az MI megbízható partnerünk legyen a hétköznapi életben. A kötet alapkérdése: melyik területen milyen felelősségünk van abban, hogy megteremtsük a megbízható MI-t? (A két terminus – „megbízható” és „felelős” – az angol eredetiben egyetlen szó: „responsible”; a szerző a könyv szövegében gyakran szándékosan rájátszik a kettős jelentésre, ami magyarul nem igazán adható vissza.)

E célkitűzésből adódóan a kötet több szempontból is igyekszik a hasonló témájú tanulmányokénál tágabb perspektívából megközelíteni a tárgyát. Először is, Dignum megkülönbözteti a „megbízható MI” megközelítést az „MI etikától”, mivel szándéka szerint az előbbi lényegesen szélesebb hatókörű, az MI-rendszerek emberi környezetben való működésének és e működés hatásainak minden aspektusát magában foglalja – a kulturális elvektől a jogi, közgazdasági vetületekig, nem beszélve az emberi jólétre és méltóságra gyakorolt hatás elemzéséről. A jólétünkhöz hozzájáruló, az emberi értékekre orientált MI sikerét nemcsak technológiai, jogi vagy gazdasági szempontból kell megközelítenünk, hanem olyan tényezőket is számításba kell vennünk, mint a mentális egészség, az identitás, az autonómia és az érzelmi sokszínűség. Mindezeket a szempontokat a kötet ráadásul sokszor a konkrét cselekvési, szabályozási program megteremtésének igényével alkalmazza – tehát a szerzőt nemcsak az érdekli, hogy az egyes kérdésekben melyik a helyes teoretikus álláspont.

Másodszor, a könyv nem a jövőbeli fejleményeket és az általuk támasztott kihívásokat próbálja megjósolni. Így nem foglalkozik olyan népszerű témákkal, mint a szuperintelligens gépek, a szingularitás vagy az MI evolúciója. A szerző ezzel szemben a jelenben elérhető technológiákkal kapcsolatos, a tervezést, telepítést, betanítást, működtetést érintő morális kérdéseket helyezi a középpontba; pontosabban azt igyekszik tisztázni, hogyan is kell felelős módon hozzáállnunk ezekhez a kérdésekhez. Mi több, Dignum úgy gondolja, hogy a robotok által uralt jövőről szóló disztópikus elemzések jórészt irrelevánsak, és valójában elvonják a figyelmet a valódi problémákról. Hajlamosak vagyunk megfeledkezni arról, hogy az MI nem egészen újdonság, jó 60 éve velünk van, és időről időre hol lelkesedést, hol aggodalmat vált ki, megint máskor pedig inkább közöny fogadja. A gépek már jó ideje döntenek helyettünk – gondoljunk csak egy egyszerű termosztátra vagy egy önműködő ajtóra. A változás abban áll, hogy ezek a döntések egyre átláthatatlanabbak, és így egyre kevesebb kontrollt gyakorlunk az MI-rendszerek által végrehajtott cselekvések fölött.

Harmadszor, a könyv egyik legtöbbször visszatérő motívuma: az MI nem önmagában létezik, és így a megbízhatósági, felelősségi kérdések sem csak magukkal a rendszerekkel szemben vethetők föl, hanem meg kell vizsgálnunk a tágabb társadalmi-technikai környezetet is. Az etikai, felelősségelméleti kérdések nemcsak a tervezők, fejlesztők, felhasználók kompetenciájához tartoznak, hanem a működő megoldások kidolgozása közös ügyünk. A saját viselkedéséért morális és jogi felelősséget viselő MI elképzelése a szerző szerint a sci-fi kategóriájába tartozik, így mindig mi, emberek vagyunk felelősek a megbízható MI létrehozásáért és működtetéséért. Bármekkora legyen is egy rendszer autonómiaszintje vagy tanulási képessége, az MI-rendszerek végső soron eszközök, azaz emberi termékek, amelyeket az emberek egy sajátos cél elérésére fejlesztettek ki, így az emberi felelősség nem átruházható rájuk. Az a tény, hogy a gép működése a saját tanulásának – és akár a saját maga által kialakított mechanizmusoknak – az eredménye, nem megfelelő indok arra, hogy mentesítsük az embereket a felelősség alól, hiszen mindez valójában a fejlesztők, telepítők, betanítók, felhasználók tevékenységének a következménye.

Ugyanakkor persze sokszor igencsak közvetett, így meglehetősen nehezen előrelátható következményekkel van dolgunk, ezért olyan módszerekre van szükség, amelyek folyamatosan értékelik a rendszer viselkedését a megfelelő etikai és társadalmi elvek szempontjából. A „megbízható MI” koncepció fő célja tehát az MI-rendszerek tervezésében, fejlesztésében, telepítésében és használatában részt vevő összes szereplő relatív felelősségének meghatározása, amely a szabályozástól az implementált elvi követelményeken át a képzésig és a részvételig is kiterjed, mint hamarosan látni fogjuk.

Az MI továbbá abban az értelemben sem önmagában létezik és működik, hogy mai – és várhatóan jövőbeli – formájában nem is tekinthető igazán önálló, független entitásnak. Míg az MI-fejlesztés hőskorában elsősorban olyan feladatok ellátásra képes gépek kifejlesztésére törekedtek, amelyek az emberek részéről intelligens tevékenységet igényelnek, vagyis az emberi ágens helyettesítése volt a cél, addig ma már sokkal inkább előtérbe kerül az emberi környezetbe és munkafolyamatokba illesztett MI koncepciója; az ilyen rendszerek szükségszerűen interakciókra kényszerülnek más humán és nem humán ágensekkel. Az MI etikai státusza körüli vitákban többnyire abból indulnak ki a résztvevők, hogy az MI mint gép valamiféle individuális entitás. Ez az elgondolás azonban a szerző szerint figyelmen kívül hagyja az MI egyre inkább disztributív és hálózatos természetét – tehát azt, hogy egy MI-rendszer számtalan különböző természetű elemből áll, beleértve az embereket, a szervezeteket és a környező (virtuális és beágyazott) más MI-rendszereket. Ha erről nem veszünk tudomást, akkor komoly gondjaink lesznek a felelősségtulajdonítással, és nem fogjuk tudni érvényesíteni az elszámoltathatóság elvét.

E széles perspektívából a szerző a megbízható MI-vel kapcsolatos etikai megfontolások három különböző megjelenési terepét, formáját vagy aspektusát különbözteti meg. Morális kérdések felvetődhetnek a tervezés során (ethics in design), a tervezés tárgyaként (ethics by design) és végül a tervezési folyamatra nézve (ethics for design). Mindez bizonyára nagyon homályosan hangzik; vizsgáljuk meg közelebbről ezeket a kategóriákat!

Ethics in design: a fejlesztés és a szabályozás során figyelembeveendő elveket és értékeket foglalja magában, amelyek igyekeznek előrejelezni a rendszer működésének lehetséges következményeit, és biztosítani, hogy megfeleljen az etikai, társadalmi, jogi követelményeknek.

Ethics by design: az a célja, hogy számba vegye az MI működése során érvényesülő – részben az algoritmusba beépítendő – etikai, értékelvű megfontolásokat.

Ethics for design: azon elvek, sztenderdek, szabványok, sőt oktatási feladatok kidolgozása áll a középpontjában, amelyek biztosítják az MI szabályozásával, fejlesztésével, telepítésével, felhasználásával kapcsolatos folyamat integritását és értékelvű (azaz a társadalom érdekeinek megfelelő) lezajlását.

A mű gerincét e koncepciók részletes kidolgozása adja, úgyhogy vegyük szemügyre őket részletesebben!

Ethics in design

Az első feladat olyan fogalmakat kidolgozni és követelményeket meghatározni, amelyek biztosítják, hogy az MI-rendszerekkel kapcsolatos kutatási és innovációs folyamat során mindvégig figyelembe vegyük a környezetre és a társadalomra gyakorolt lehetséges hatásokat. Ha a rendszereket felelősségteljesen tervezik meg, növekedhet a viselkedésükbe vetett bizalom. Dignum az úgynevezett „elszámoltathatóság, felelősség és átláthatóság” (Accountability, Responsibility, Transparency: ART) modellt ajánlja a figyelmünkbe. Az ART-nak az a funkciója, hogy támogassa az etikai és társadalmi hatások integrálását a tervezési folyamatba. Ez mindenekelőtt képzést és tudatosítást igényel az összes érdekelt fél esetében, beleértve a kutatókat, a tervezőket, a programozókat, a menedzsereket, a szolgáltatókat, a felhasználókat és végső soron az egész társadalmat, hogy mindegyik szereplő megértse és vállalja szerepét a teljes folyamatban.

A koncepció első eleme, az elszámoltathatóság arra a követelményre vonatkozik, hogy a rendszer képes legyen megmagyarázni és megindokolni a döntéseit a felhasználóknak és más érintett szereplőknek – mondjuk például azzal kapcsolatban, hogyan használt fel bizonyos adatokat az adatvédelmi elvekkel és szabályozásokkal összhangban. Mindez megköveteli, hogy a rendszer célját meghatározó erkölcsi értékek és társadalmi normák minden érintett bevonásával, nyílt módon legyenek megfogalmazva, ideértve ezek értelmezéseit is a konkrét működés során.

A felelősség követelménye nem csupán az intelligens gépekre vonatkozó szabályok megalkotására vonatkozik, hanem az egész társadalmi-technikai környezetet érinti, amelyben a rendszer működik, és amely magában foglalja az embereket, a gépeket és az intézményeket. Fontos megjegyeznünk, hogy alapvető különbség van az elszámoltathatóság és a felelősség között – még akkor is, ha ezeket a kifejezéseket gyakran egymással felcserélhető módon, szinonimaként használják. Leegyszerűsítve, az elszámoltathatóság arra a képességre utal, hogy valaki beszámoljon bizonyos folyamatokban, eseményekben betöltött szerepéről, míg a felelősség arra a kötelezettségre utal, hogy az ágens feleljen a tetteiért. A felelősség reakciókat (akár szankciókat) von maga után, az elszámoltathatóság nem feltétlenül; a felelősség a feladat vagy cselekvés elvégzése előtt és közben is fennáll, míg az elszámoltathatóság csak akkor válik nyilvánvalóvá, ha a cselekvés megtörtént vagy nem történt meg. A megbízási viszonynál jól érzékelhető a kettő különbsége: a felelősség sok esetben továbbra is a megbízóé, de a megbízottnak is el kell tudnia számolni a végrehajtásról. A humán és mesterséges ágensek morális státuszának viszonya akár ezzel a modellel is értelmezhető.

Az átláthatóság azt jelzi, hogy képesek vagyunk leírni, ellenőrizni és reprodukálni azokat a mechanizmusokat, amelyeken keresztül a MI-rendszerek döntéseket hoznak, és megtanulnak alkalmazkodni a környezetükhöz, továbbá a rendszer által felhasznált és létrehozott adatok eredetét és dinamikáját. Az átláthatóság tehát voltaképpen arra vonatkozik, hogyan válhatnak az MI előállítása és működése során lezajló folyamatok minden érdekelt számára nyitottá és egyértelművé.

Miért fontosak ezek a követelmények? Gondoljunk csak az MI által használt adatsorok fentebb említett problémájára! Bár sokan tisztában vannak vele, hogy az emberektől nyert vagy általuk előállított adatsorok torzításokkal, elfogultságokkal és egyéb hiányosságokkal terheltek, ám ezt a hibát nem olyan egyszerű elkerülni. A torzítások ugyanis sokszor abból adódnak, hogy a környezetünkből származó információk feldolgozása során olyan – gyakran igencsak hasznos – heurisztikákat használunk, amelyek mélyen beépültek kognitív folyamatainkba, és amelyeket a társadalmi környezetünk is megerősít. Ugyanakkor az elfogultságok, torzulások jelenléte az adatbázisban befolyásolja az MI-rendszer későbbi működését, sokszor hozzájárulva káros, problematikus társadalmi gyakorlatok fennmaradásához. Ugyanakkor persze gyakran éppen a gépi tanulási módszerekkel dolgozó MI-rendszerek működése tár föl számunkra az adatokban – és így a társadalmi valóságunkban – jelenlévő torzulásokat, elfogultságokat, amelyekről korábban nem volt tudomásunk. Átláthatóság és elszámoltathatóság nélkül ezeket nem ismernénk, és nem tudnánk kezelni őket.

Az erkölcsi elvek és emberi értékek középpontba helyezése szemléletváltást követel meg a kutatóktól és a fejlesztőktől. Ezt a tervezési-fejlesztési módszertani megközelítést – röviden: morális elvek érvényesítése a funkcionális teljesítmény javítása mellett, időnként ahelyett – Dignum „értékorientált tervezésnek” (design for value) nevezi. A legnagyobb nehézséget az jelenti, hogy az értékek absztrakt természetüknél fogva többféleképpen is lefordíthatók tervezési követelményekre. Például egy hitelbírálati rendszernél alapvető érték a méltányos eljárás és bírálat követelménye, ugyanakkor ennek többféle normatív interpretációja is lehetséges – az erőforrásokhoz való egyenlő hozzáférés normájaként is és esélyegyenlőségi normaként is értelmezhetjük. A választott normatív interpretáció függvényében pedig különböző tervezési folyamatokhoz jutunk. Ezért itt is kulcsszerepe van a folyamat átláthatóságának. Ha ugyanis az értékek és a nekik megfelelő követelmények nem válnak explicitté a fejlesztési folyamatban, akkor nem lehet elemezni és értékelni azokat a döntéseket, amelyek a választott konkrét implementációhoz vezettek. Az értékorientált tervezés ezért megköveteli, hogy azonosítsuk a fejlesztési folyamatban és a rendszer működtetésében érdekelt személyeket, csoportokat; számba vegyük minden érdekelt értékeit és érdekeit, továbbá kidolgozzuk az ezek integrálásához szükséges eszközöket; illetve hogy explicit formális kapcsolatokat alakítsunk ki az értékek és azok normatív interpretációi közt.

Ethics by design

A „megbízható MI” koncepciójának talán erről az eleméről lehet a legtöbbet hallani az MI etikája kapcsán. A jól ismert kérdés a következő: hogyan és milyen erkölcsi elveket implementáljunk az MI-rendszerekbe, amelyeket aztán azok a működésük során érvényesíthetnek. Dignum önálló fejezetet szentel a nagy normatív morálfilozófiai elméletek (konzekvencialista, deontologikus és erényelméletek), valamint a különféle értékelméletek vázlatos bemutatásának, és viszonyuk elemzésének. Ugyanakkor ennek alapján is világossá válik, mennyire komplex és nehéz problémával állunk szemben. Az elméleteket ugyanis úgy kell implementálnunk, hogy konkrét helyzetekre is alkalmazhatók legyenek. Bár a szerző megadja néhány konkrét morális döntési folyamat pszeudo-algoritmikus leírását (például a konzekvencialista, deontológiai vagy kantiánus, illetve az erényetikus autonóm autó által végrehajtott folyamatét), egyértelműen jelzi, hogy a valóság jóval összetettebb, mint amit e vázlatos algoritmusok sugallnak. Nem csak hogy nem minden esetben ismerjük előzetesen az összes lehetséges cselekvést és releváns kontextuális vonást, de az adott helyzetben az adott elmélet által leginkább erkölcsileg helyesnek ítélt viselkedés „kiszámítása” sem olyan egyszerű, mint gondolnánk. Hiszen olyan erkölcsi ítélkezési képességet igényel, ami megköveteli az ember jogainak, társadalmi szerepeinek, céljainak és motívumainak, a történelmi-társadalmi kontextusnak a komplex megértését – ami távolról sem implementálható egyszerűen az MI-rendszerekbe. Másrészt az emberek mint par excellence erkölcsi ágensek soha nem csak egyetlen normatív elmélet alapján okoskodnak, hanem számos körülménytől függően „váltogatnak” a különböző elméletek vagy azok adaptációi között. Ez nem csak azért van így, mert közismerten nem vagyunk tisztán racionális ágensek, hanem azért is, mert – a morálfilozófusok számára ez közhely! – ha valaki szigorúan követi valamelyik (bármelyik) normatív etikai elméletet, ez valójában nem kívánt eredményekhez vezet.

Az etikai megfontolások implementációjának kapcsán három ismert megközelítésmódról beszélhetünk. A top-down módszer jegyében az ágens általános szabályokból következtet az egyéni döntésekre. A cél ebben az esetben egy adott etikai elmélet alkalmazása a konkrét esetre. Persze az ilyesfajta megoldások nagyban különbözhetnek egymástól annak megfelelően, hogy melyik normatív koncepciót igyekeznek implementálni. Míg a konzekvencialista alkalmazások alapvetően valamilyen valóságmodellt kell alkalmazzanak, és különböző forgatókönyvekhez kell valószínűségi, illetve preferenciaértékeket rendelniük, addig a deontologikus koncepciók implementálása valamiféle normatív struktúra, és a benne előforduló – leginkább deontikus – logikai viszonyok modellezését igényli. Léteznek emellett bottom-up megközelítések is, amelyek az egyedi esetekből általános szabályokat vezetnek le. Itt az a cél, hogy az ágens elegendő adatot kapjon arról, mások mit tettek hasonló helyzetekben, és legyenek eszközei ahhoz, hogy ezeket az adatokat etikailag elfogadható döntéssé aggregálja. Végül léteznek hibrid megközelítések is, amelyek a két másik módszert kombinálják, vagyis egyesíteni igyekeznek a programozott szabályokat és a környezeti megfigyeléseket. Ez arra a gondolatra épül, hogy sem a felülről lefelé irányuló, sem a kontextuson alapuló, alulról felfelé irányuló megközelítés önmagában nem elegendő az etikus döntéshozatal implementálásához – a két megközelítés kombinációjára van szükség.

Mindegyik megoldásnak megvannak azonban a maga problémái. A top-down megközelítés fő nehézségét már ismerjük: nincs rá egyértelmű válasz, mely magas szintű elméleteket és értékeket érdemes implementálni az MI-rendszer algoritmusába. A bottom-up módszernek az az elsődleges problémája, hogy egyenlőségjelet tesz a társadalmi elfogadottság és az etikai elfogadhatóság közé. Ez önmagában is megkérdőjelezhető lépés, hiszen további tényezők figyelembevétele nélkül a tömeg bölcsessége olyan „népbűnökhöz” vezethet, mint az adóelkerülés vagy a gyorshajtás; míg az erkölcsileg elfogadható álláspontokat gyakran – mondjuk a megkívánt többlet-erőfeszítések vagy költségek miatt – elutasítják az emberek. Ráadásul ez a megoldási forma nagy különbségekhez vezet attól függően, hogy az MI milyen kulturális és egyéni szokásokat vesz alapul a tanulási folyamata során.

Az autonóm rendszerek döntéshozatali mechanizmusainak megtervezésében azonban nemcsak az a lehetőség adott, hogy valamilyen módon egyedül a rendszer maga alakítsa ki a konkrét döntési mechanizmust. Egyrészt emberi ágens is szerepelhet a folyamatban – akár felügyeleti pozícióban, mint az autopilot rendszereknél, akár fordítva, amikor is ő lesz a döntéshozó, és az MI az „őrangyal”. Másrészt élhetünk a szigorú szabályozás eszközével is: a tervezés során úgy alakítjuk ki az MI-rendszer működési környezetét, hogy a rendszer garantáltan soha ne kerüljön morális dilemmahelyzetbe, vagyis ne tudjon eltérni a szabályozástól. Ilyesmi várható például a jövő intelligens autópályáin, ahol a közúti járművek össze lesznek kapcsolva fizikai környezetükkel, és voltaképpen a közúti infrastruktúra irányítja majd a járműveket. Végül akár választhatjuk azt a megoldást is, hogy az MI-rendszer véletlenszerűen választja meg cselekvési irányát, amikor (erkölcsi) döntéssel szembesül. Ez azon a megfontoláson alapul, hogy ha két rossz közül kell választani, akkor a legjobb megoldás az, ha egyszerűen nem választunk tudatosan.

Ethics for design

Ha „megbízható MI”-t szeretnénk, többet kell tennünk annál, mint hogy listába szedjük a kívánt tervezési-fejlesztési elveket, mérnöki szabványokat vagy ajánlásokat. Mindezeknek ugyanis csak akkor lesz valós eredményük, ha az MI-rendszerek fejlesztésének és üzemeltetésének gyakorlatában cselekvésként is megjelennek. Ehhez szabályozásokra, tanúsítási eljárásokra és etikai kódexekre van szükségünk.

Ami a szabályozást illeti, Dignum elsősorban azt hangsúlyozza, hogy az MI dinamikus természetéből adódóan nem várhatunk a felállításukkal addig, amíg a technológia teljesen kiforrottá válik. Hiszen az MI már most is hatással van az egyénekre és a társadalomra, megváltoztatja a kognitív és interakciós funkcióinkat, és hatással van a jólétünkre. Ez a változékonyság és kiforratlanság azonban nagyon bizonytalanná és kockázatossá teheti az általános érvényű technológiai vagy jogi szabályozást. Ráadásul nincs egységes definíció arra vonatkozóan, hogy mi számít MI-rendszernek, és e nélkül nagyon nehéz meghatározni, hogy mi álljon a szabályozás középpontjában. Ezenkívül a különféle alkalmazási területeken a kockázatok és a releváns megfontolások túlságosan eltérőek lehetnek ahhoz, hogy általános szabályozásról beszéljünk. A nehézségek dacára azonban egyre inkább szükségünk van különféle szabályozásokra, ráadásul ezeket annak tudatában kell megalkotnunk, hogy hatással lesznek az MI-fejlesztés jövőbeli alakulására, vagyis nem csupán a jelen lehetőségeiből kell kiindulnunk.

Jóval rugalmasabb megoldási forma lehet a különféle tanúsítási eljárások használata. Ennek lényege, hogy független és megbízható intézmények jól meghatározott (akár az itt bemutatott könyvben szereplő elképzelésekből, ajánlásokból levezethető) elvek alapján validálják és tesztelik az algoritmusokat, alkalmazásokat és termékeket, ezzel garantálva az új rendszer megbízhatóságát. A tanúsítási megközelítés természetesen kombinálható is a szabályozással. Ebben az esetben a szabályozás meghatározná az alapelvek azon minimális rendszerét és értelmezését, amelyeknek egy adott országban vagy régióban minden MI-rendszerre és fejlesztési eljárásra érvényesnek kell lenniük (hasonlóan például az Európai Unióban hatályos adatvédelmi szabályozáshoz). Az így meghatározott minimumkövetelményeken túl a tanúsítási eljárások biztosítanák a termékek üzleti megkülönböztethetőségét, egyben a fogyasztóvédelem szempontjait is érvényesítenék az MI-iparág területén.

Végülaz MI-fejlesztés és -üzemeltetés területén dolgozó szakemberek számára – más kritikus és szociálisan érzékeny szakmákhoz, például az orvosokhoz vagy az ügyvédekhez hasonlóan – kidolgozhatunk különböző etikai kódexeket, amelyek tételesen meghatározzák a fejlesztési és üzemeltetési folyamatok során alkalmazandó konkrét etikai kötelezettségeket.

Mindezeken túl Dignum elsősorban a sokféleség és az inklúzió fontosságát hangsúlyozza, mind diszciplináris – például társadalomtudósok, filozófusok bevonása az MI-rendszerekkel kapcsolatos kutatásokba, más folyamatokba –, mind kulturális értelemben. Sőt, ezeket az elveket a szerző szerint már a képzésben is érvényesíteni kellene. Az MI-vel és a robotikával foglalkozó szakembereknek nemcsak a mérnöki háttér ismeretére van szükségük, hanem a társadalomtudományok tágabb perspektíváját is be kell emelni a kurrikulumba. Ez sokszínűbb hallgatóságot is eredményezne; például jó eséllyel több nő választaná ezeket a jelenleg többnyire férfiak által preferált szakokat. És fordítva: az MI-vel kapcsolatos témáknak más diszciplínák (például a jogászképzés, a szociológiai vagy etikai irányultságú szakok) képzési tervébe is be kellene kerülniük. A bölcsészettudományok, művészetek, társadalomtudományok és a STEM (Science, Technology, Engineering and Mathematics) hagyományos elválasztása nem felel meg a digitális kor igényeinek. A jövő hallgatóinak több mint multidiszciplinárisan művelteknek kell lenniük: transzdiszciplináris kompetenciákra kell szert tenniük. Tudományterületeken túlmutató, egységes intellektuális keretbe kell rendezniük az ismereteiket ahhoz, hogy a szükségképp egyre inkább digitalizált világunk biztonságos hely legyen számunkra, emberi lények számára.


A szerzőt az Innovációs és Technológiai Minisztérium Nemzeti Kutatási Fejlesztési és Innovációs Alap TKP2021-NVA pályázati programjának finanszírozásában megvalósuló „Biztonságkritikus nemzeti szolgáltatások és ipari infrastruktúrák védelme kiberbiztonsági, technológiai és szabályozási eszközökkel” projekt támogatta.