MI-t hoz a jövő?

Balogh Zsuzsanna esszéje John C. Havens: Heartificial intelligence. Embracing our humanity to maximize machines c. könyvéről a Kiskátéban

A szerző életútja igencsak változatosnak mondható: John C. Havens technológiai fejleményekkel foglalkozó újságíróként dolgozik a Guardian és a Mashable lapoknál; emellett tagja a világ legnagyobb, technológiai szakembereket összefogó egyesületének, az IEEE-nek (Institute of Electrical and Electronics Engineers), amelyet az emberek jólétét szolgáló technológiai innováció kérdései hívtak életre; alapítója és tulajdonosa a H(app)athon Project nevű non-profit vállalkozásnak, amely az emberi boldogság lehetőségét kutatja a fejlődő technológiák és a pozitív pszichológia összekapcsolásának segítségével; több ismert multinacionális vállalat való szenior tanácsadója – és sokáig színészként is találkozhattunk vele a filmvásznon.

Havens a könyvében színes és átfogó képet nyújt azokról a mindnyájunkat érintő etikai dilemmákról, melyeket a mesterséges intelligencia fejlődése és széles körű használata magával hozott. Mi több, a könyv második felében számos gyakorlati javaslatot is tesz a jövőbeli technológiák etikai jellegű irányítását illetően. No de ne szaladjunk ennyire előre!

A szerző a kezdetek kezdetén leszögezi: tisztában vele, hogy mire a könyv megjelenik, számos új fejleményen leszünk túl; például a könyv írásának idején még nem állt fel a Google mesterséges intelligenciával foglalkozó Etikai Bizottsága, de amennyiben ez a megjelenés idején már másképp lenne, a szerző üdvözli a történteket – remélhetőleg e bizottság egyik székéből. Nos, a Google azóta valóban felállította, és mindössze egy hétnyi működés után fel is oszlatta a szóban forgó bizottságot (Advanced Technology External Advisory Council, ATEAC), ugyanis a tagok (akik a feladataikat ellenszolgáltatás nélkül, évente négy ülés alkalmával látták volna el) nem tudtak megegyezni arról, hogy a Kay Coles James nevű jelölt bekerülhet-e a testületbe, akinek nézetei komoly felháborodást keltettek a felhasználók körében. Sajnos a valóság továbbra is az, hogy a mesterséges intelligenciát és a mély tanulást (deep learning) alkalmazó technológiák ugrásszerű fejlődése nem jár együtt folyamatos ellenőrzéssel és újragondolással – és leginkább a megfelelő humánetikai szabályozás kidolgozásával. Pedig – ahogyan Havens is kiemeli – ez lehet a jövő legfontosabb kérdése. És minél előbb érdemes akcióba lépnünk, már ami az etikai kérdéseket illeti, mielőtt még beköszönt az oly sokak által rettegett szingularitás (vagyis a technológiai fejlődés azon pontja, ahonnan „nincs visszaút”, mert már nem tudjuk irányítani a folyamatokat.)

A könyv két nagyobb részre oszlik. Az első rész kissé lehangoló olvasmány: a szerző részletesen bemutatja azokat a személyes adatvédelmet szinte teljes mértékig felszámoló technológiákat és módszereket, melyek elterjedése a nem túl távoli jövőben egyenes következménye lehet a jelenbeli fejlesztéseknek. A második rész reménytelibb képet fest a jövőről, arról, hogy mit és hogyan kellene tennünk annak érdekében, hogy a technológiát saját emberi értékeink megőrzésére és továbbvitelére tudjuk használni, adataink kezelését pedig saját kezünkbe vegyük.

Havens rövid fiktív eseteket (ún. vignette-eket) vázol fel, amelyeknek ő maga a főszereplője, és ezeken a történeteken keresztül bemutatja, milyen dilemmákkal kell majd szembenéznünk a jövőben. Majd ezek után hosszabb magyarázó részek következnek, melyekben a szerző elemzi az adott problémát, és levonja a társadalomra és annak technológiával kialakított kapcsolatára vonatkozó tanulságokat.

A történetek sokfélék, találunk köztük az emberek tömeges munkanélküliségének problémájával foglalkozó, de akár a digitális képmások problémáját tárgyaló részeket is. Ezek közül két jelentet emelek ki.

  1. A robotok és az „uncanny valley” (vagyis szó szerint „furcsa vagy kellemetlen völgy”)

A jelenet Havens otthonában játszódik 2028 őszén. Megérkezik Havens lánya, Melanie és robotbarátja, Rob, akivel első randevújukra készülnek épp. Melanie „hús-vér testet öltő, autonóm intelligenciaként” írja le Robot a szülőknek, és mivel a fiú valóban teljesen emberi külsővel bír, csupán a lány beszámolója alapján veszik észre, hogy valójában robot. Ahogy Havens 2028-ban „visszaemlékszik”, első körben csak meghatározott környezetekben, elsősorban a vendéglátó helyeken jelentek meg emberkülsejű robotok. A gyártók felmérték, hogy az emberek milyen fizikai megjelenést kedvelnének, így születtek meg a celebritás-kinézetű Starbucks felszolgálók, majd – miután a vállalati algoritmusok egyre pontosabban feltérképezték az emberek igényeit és preferenciáit – az egyre specifikusabb külsővel rendelkező eladók.

Azonban Rob nem felszolgáló volt, hanem egy esetleges jövőbeni családtag. Havens nem tudta jól kezelni a helyzetet, taszítónak érezte a robotot, és rendkívül kellemetlenül érintette, hogy tudta, Rob különböző érzékelőkkel van felszerelve, amelyek mérik az ő fiziológiás mutatóit (pupillatágulat, pulzus, légzésritmus stb.), tehát a „fiúnak” is egyértelmű volt, hogy stresszeli őt a jelenléte. Válaszként a robot mély, bariton hangon megnyugtatta Havenst: tisztában van vele, hogy furcsa érzés lehet neki egy robottal találkozni az otthonában. Ez a reakció ugyan programozás és algoritmusok eredménye volt, de nyugtatóan hatott az apa megtépázott idegrendszerére. Rob azért megjegyezte, nehogy félreértés legyen: ugyan pontosan leköveti mások érzéseit és azok fizikai jeleit, ő maga azonban nem tudna valóban sértettséget érezni – legfeljebb úgy tenne, mint akit megbántott Melanie apjának erőteljes zsigeri reakciója vagy a sok-sok barátságtalan kérdés.

Arra, hogy Havens vagy bárki más miért érez erőteljes averziót egy fizikai formát öltő robottal szemben, többféle magyarázat létezik. A legnépszerűbb elképzelés szerint az emberek számára különböző aspektusok (mozgás/mozdulatlanság, emberi kinézet) megjelenése, illetve ezek kombinációi teszik kellemessé vagy kellemetlenné egy emberre emlékeztető dolog észlelését, mondjuk egy robotét. Az alábbi grafikont Masahiro Mori készítette 1970-ben:

Mori fő felfedezése az volt, hogy bizonyos tartományban (ez az ún. „uncanny valley”) az embereket nagyon kellemetlenül érinti a rájuk majdnem tökéletesen hasonlító dolog látványa (vagyis például egy hulláé vagy egy zombié). Ezt a hatást érezhetjük, amikor például BigDog-ot, a Google fej nélküli robot kutyáját látjuk fel-alá szaladgálni.

Ezen felfedezés analógiájára több kutató is leírta az online reklámozás „uncanny valley” jelenségét: számítunk rá, hogy adataink és vásárlásaink alapján személyre szabott reklámok ugorjanak fel képernyőnkön, ezek viszont sokszor tévesen lövik be a valódi igényeinket és érdeklődésünket, ezért kellemetlen érzést váltanak ki belőlünk. (A GDPR-ral kapcsolatos és egyéb adatvédelmi kérdések miatt a legtöbb online cég enciklopédia-hosszúságú „Felhasználási feltételek”-et hagyat velünk jóvá. Ezeket azonban a legtöbb esetben – nézzünk csak magunkba! – meg sem próbáljuk végigolvasni. Ami nem is csoda, tekintve hogy ha megtennénk, ez állítólag átlagosan 76 napot venne igénybe az életünkből egy évben. Így történhetett meg, hogy a Washington Post által lefuttatott kísérlet tanúságai szerint a megkérdezettek közül hat ember „véletlenül” beleegyezett, hogy lemondjon elsőszülött gyermekéről némi ingyenes wifi-használatért cserébe.) Ugyanakkor a reklámozás „uncanny valley” jelensége valószínűleg nemsokára a múlté lesz, mert a célcsoportok kijelölése és a testreszabott marketing egyre kifinomultabb módon működik, így hamarosan nem nagyon lesz esélyünk észrevenni, ha manipulálnak minket.

Havens szerint mára kétféle identitásunk alakult ki: az egyik a klasszikus descartes-i értelemben vett nem-digitális entitás, aki „gondolkodik, tehát van”, gondolatai pedig a sajátjai; míg a másik a digitális entitás, amely adataink szinkronizálásán és ezer meg ezer szereplőhöz kapcsolt interpretálásán alapszik.

Személyes adatainkat (ideértve testi-fizikai mutatóinkat, helyzetünket, programjainkat és minden egyéb rólunk szóló információt) hordozható készülékeinken keresztül tudomásunk nélkül is folyamatosan gyűjtik és elemzik, így alakul ki – akarva, akaratlanul – a digitális identitásunk. Ezért az emberek jövőbeli boldogsága Havens szerint részben a gépekhez fűződő kapcsolatukon múlik. Gondoljunk csak arra, hogy a célzott hirdetések következtében akaratunk ellenére olyan döntéseket hozhatunk, amelyek például nem a megfelelő állás vagy partner megtalálásához vezetnek, így boldogtalanságra leszünk kárhoztatva. A boldogság ugyanakkor nem a gyorsan kiégő pozitív érzeteken/élményeken múlik, hanem a fenti (és a többi hasonló) kihívásra adott válaszainkon, melyek révén jobban megismerhetjük önmagunkat – vagyis értékeinket és céljainkat. Ez az, ami miatt személyes adataink védelme a jövő egyik legfontosabb kihívása. Hacsak nem akarunk a Facebook-identitásunkon alapuló reklámok által vezérelve élni, ideje kezünkbe venni a rólunk szóló információkat, különben minden újabb szinkronizálás egyre távolabb visz minket az önálló döntésektől.

De térjünk vissza a robotpartnerhez! Havens hosszú beszélgetést folytatott egy huszonéves, dokumentumfilmes egyetemi hallgatóval, amiből ijesztő kép rajzolódott ki a mai japán fiatalok érzelmi életéről: a hallgató szerint nem az számít, hogy az ember partnere „miből áll”, hanem az, hogy milyen érzéseket kelt az illetőben, aki digitális kapcsolatra lép vele. Ha örömöt okoz, miért lenne fontos, hogy nem humán? Mint tudjuk, Japánban egy férfi azóta már házasságra is lépett virtuális barátnőjével. Ezek a tapasztalatok nyilván rengeteg kérdést felvetnek mind jogi, mind etikai szempontból, melyekre egyéni és társadalmi szinten is meg kell találni a válaszokat. (Ki számít személynek? Elfogadható-e morálisan, ha digitális partnerünket megcsaljuk? Párkeresés helyett nem lesz-e egyszerűbb a jövőben algoritmusokon alapuló partnert „letölteni” az internetről?)

Társadalmi szinten Havens szerint a számonkérhetőség irányába kell elmozdulnunk, amihez jó alapot szolgáltat például az eBay és az Airbnb visszajelzés/értékelés-alapú rendszere. Hiszen ezek lehetővé teszik, hogy Facebook és Twitter-imázsunk helyett valódi tetteink (és a mások értékelése által nyújtott tükör) legyenek digitális identitásunk formálói.

  1. Az etika mérhetetlen mértéke (2014)

Ez a jelenet Nick Bostrom 2003-as „Gémkapocs maximalizáló” („Paperclip maximizer”) gondolatkísérletét veszi alapul, melynek lényege a következő:

A gémkapcsok maximalizálója egy általános mesterséges intelligencia (AGI), amelynek célja az összegyűjtött gémkapcsok számának maximalizálása. Ha az AGI-t hozzávetőleg az általános emberi intelligencia szintjén építették fel, akkor eleinte a következőket fogja tenni: gyűjtheti a gémkapcsokat, pénzt kereshet gémkapcsok vásárlása céljából, vagy megkezdheti a gémkapcsok gyártását. Egy idő után azonban az AGI intelligenciarobbanáson megy keresztül, azaz fejleszteni kezdi a saját intelligenciáját. (Itt az intelligencia az optimalizálási erőt, vagyis a jutalom maximalizálásának képességét jelenti; az eredménynek ebben az esetben a gémkapcsok száma felel meg.) Az AGI fejleszti az intelligenciáját – de nem azért, mert az önmagában magas értéket képvisel, hanem azért, mert a nagyobb intelligencia hozzájárul a cél eléréséhez, tehát a gémkapcsok felhalmozásához.

Ennek analógiájára képzeljük el a Homebo Robotics intelligens, önmagát újratölteni képes elektromos porszívóját, amelyet egy családi otthon előszobájában tárolnak. A ház nappalijában hangosan megy a TV. A jelenet a gyártó két alkalmazottja, egy programozó és egy üzletfejlesztési vezető beszélgetését tárja elénk. Ők ketten arról vitatkoznak, hogy lehetséges-e minél gyorsabban újraprogramozni a porszívót úgy, hogy az ne kapcsolja ki magát automatikusan, ha kezd lemerülni az akkumulátora, és nem talál a közelben elektromos csatlakozási pontot. A programozó azt állítja, hogy ez egy alapfunkció felülírását tenné szükségessé, amit nem tud gyorsan megoldani. A vezető szerint ezen minél előbb túl kell esni, hogy gyorsan frissíteni lehessen az adatvédelmi irányelveket, melyeket – teszi hozzá gunyorosan – úgysem olvasnak el a felhasználók, és többé senki ne nyújthasson be panaszt azért, mert lemerült a porszívója, és nem tudta időre elvégezni a beprogramozott takarítást a házban.

Mivel a menedzser egy ponton agresszívan megfenyegeti a programozót, hogy nem csupán a mostani állását fogja elveszteni, de a többi cégnél is rossz hírét fogják kelteni, ha nem teszi meg neki, amit kért, a programozó végül rövid tiltakozás után beadja a derekát, és beélesíti az algoritmus frissítését (annak ellenére, hogy tudja, több bugot is el kellene távolítania belőle).

Pár hónappal később újra a családi otthonban vagyunk: a robot porszívó, ha neadjisten lemerülne és nem találna a közelében működőképes elektromos csatlakozót, most már az új algoritmusnak köszönhetően képes egy másik készülék áramforrásához is csatlakozni. Így hát a robot a rendelkezésére álló hálószobai áramforrásból elkezdi feltölteni magát. Az egyetlen készülék a hálóban egy babaőr, lemerülőben lévő elemekkel. A nappaliban hangosan megy a TV, a kanapén elalvó apa pedig nem hallja meg, ahogyan alvó kisbabája egy órával később megfullad saját anyatejes hányásában.

A robotporszívó új algoritmusa önmagában, a körülményektől elvonatkozatva nem tűnik ártalmasnak vagy fenyegetőnek, azonban ha a gép nem jut áramforráshoz, nem tudja végrehajtani a belé programozott feladatokat. A feladatok végrehajtása alapvető mozgatórugója a készüléknek, ezért a gép működése során tökéletesen figyelmen kívül hagy minden más körülményt, ha saját töltődéséről van szó. Ez azt jelenti, hogy bár az ilyen készülékek nincsenek ellenünk hangolva, nincsenek „ránk hangolva” sem. A mi emberi szempontunkból az lenne legjobb, ha a gépek képesek lennének kontextusokat, célokat és prioritásokat rangsorolva döntéseket hozni a beléjük táplált értékek alapján. (Például a robotszakács, akit csirkepörkölt elkészítésére programoztak, látván, hogy nincs otthon csirkehús, nem hozná meg azt a döntést, hogy jobb híján az ember házikedvencét főzi bele az ételbe.) Ehhez jutalmazni kell a meglévő értékeinkkel összhangban álló cselekedeteket, és visszamenőleg megerősíteni a kívánt viselkedésmintát. (Ezt az emberi viselkedés megfigyelésén alapuló módszert „inverse reinforcement leaning”-nek nevezik, és Havens szerint ígéretes módja az MI készülékek etikai programozásának.)

Természetesen egy okos otthonban nem csak a porszívó, hanem még vagy egy tucat készülék követi nyomon – szenzorok és egyéb adatfelvevők segítségével – a felhasználók paramétereit és preferenciáit, közvetlenül átadva azokat a gyártóknak. Ezzel többek között az a gond, figyelmeztet Havens, hogy amennyiben személyes adataink nincsenek saját kezelésünkben, és nem ellenőrizzük a felhasználásukat, a gyártók a harmadik felek profitszempontjait kiszolgálva kedvükre szemezgetnek belőlük, és ezáltal, illetve a reklámozás „uncanny valley”-jéből kifolyólag súlyosan összekutyulják digitális identitásunkat.

De számot kell vetnünk egy másik nagyon súlyos következménnyel is, ez pedig nem más, mint az emberek tömeges munkanélkülisége. Hogyan létezhet fejlődés vagy csak pusztán emberi jólét a masszív méreteket öltő munkanélküliség fényében? (Lásd a washingtoni Urban Institute Consequences of long-term unemployment című jelentését). Kérdés, hogy az intelligens technológiák képesek lesznek-e megoldani ezt a problémát is, tekintve, hogy itt nem a rövidtávú profittermelés a cél. (Havens a feltétel nélküli alapjövedelem, a „universal basic income” mellett is leteszi a voksát.)

Természetesen vannak és lesznek esetek, amelyekben nagyon is hasznos és fontos, hogy egy MI alkalmazás vagy program hozzáférjen bizonyos személyes adatainkhoz. Például az Ebola-betegeket és -tüneteket valós időben orvosokkal összekapcsoló JEDI interfész lehetővé teszi, hogy a kezelést segítő adatok úgy kerüljenek bele a központi rendszerbe, hogy nincsen szükség az orvosok személyes jelenlétére.

Egy önvezető autó esetében azonban már teljesen máshogy fest a személyes adatok begyűjtésének kérdése. Előfordulhat például, hogy egy céges autóban utazva az autó rendszere jelenlegi emocionális és fizikai állapotunknak megfelelően dob fel reklámokat és ajánl termékeket nekünk, sőt esetleg továbbítja is a főnökünknek ezeket az adatainkat, ezzel máris több szereplő döntéseit befolyásolva.

Alapvető probléma, hogy nem létezik egységes jogi szabályozás az autonóm rendszerekre vonatkozóan, ami széles lehetőségeket biztosít a tech cégeknek a fejlesztéseik terén, és nagy játékteret nyit számukra (főként az USA-ban alkalmazott „mindent lehet, ami nincs tiltva”-elvre hivatkozva). Mivel minden mostani szabályozás emberi személyekre és az ő döntéseikre vonatkozik, meglehetősen nagy kihívás áll a jogalkotók előtt. Ugyanakkor egy gyártó vagy cég is lehet jogi személy, tehát nincs elméleti akadálya, hogy autonóm rendszereket is jogi értelemben személynek minősítsünk.

Havens szerint bármennyire hasznosak lehetnek is az MI technológiák társadalmi szinten, ha az adataink felett nem rendelkezünk, a hasznosság könnyen kihasználássá válik.

Mit tehetünk hát a jövőnkért?

A könyv második, reménytelibb képet festő részében a szerző átgondolja, hogyan hangolható össze az MI etikája a pozitív pszichológia (melynek Havens meggyőződéses híve) közérzetünkre gyakorolt kedvező hatásaival. A következő módon: ha beazonosítjuk azokat a specifikus (mélyen fekvő és hosszú távú) humán értékeinket, amelyeket valamilyen formában a gépeknek is ismerniük kellene. Ilyen például az empátia képessége; bár arról, hogy pontosan mit is fed ez a képesség, egészen régóta hosszú filozófiai viták folynak az irodalomban.

Első lépésként arra kell magunkat rávezetni, hogy felismerjük, pontosan milyen értékek mentén éljük mindennapi életünket. Havens ennek érdekében egy ismerőse által fejlesztett applikációt (rTracker) hívott segítségül. Az applikációhoz tartozó felületen a személy egy nap három alkalommal be tudja jelölni, hogy az adott pillanatban mennyire fontosak neki a megadott értékek, és hogy mennyire elégedett velük (például: kreativitás, család, anyagiak, függetlenség stb.). A személy felfigyelhet rá, hogy vannak értékek, amelyeket ugyan fontosnak tart, mégsem törődik a „követésükkel” (ilyen lehet például egészség). De más lehetőségek is léteznek értékeink feltérképezésére; lásd mondjuk a Ryff-féle pszichológiai jóllét skálát. Ezek és hasonló felmérések inspirálták Havens-t és kollégáit a könyvben is megtalálható saját tesztjük megalkotására, melynek segítségével a személyek azonosíthatják az életben legfontosabbnak tartott értékeiket, és 21 napon át nyomon követhetik, hogy milyen mértékben sikerül ezekkel összhangban élniük. Felmerülhet a kérdés: tulajdonképpen vannak-e egyáltalán általános emberi értékek, amelyeket minden MI technológiának követnie kellene? Havens az Emberi Jogok Egyetemes Nyilatkozatát hozza fel példaként, amelyet szerinte a technikai fejlődés fényében erőteljesen újra kell értelmeznünk.

Ugyanakkor a robbanásszerű fejlődés, aminek tanúi vagyunk, leginkább azt a kérdést veti fel kényszerítő erővel, hogy mi az emberi boldogság működő modellje, és melyek a legfontosabb emberi értékek. Havens egy hármas listát ajánl válaszként, melyet a pozitív pszichológia eredményei alapján állított össze. Ezek: a hála (a mindennapjainkban fellelhető dolgok megélése és értékelése), az önzetlenség/altruizmus, és az, hogy legyen célunk (purpose) az életben. Ez utóbbit két tényezőre bontja: az értékekre és a Csíkszentmihályi Mihály által bevezetett „flow”-ra (lásd Flow. The psychology of optimal experience, Harper & Row, New York, 1990; magyar kiadás: Flow – Az áramlat – A tökéletes élmény pszichológiája, fordította Legéndyné Szabó Edit, Akadémiai Kiadó, Budapest, 2018).

Végezetül Havens leszögezi, hogy a jelenlegi profitorientált gazdaságot át kell alakítanunk értékközpontúvá: túl kell lépnünk a GDP meghatározó szerepén, és a GNH (Gross National Happiness) mutatóinak megfelelően át kell hangolnunk a gazdaság működését. Így összességében a mesterséges intelligencia elterjedése élhetőbb társadalmi környezethez vezethet.

A kötetben megfogalmazott következtetések és tanulságok a szerző technológiai elemzéseivel alátámasztva egészen tisztán kirajzolják a jövő egy lehetséges útját – amelyen járva (ideális esetben) megteremhető lesz az összhang az emberi értékek és a mesterséges intelligencia által „követett” értékek között. Úgy legyen.