„Idegenek élnek közöttünk. Nem apró zöld emberkék a tudományos-fantasztikus filmekből, hanem idegen elmék, amelyek az okostelefonunk arcfelismerő rendszerét működtetik, meghatározzák a hitelképességünket, verseket és számítógépes kódokat írnak. Ezek az idegenek a mesterségesintelligencia-rendszerek; a szellem a gépezetben, amellyel napi rendszerességgel találkozunk” – fogalmaz a The Conversation oldalán megjelent cikkében Mark Bailey, az amerikai Nemzeti Hírszerzési Egyetem (NIU) kutatója. Hozzáteszi, az MI-rendszereknek akad egy fontos korlátja: belső működésük nagy részben átláthatatlan, ennél fogva megmagyarázhatatlan és kiismerhetetlen. „Ha pedig alapjaiban nem értünk egy olyan kiszámíthatatlan dolgot, mint az MI, akkor vajon hogyan bízhatnánk meg benne?” – teszi fel a kérdést.
Mi teszi olyan rejtélyessé az MI-t?
Bailey szerint a bizalom általában véve az előreláthatóságon alapul. Azon, hogy képesek vagyunk-e előrelátni mások viselkedését. Ha megbízunk valakiben, aki aztán nem azt teszi, amit várnánk tőle, akkor a megbízhatósága is romlani fog a szemünkben.
Az MI-rendszerek nagy része mély gépi tanulásra, illetve annak neurális hálózatára épül, amely bizonyos tekintetben az emberi aggyal verseng. Ezek a hálózatok egymáshoz kapcsolódó "neuronokat" tartalmaznak olyan változókkal, amelyek befolyásolják az egyes neuronok közötti kapcsolatok erejét. Amikor egy kezdeti hálózat először találkozik a kiképzését szolgáló adatokkal, megtanulja, hogyan osztályozza azokat a változói szabályozásával. Innen nézve az MI-rendszer megtanulja azt is, hogyan osztályozzon olyan adatokat, amelyeket azelőtt sosem látott. Magyarán nem az egyes adatokat memorizálja, hanem inkább megjósolja, hogy egy-egy adat pontosan mi lehet.
Talán ez így kissé ködösen hangzik, de a lényeg, hogy ahogy Bailey írja, a legerősebb MI-rendszerek ilyen változók billióit tartalmazzák. Emiatt pedig gyakran nehezen átlátható az ember számára, hogy az MI miért hoz meg bizonyos döntéseket. Ezt nevezik MI-magyarázhatósági problémának – az MI döntéshozatala átláthatatlan fekete dobozát.
Érdemes ezen a ponton feleleveníteni az úgynevezett villamosdilemmát, amely egy hosszú évtizedek óta ismert etikai fejtörő, és amelyről korábban részletesen írtunk. Tegyük fel, hogy egy mesterséges intelligencia által irányított önvezető járműben utazol, amikor egy kisgyerek kiszalad a kocsi elé az útra. Ekkor az MI-nek azonnal döntenie kell: vagy elüti a gyereket, vagy kitér előle és balesetet szenved, potenciálisan veszélyeztetve utasát. Egy ilyen döntés az ember számára is nehéz lenne, de neki megvan az az előnye, hogy képes utólag megmagyarázni a döntése okait. Ez a fajta észszerűség pedig – amelyet etikai normák, mások véleménye és az elvárások is formálnak – bizalmat ébreszt. A másik oldalról az MI nem tudja megindokolni a döntését, hiszen nem láthatunk bele a változók billiói által befolyásolt döntési folyamatába. Ezzel az MI máris elbukik az előreláthatóság kritériumán, ha bizalomról van szó.
Ahogy az MI viselkedik, illetve amit várnánk tőle
A bizalom ugyanakkor nem csupán az előreláthatóságtól függ. Éppúgy társadalmi normák és etikai tényezők is meghatározzák. Azaz általában nem pusztán arra számítunk másoktól, hogy úgy cselekszenek majd, ahogyan várnánk tőlük, hanem úgy is, ahogyan úgymond kell nekik. Az emberi értékeket a közös tapasztalatok befolyásolják, a morális gondolkodás pedig dinamikus folyamat, amelyet az etikai normák és mások véleménye alakít.
Az emberrel ellentétben az MI nem ad mások véleményére, illetve nem feltétlenül igazodik az etikai normákhoz sem. Az MI világlátása zömében statikus, amelyet a kiképzése során kapott adatokból alakított ki. Ennél fogva döntéshozatali folyamatai is a világ egy sosem változó modelljén alapulnak, nem zavartatva a dinamikus, finom szociális interakcióktól, amelyek máskülönben folytonosan befolyásolják az emberek viselkedését. A területen dolgozó kutatók arra is keresik a megoldást, hogy érzékenyítsék az MI-t az etikára, de ez egy komoly kihívásokat tartogató feladat.
Térjünk vissza még egy gondolat erejéig az önvezető autó fenti példájára, mert jól szemlélteti a probléma mibenlétét. Hogyan lehet biztosítani, hogy az MI egy ilyen helyzetben olyan döntést hozzon, amely megfelelne az emberi elvárásoknak? Elvégre előfordulhat, hogy a jármű úgy ítéli meg, az a legoptimálisabb, ha elüti az útra kiszaladó gyermeket. Ugyanezt egy emberi sofőr ösztönösen igyekezne elkerülni. Ezt nevezzük MI-összehangolási problémának, amely a bizonytalanság, ezáltal pedig a technológiába vetett bizalom gyengüléségnek egy újabb forrása.
Képtelenség folyton felügyelni az MI tevékenységét
Bailey szerint az MI-vel szembeni bizonytalanság enyhítésének egyik módja az, hogy biztosítjuk az MI-rendszerek működésének emberi felügyeletét. Az amerikai védelmi minisztérium is éppen ezt a megközelítést alkalmazza. Ennek értelmében a mesterséges intelligencia vagy nem cselekedhet önállóan, hanem csupán javaslatot tehet az ember számára, aki aztán majd dönt a további teendőkről, vagy cselekedhet önállóan az MI, de döntéseit az emberi személyzet folyamatosan figyelemmel követi, szükség esetén pedig felül is írhatja.
„Bár az emberei részvétel egy remek kezdeti lépés, nem vagyok meggyőződbe arról, hogy ez hosszú távon is fenntartható marad” – írja a szakember. Ahogy ugyanis a cégek és kormányok egyre több területen alkalmazzák az MI-t, a jövőben várhatóan mind több és több úgynevezett beágyazott, avagy hierarchikus MI-rendszer működik majd, ahol a gyors döntéshozatal miatt az embernek igen korlátozott lehetőségei lesznek a közbeavatkozásra.
„Fontos, hogy megoldjuk az MI-magyarázhatósági és -összehangolási gondokat, mielőtt elérnénk ahhoz a kritikus ponthoz, amely után az emberi beavatkozás már lehetetlenné válik. Ezen a ponton ugyanis már tényleg nem maradna más opciónk, mint megbízni az MI-ben” – hangsúlyozza Bailey. Hozzáteszi, ezt a helyzetet azért is fontos lenne megelőzni, mert a mesterséges intelligencia már ma is kulcsfontosságú rendszerek részévé vált, kezdve az elektromos hálózatoktól az interneten át a katonai rendszerekig. Ezekben a rendszerekben a megbízhatóság a legfontosabb, az elvárttól eltérő működésnek pedig szó szerint halálos következményei lehetnek. Minél komplexebb módon épül be ezekbe a rendszerekbe az MI, annál fontosabbá válik, hogy megoldódjanak a megbízhatóságával kapcsolatos problémák.
Bízhatunk-e majd valaha is az MI-ben?
„Az MI egy idegen lény – egy intelligens rendszer, amelynek működésébe kevés betekintése van az embernek. Az emberek általában kiszámíthatóak más emberek számára, mert ugyanazokon a tapasztalatokon osztozunk. Ugyanez már nem érvényes a mesterséges intelligenciára, még ha az ember is alkotta” – emeli ki Bailey. Hozzáteszi, ha a megbízhatóságnak a kiszámíthatóság és a társadalmi normák egyaránt eredendő elemei, úgy az MI-ből alapjaiban hiányoznak olyan kvalitások, amelyek szükséges lennének a vele szembeni bizalomhoz. Remélhetőleg a területen zajló kutatások révén sikerül majd egyre jobban feltárni ezt a problémát, biztosítva, hogy a jövőben az MI-rendszerek is méltóak legyenek a bizalmunkra.