Kas būtų, jei sprendimą, turintį realių pasekmių žmogaus gyvenimui, priimtų ne pareigūnas ar teisėjas, o dirbtinis intelektas? Viešojoje erdvėje tokia situacija vis dar dažnai pristatoma kaip pavojingas eksperimentas. Tačiau naujausi moksliniai tyrimai rodo, kad realus pavojus gali slypėti ne ten, kur esame įpratę jo ieškoti.
Mykolo Romerio universiteto (MRU) Viešojo valdymo ir verslo fakulteto profesoriaus dr. Mindaugo Kiškio moksliniame straipsnyje, publikuotame tarptautiniame mokslo žurnale Sustainable Futures, akcentuojama nepatogi mintis: vertinant sprendimų kokybę, dirbtinis intelektas (DI) jau šiandien dažnai nenusileidžia žmogui, o kai kuriais atvejais jį pranoksta. Ne todėl, kad būtų „protingesnis“, bet todėl, kad sprendimus priima be emocijų, nuovargio ir išankstinių nuostatų.
„DI sprendžia taip pat kaip žmogus, tik geriau – nuosekliau ir objektyviau“, – teigia profesorius.
Ši išvada grindžiama ne pavieniu eksperimentu, o tarptautinių empirinių tyrimų meta analize, apimančia skirtingas sritis: nuo socialinių paslaugų paskirstymo iki medicinos ar rizikos vertinimo teisėje ar finansuose. Kadangi DI šiose srityse jau realiai naudojamas, straipsnyje keliamas klausimas, ar jo sprendimų kokybę vertiname remdamiesi duomenimis, ar vis dar labiau – įpročiais ir baimėmis.
Problema ne DI, o žmogaus sprendimai
Nepaisant augančių įrodymų, visuomenės reakcija į DI sprendimus išlieka emocinga. Pasak prof. dr. M. Kiškio, viena pagrindinių to priežasčių – baimė tapti nereikalingu. Dirbtinis intelektas dažnai suvokiamas ne kaip įrankis, o kaip konkurentas, galintis atimti žmogaus sprendimo galią.
Prie to prisideda ir įprotis labiau pasitikėti žmogumi vien todėl, kad jis yra žmogus. Nors žmogaus sprendimų motyvai dažnai būna neaiškūs, prieštaringi ar nulemti atsitiktinių aplinkybių, jie vis tiek laikomi patikimesniais nei DI sprendimai. Straipsnyje atkreipiamas dėmesys į paradoksą: vadinamoji žmogaus sprendimų motyvacija neretai būna ne mažiau, o kartais net labiau neaiški nei DI sistemų veikimo logika. Žmogaus smegenys yra labiausiai nepermatoma „juodoji dėžė“ visatoje.
Žmonių sprendimus veikia nuovargis, spaudimas, nuotaika, ankstesnės sėkmės ar nesėkmės, net paros metas ar per pietus valgyto maisto kokybė. Jei žmogus padaro klaidą, jis dažnai linkęs ją kartoti ir surasti pateisinimą. Dirbtinio intelekto atveju ištaisyta klaida paprastai nebesikartoja.
Įsivaizduokime situaciją, socialinės paramos skyriuje du pareigūnai, vertindami identiškus prašymus, priima skirtingus sprendimus, vienas – ryte, kitas – po įtemptos darbo dienos. Abu sprendimai „žmogiški“, tačiau jų pasekmės pareiškėjams skiriasi. DI sistema tokioje situacijoje taikytų tas pačias taisykles visiems, nepriklausomai nuo nuotaikos ar nuovargio.
Kai klysta žmogus – „žmogiška“, kai DI – skandalas
Straipsnyje taip pat išryškinama tendencija, kad DI dažnai tampa patogiu „atpirkimo ožiu“. Kai sprendimas pasirodo neteisingas, kaltė neretai suverčiama technologijai, nors įsigilinus paaiškėja, kad klaida kilo dėl žmonių nustatytų taisyklių, ankstesnių žmonių klaidingų sprendimų (kai DI buvo apmokytas pagal juos) ar netinkamo sistemos naudojimo.
Viešose diskusijose DI dažnai lyginamas ne su realiu, klystančiu, o su idealiu žmogumi, kuris tiesiog neegzistuoja. Toks palyginimas iškreipia diskusiją ir kuria nepagrįstus lūkesčius sprendimams. Pasak profesoriaus, žmonės apskritai linkę ieškoti išorinių kaltininkų savo pačių klaidoms, o DI šiuo atveju tampa lengvu taikiniu.
Straipsnyje dirbtinis intelektas apibūdinamas kaip kolektyvinio žmonių intelekto forma – daugybės žinių, patirčių ir sprendimų modelių visuma. Būtent tai leidžia jam tam tikrose situacijose pranokti pavienį individą ir sumažinti sprendimų „triukšmą“, būdingą žmogui.
Ne ateitis, o dabartis
Svarbi tyrimo mintis – nepasitikėjimas dirbtiniu intelektu pats savaime nėra dorybė. Sudėtingose situacijose žmogaus įsikišimas kartais ne sumažina, o padidina klaidų tikimybę. Tai ypač reikšminga socialinėse ir teisinėse srityse, kur sprendimų kaina – realūs žmonių likimai, o nenuoseklumas pats savaime tampa neteisybės forma.
Kartu straipsnyje pabrėžiama, kad DI nėra neklystantis autoritetas. Jo sprendimams vertinti turi būti taikomi tie patys skaidrumo, atsakomybės ir proporcingumo kriterijai kaip ir žmogaus sprendimams, Tuo tarpu pranašumas priklauso nuo konteksto, duomenų kokybės ir aiškiai apibrėžtų taikymo ribų.
Kaip apibendrina prof. dr. M. Kiškis, tai nėra ateities scenarijus. Tai – dabartis. O tyrimo žinutė visuomenei – dirbtinis intelektas jau dabar gali priimti ne blogesnius, o dažnai ir geresnius sprendimus nei vidutinis žmogus. Klausimas nebėra „ar galime tuo patikėti“, o „ar galime sau leisti to nepastebėti“.
Tekstą parengė Mokslo ir inovacijų centro komunikacijos vadybininkė Laura Stankūnė
Nuotrauka: asmeninis mokslininko archyvas