
Prof. dr. Pekka Santtila – Niujorko universiteto Šanchajaus psichologijos profesorius ir teisės psichologijos ekspertas, publikavęs daugiau nei 300 mokslinių straipsnių šioje srityje. Jis aktyviai bendradarbiauja su policija, teikia ekspertines išvadas teismams ir padeda tobulinti vaikų seksualinio išnaudojimo tyrimus. Be to, profesorius domisi dirbtinio intelekto taikymu teisėje – nuo apklausų iki prisiekusiųjų sprendimų analizės.
Praėjusią savaitę Vilniuje jis pristatė savo pranešimą apie teismo apklausų ateitį kasmetinėje Europos teisės psichologijos asociacijos (angl. European Association of Psychology and Law, EAPL) konferencijoje EAPL 2025, į kurią susirinko apie 250 dalyvių iš 34 šalių. Konferenciją organizavo Mykolo Romerio universiteto (MRU) Taikomosios psichologijos tyrimų laboratorija.
„Deja, tradiciniai mokymai ne visada duoda ilgalaikį rezultatą“, – pastebi prof. dr. P. Santtila.
Inovatyvios priemonės apklausoms
Tam, kad tyrėjai galėtų pasiruošti geriau, jis kartu su komandomis sukūrė inovatyvią priemonę – avatarus. Tai virtualūs personažai (pirmiausia sukurti vaikų, dabar – ir suaugusių), su kuriais galima praktikuotis, atliekant apklausas realistiškomis sąlygomis. Tokie mokymai padeda geriau formuluoti klausimus, išvengti sugestyvumo ir prisitaikyti prie įvairių situacijų. „Avatarai leidžia gauti grįžtamąjį ryšį realiu laiku, koreguoti klaidas ir sustiprinti įgūdžius, kuriuos vėliau galima taikyti realiuose tyrimuose“, – aiškina profesorius.
Dar viena inovacijų kryptis – dideli kalbos modeliai (LLM). Tai DI technologijos, kurios gali padėti tyrėjams pokalbio metu – siūlyti klausimus, perspėti apie šališkumą ar net stebėti emocinį foną. „Einame link mišraus apklausos modelio, kur žmogus ir DI bendradarbiauja. Įsivaizduoju, kad netolimoje ateityje tyrėjai dėvės VR akinius, kurie padės jiems išlaikyti kokybę net stresinėse situacijose“, – prognozuoja jis.
Tyrimai rodo, kad DI gali ne tik palengvinti apklausas, bet ir padėti išvengti parodymų iškraipymų. Pavyzdžiui, eksperimento metu DI vedamos apklausos su 6–8 metų vaikais buvo tikslesnės – dirbtinis intelektas uždavė mažiau nereikalingų klausimų ir gavo mažiau neteisingos informacijos.
Kita įdomi plėtojama kryptis – individualizuoti avatarai, kurių elgsena atitinka konkretaus įtariamojo profilį. Tyrėjas galėtų iš anksto pasiruošti konkrečiai apklausai, treniruodamasis su virtualiu personažu. „Tai galėtų iš esmės pakeisti apklausų pasirengimą, kad apklausa taptų individualizuota“, – teigia prof. dr. Santtila.
Vis dėlto naujovės reikalauja atsakomybės. Kalbėdamas apie dirbtinį intelektą, profesorius pabrėžia, kad svarbu išlaikyti žmogaus kontrolę. „DI turi būti pagalbininkas, o ne sprendimų priėmėjas. Žmogus turi kontroliuoti procesą ir prisiimti atsakomybę“, – akcentuoja jis. Taip pat būtina užtikrinti, kad DI būtų skaidrus ir nešališkas, kad visada būtų aišku, kaip ir kodėl buvo priimtas vienas ar kitas sprendimas.
Technologijų pažanga apklausose gali atrodyti kaip futuristinis scenarijus, tačiau, pasak profesoriaus, tai jau vyksta. Svarbiausia – naudoti naujoves atsakingai, laikantis etikos, mokslo standartų ir žmonių labui. Ypač tų, kurie yra labiausiai pažeidžiami.