Ali nas bodo roboti napadli?

Dr. Domen Mongus: Umetna inteligenca je v resnici zelo neumna

Savo Radjenovič
1. 1. 2024, 07.22
Deli članek:

O tem, kaj je umetna inteligenca, kako nanjo gledajo ljudje iz sveta računalništva, zakaj halucinira in ali nas bodo roboti napadli, smo se pogovarjali z rednim profesorjem na Fakulteti za elektrotehniko, računalništvo in informatiko (FERI) v Mariboru Domnom Mongusom.

Igor Napast
Domen Mongus je vodja Centra za pametna mesta in skupnosti na Univerzi v Mariboru (UM) ter eden od vodilnih evropskih znanstvenikov na področju lokacijske inteligence

Ob izraz umetna inteligenca se je danes mogoče spotakniti na vsakem koraku, a pogovore o tej sicer pereči temi vse prepogosto spremljajo pretiravanje, olepšave in krilatice, zaradi česar se je samega pojma oprijela že nekakšna avra mističnosti. Zdi se, da gre za čudodelstvo, a umetno inteligenco v resnici poganjajo matematika, statistika in človeška roka. Domen Mongus je vodja Centra za pametna mesta in skupnosti na Univerzi v Mariboru (UM) ter eden od vodilnih evropskih znanstvenikov na področju lokacijske inteligence.

Kako bi pojasnili izraz umetna inteligenca?

Ko govorimo o umetni inteligenci, jo vedno rad predstavim na naslednji način. Ali ste seznanjeni s Heronom iz Aleksandrije? To je bil človek, ki je živel tam nekje okoli leta 50 našega štetja v Aleksandriji. Če si predstavljate zgodovinski kontekst, torej Aleksandrijo, ki so ji v tistem času vladali Rimljani, tam je obstajala vrsta religioznih kultov, templjev in z njimi uličnih pridigarjev, ki so se vsi borili za svoje sledilce. V tem okolju je krasno uspeval Heron, ki je v te templje »inštaliral čudeže«. Eden njegovih »čudežev« je denimo vključeval daritveni oltar pred templjem, na katerem so lahko častilci zažgali daritveno ovco, in če je bil bog z njihovo daritvijo zadovoljen, so se vrata templja sama od sebe odprla. Vanj jih je torej povabil sam bog. In v čem je bil trik? Heron je pod oltarjem postavil napravo, ki bi jo danes imenovali »bojler«. Ta se je, ko se je zgoraj cvrla ovca, segreval, para je ustvarila pritisk in odprla so se vrata. Kaj ima to z umetno inteligenco? V resnici veliko. Ljudje takrat niso razumeli, kaj pomeni pritisk, kaj pomeni para, kaj pomeni raztezanje ob segrevanju, in tak trik je zanje deloval kot čudež. Podobno je z umetno inteligenco danes. Dokler se nam zdi to »čudežno«, je v tem nekaj mističnega in zdi se nam inteligentno.

Torej so oziroma ste računalničarji, ki se s tem ukvarjate, sodobni Heroni iz Aleksandrije?

Tako nekako. Če razumemo, kako je umetna inteligenca implementirana in kako deluje, je jasno, da gre za podobno enostavne trike, kot jih je izvajal Heron. V tem ni čisto nič mističnega. Danes se otroci že v osnovni šoli spoznajo z mehaniko, ki omogoča razumevanje Heronovega početja. In če bi si vsak vzel toliko časa, da bi se poglobil v algoritme umetne inteligence, bi bilo vsakomur jasno, kako preprosto je to.

Sicer pa, kako bi vi na splošno definirali inteligenco, ne umetno, ampak inteligenco kot tako? Če ob tem odmislimo tiste formalne metrike, ki jih meri psihologija, to ni trivialno vprašanje, kajne? Ko v računalništvu govorimo o umetni inteligenci, če že želimo biti formalni, lahko rečemo, da gre za implementacijo avtonomnega in razmeroma racionalnega reagiranja stroja ali naprave na zunanje impulze. Ko torej človek poda stroju izziv, ga ta smiselno reši. Če napravo nekaj vprašaš, ona racionalno odgovori. Ko jo v računalniški igri poskušaš napasti, se ona učinkovito brani ali natančno predvideva prihodne stanje resničnega sveta, kot na primer jutrišnje stanje prometa.

Pa se algoritmi, ki se uporabljajo na področju umetne inteligence, razlikujejo od klasičnih algoritmov v programiranju?

Da, se razlikujejo. Klasičen algoritem za nas pomeni izvedbo korakov, ki jih moramo izvesti, da rešimo neki problem. Če želimo nekaj izračunati, potem najprej preberemo eno vrednost, nato drugo in tretjo, na koncu izvedemo izračun in dobimo rezultat. Algoritem umetne inteligence pa je algoritem, ki se uči korake, po katerih lahko reši takšen problem. Ob tem ima določen cilj in ta cilj je sestaviti korake tako, da ustvari najmanjšo napako pri reševanju problema. Temu pravimo nadzorovano učenje. Skratka, programer klasičnega algoritma sam sestavi korake, po katerih se reši problem, programer algoritma umetne inteligence pa na drugi strani sestavi korake, po katerih se algoritem nauči korake rešitve problema. Lahko bi celo rekli, da gre za algoritem, ki se uči algoritem.

Iz česa ta algoritem črpa informacije, da se sploh lahko uči?

Ko govorimo o nadzorovanem učenju, se umetna inteligenca uči iz učnih vzorcev, tako kot človek. Obstaja rek, ki pravi, da se vse življenje učimo, saj vse življenje opazujemo svet, pridobivamo nove informacije in vseskozi spoznavamo nove vzorce, ki jih vkomponiramo v naš sistem odločanja. Nekatere vzročno-posledične vzorce, denimo, da se ne smemo dotakniti ognja, ker se bomo opekli, se naučimo že zelo zgodaj. Skozi življenje pa takšne vzorce dopolnjujemo in nadgrajujemo z novimi izkušnjami. Tudi algoritem umetne inteligence potrebuje vzorce, da se lahko nauči vzročno-posledičnih relacij in predvidi racionalen rezultat ob določenih vhodih. Čeprav obstajajo tudi algoritmi nenadzorovanega strojnega učenja, ki omogočajo grupiranje vzorcev v skupine in podskupine brez predhodno podanega rezultata, te večinoma uporabljamo zgolj v podatkovni analitiki za odkrivanje novega znanja. »Inteligentno posnemanje obnašanja« pa vendarle temelji na učnih vzorcih, ki jih je zbral in uredil človek ter jih podal algoritmu umetne inteligence kot učne primere racionalnega odzivanja na določene vhode. Takšni primeri so lahko spisi, pogovori in objave na internetu, na osnovi česar se je učil danes razvpiti ChatGPT, ali pa so to senzorski podatki, na osnovi katerih lahko napovedujemo poljubne okoljske spremenljivke, kot na primer promet, onesnaženje zraka, ali pa pričakovan kmetijski pridelek. V vseh primerih je princip učenja enak in je usmerjen v iskanje primerne funkcije, ki preslika vhodne spremenljivke v rezultat. Ker je računska moč sodobnih računalnikov bistveno večja, kot so računske kapacitete človeka, so te funkcije lahko zelo zahtevne, vključujejo več spremenljivk in številne računske operacije med njimi ter posledično dajejo vtis »čarobnosti«. Vseeno pa gre v teh primerih le za iskanje »statistično najbolj verjetnega rezultata« glede na podane vhode.

In kaj je pri tem 'inteligentnega', če gre le za statistiko?

Inteligentno je le to, da na ta način posnemamo racionalno obnašanje. Pri tem je mogoče reakcija naprave lahko celo tako smiselna, da uporabnik ne opazi, da gre za stroj. Še pred nekaj časa bi se nam verjetno zdelo zelo čarobno, če bi nas ob vstopu v stanovanje pozdravila vhodna vrata in nam zaželela prijeten počitek. Danes pa verjetno že vsak razume delovanje prepoznave obrazov, saj lahko to uporabi za odklepanje svojega mobilnega telefona. Pri tem mobilnemu telefonu poda nekaj fotografij, ki jih označi kot svoj lasten obraz, algoritem strojnega učenja pa se nauči funkcijo preslikave vhodnih vrednosti pikslov v naše ime oziroma identiteto. Ključno pri tem je seveda tako imenovano označevanje, kjer smo jasno označili fotografije, na katerih smo mi, sam model razpoznave obrazov pa je imel že vnaprej vključenih več vzorcev fotografij drugih obrazov, s čimer se je lahko naučil razlikovati med nami in ostalimi. Ob uporabi drugačnih učnih vzorcev pa lahko naučimo model prepoznavati tudi druge osebe in stvari, napovedovati okoljske parametre v prihodnosti ali sklepati, katera beseda v določenem tekstu bo naslednja. Tako lahko naučimo stroj celo govoriti.

Igor Napast
»In če bi si vsak vzel toliko časa, da se poglobi v algoritme umetne inteligence, bi bilo vsakomur jasno, kako preprosto je to.«

Znano je, da umetna inteligenca, ko je govora o teh trenutno priljubljenih jezikovnih modelih, v vsej svoji »inteligenci« tudi halucinira, kdo bi celo rekel, da laže. Kakšen je mehanizem za tem pojavom?

Umetna inteligenca je v resnici zelo neumna, saj če jo nekaj vprašaš, ti mora odgovoriti. In če ji postaviš neumno vprašanje, boš dobil neumen odgovor. Generiranje odgovora namreč izvaja na osnovi statistike povezanih besed na internetu. Zelo preprosto, če izberemo začetno besedo »Slovenija«, bo tej besedi dodala naslednjo najbolj pogosto oziroma najbolj verjetno besedo, ki se na internetu pojavi za to besedo. Tako bo stavek recimo nadaljevala z besedo »je« in nato ustvarila besedilo »Slovenija je lepa«. Gre za preprosto statistično dodajanje besede za besedo za besedo in tako naprej. Ker same vsebine pri tem ne razume, se lahko zgodi, da pri generiranju besedila zamenja kontekst. Tako lahko vaše ime poveže z imenom kakšne znane zgodovinske osebe, na osnovi katere potem ustvari celoten tekst in vas razglasi za znamenitega vojskovodjo ali poveže različna besedila ter doda neobstoječe citate in nepravilna dejstva. Ker tovrstni modeli ne razumejo vsebine, o kateri govorijo, govor pa tvorijo zgolj na osnovi statistike povezanih besed, pravimo, da halucinirajo, ko ustvarijo neresnično besedilo. Razlogi za to se lahko skrivajo v napačnih in neuravnoteženih učnih vzorcih ali v preprosti nezmožnosti samega modela, da pravilno prepozna ter vzdržuje kontekst skozi celotno generiranje besedila.

In vse informacije črpa z interneta? Kje v tem procesu, ko je govora o jezikovnih modelih, nastopijo ti famozni označevalci, kakšna je njihova vloga?

Danes najbolj poznani generatorji besedil so v svoji zasnovi generativnega dela učne podatke črpali z interneta. Mislim, da je bil model GPT-3 naučen na 570 gigabajtih internetnih tekstov, vključno s prostodostopnimi knjigami ter objavami z Wikipedije, Twitterja in Reddita, z uporabo 175 milijard parametrov. Več tisoč označevalcev je pri tem sodelovalo že v sami pripravi podatkov, da se je model naučil osnovnih statistik povezovanja in dodajanja besed ter generiranja besedila. Označevalci nastopijo tudi pozneje, ko je treba generirana besedila oceniti in jih razvrstiti glede pravilnosti odgovorov na podana vprašanja. Vsaka takšna ocena služi v naslednji iteraciji učenja kot nov učni vzorec za izboljšanje osnovnega modela. Po poročanju revije Times Magazine je pri tem sodelovalo več deset tisoč označevalcev zgolj iz Kenije, njihova naloga pa je bila le prepoznava neprimernih besedil, ki so vsebovala na primer sovražni govor. Čeprav jim je tako uspelo odpraviti zajeten del neumnosti, s katerim bi lahko sicer postregla umetna inteligenca, pri vsem tem nekoč pride trenutek, ko si moramo priznati, da žal nimamo več denarja. Tako je vse napake nemogoče odpraviti.

Bo lahko označevalec kdaj odveč, ga bo lahko nadomestila druga umetna inteligenca, ki bo označevala namesto njega?

Ne, ker bi potem to pomenilo, da imamo v rokah hipotetičen stroj, neke vrste perpetuum mobile. Ta predpostavka namreč nakazuje, da neko znanje nastaja iz nič. To je pomembno vprašanje, ki ga je treba razumeti, saj pogosto vodi do napačnega razumevanja umetne inteligence kot take. Res je, da poznamo koncepte, kot je na primer okrepitveno učenje, kjer modeli izboljšujejo samega sebe tako, da na primer igrajo šah ali kakšno drugo igro sami s seboj. Tako imamo na eni strani algoritem, ki se uči na podlagi učnih vzorcev, ki jih je na drugi strani ustvaril sam ali jih je v ta namen ustvarila kakšna druga umetna inteligenca, ki mu na neki način »govori«, ali se je odzval pravilno ali narobe. Tovrstnih kaskadnih pristopov je veliko in lahko jih prefrigano, če uporabim ta lep izraz, uporabimo za zasnovo nekakšnega perpetuum mobile, s katerim ustvarjamo nove informacije, znanje, iz nič. Nekateri bi rekli, da lahko tako ustvarimo celo samozavedanje. V resnici pa imamo na voljo samo toliko informacij, kot jih imamo v vhodnih učnih vzorcih. Novih informacij znotraj zaprtega sistema ne moremo ustvariti, saj to pomeni, da si jih izmislimo. Z uporabo umetne inteligence lahko snujemo le bolj ali manj uspešne tehnike učenja, ki so zmožne iz vhodnih učnih vzorcev izluščiti relevantne informacije za podajanje odgovorov, posnemanje obnašanja ali predvidevanje razvoja procesov realnega sveta. Preprosto povedano, šahovski program, ki se bo učil igrati šah zgolj sam s seboj, gotovo ne bo uspešen v igranju z drugim nasprotnikom.

Torej ona same sebe načeloma nikoli ne bo sposobna popravljati?

Brez označevalcev ne, če pa jo bodo označevalci dovolj dolgo popravljali in jo opozarjali, ko bo prišlo do napake ali halucinacije, bo seveda vedno boljša. Tudi sami se lahko vprašamo, ali smo se sposobni kadarkoli korigirati, ne da bi prejeli zunanji odziv, da počnemo nekaj narobe. Dokler se ne opečemo, verjetno ne vemo, da se ne smemo dotikati vročih predmetov. Lahko nam to sicer povedo izkušnje drugih ali intuicija, ampak tudi ta je generirana na podlagi zunanjih odzivov. Če pa človeka nekdo v njegovem početju nenehno afirmira, bo ta to nadaljeval.

Torej ona ne ve, kaj govori, in vedno nas lahko pelje na napačno pot. Kaj se bo zgodilo, če bodo ljudje začeli slepo verjeti, kar ti jezikovni modeli pravijo, ali se bodo preveč zanašali na rezultate, ki nam jih umetna inteligenca na splošno ponudi?

Mislim, da ne bodo. Realno je to resen problem, ki se ga strokovna skupnost že dobro zaveda. Dejstvo je, da bo na tem področju potrebna regulacija, tako kot na številnih drugih področjih, kjer smo ustrezne regulacije v preteklosti že uvedli. Vzpostaviti je treba sistem nadzora kakovosti. V ta namen bo treba vzpostaviti ustrezne organe, ki bodo zadolženi za preverjanje točnosti in skladnosti modelov z etičnimi in moralnimi normami družbe kot take. Ti bodo nato podeljevali ustrezne certifikate. Ker trenutno tega še ni, vlada na tem področju divji zahod. Prej ali slej bomo tudi za umetno inteligenco sprejeli ustrezne regulative, tako kot v primeru hrane, zdravil in vseh ostalih dobrin, ki jih koristimo, ne da bi se resnično zavedali, da je v ozadju kompleksen sistem zagotavljanja varnosti potrošnikov. Tako kot intuitivno zavržemo izdelek, ki se nam zdi sumljiv, ali na njem preprosto preverimo rok trajanja, bomo lahko sčasoma tudi ob srečanju z umetno inteligenco intuitivno ali formalno preverili, na kaj se lahko zanesemo in na kaj ne.

Če se premaknemo na polje znanstvene fantastike. Kakšno je vaše mnenje o konceptu splošne umetne inteligence, torej umetne inteligence, ki bo imela zmožnost razumevanja in opravljanja umskega opravila, kot ga je sposoben človek. Če sem še bolj drzen, lahko kdaj pridemo do točke, ko se bo zavedala sama sebe?

Kaj sploh pomeni zavedati se samega sebe?

Pošteno, bom vprašal drugače. Lahko umetna inteligenca skrene s poti? Da torej na neki točki več ne zasleduje cilja, ki ji ga je določil programer?

V tem primeru smo znova pri konceptu perpetuum mobile. Od kod bo dobila informacijo, da naj sledi nekemu drugemu cilju?

Tudi človeški možgani so ne nazadnje skupek atomov, nevronov in še česa, če že je res, da so prekleto kompleksni. Mar tega ni mogoče poustvariti umetno na silicijevi bazi? In če je, kaj bi umetni inteligenci preprečevalo, da začne zasledovati neki cilj, ki je v nasprotju s koristjo človeka oziroma bi lahko škodoval človeštvu?

Torej problem, ki ga imava, je ta, da bi se ona na neki točki začela boriti sama zase in za svoj obstoj, ki ji bo vreden več od našega obstoja? Skratka, roboti nas bodo napadli, o tej ideji govorimo? Če ja, potem mora umetni inteligenci še vedno nekdo povedati, da se mora boriti sama zase, to ne more nastati iz nič. Res je, človek ima takšne in drugačne vzgibe, da ravna, kot ravna, ampak imamo za sabo milijone let evolucije. Dobro, teoretično lahko ustvarimo algoritem, stroj, ki je mogoče celo tako sposoben kot človeški možgani. Moje vprašanje je, ali lahko temu stroju damo toliko učnih vzorcev, kot smo jih skozi celotno evolucijo doživeli mi. Če pa nam to uspe in ustvarimo nekaj boljšega od nas, naj zmaga umetna inteligenca. Če se malo pošalim, temu ne nazadnje pravimo evolucija.

Ampak okej, šalo na stran. Ker je pri tem treba biti tudi znanstveno konservativen, gotovo ne moremo trditi, da ni mogoče ustvariti algoritma, ki bi lahko dobil idejo vojne s človeštvom. Vseeno pa obstaja vprašanje, ali mu bomo dali na voljo tudi vsa potrebna orodja, da tako idejo udejanji. Nekdo mu jih mora dati, sicer je to še vedno zgolj algoritem, ki lahko, po domače povedano, laja v luno. Navsezadnje lahko še vedno nekdo izključi elektriko. Tako bi morala imeti ta umetna inteligenca poleg vsega na voljo še varovalni mehanizem, da sama sebe obrani in fizično prepreči, da je nekdo ne ugasne. Vmes je še kar nekaj varnostnih mehanizmov, ki bi jih morala preskočiti. Torej, tudi če bi bilo nekaj takega teoretično mogoče, bi morali biti resnično neumni, da bi tej umetni inteligenci kaj takega omogočili. V znanosti seveda nikoli ne rečeš, da nekaj takega ni mogoče, lahko le rečeš, da je nekaj zelo, zelo malo verjetno. Zato je toliko bolj pomembno, da država ali Evropska komisija to področje regulira ter vzpostavi ustrezne mehanizme nadzora kakovosti.

Trenutno je bolj pomembno, ali tako razmišljajo tudi Američani, ki imajo na tem področju primat. Zakaj so ZDA na področju umetne inteligence toliko pred vsemi?

Ker so v to ogromno investirali. Izključno zaradi tega. Treba je vedeti, da imajo resnično dobro razvit sistem na področju upravljanja tveganega kapitala in tako imenovanih hedge skladov, ki sistematično vlagajo v razvoj novih tehnologij. Pri nas smo glede tega blazno konservativni. Razvojni projekti od nas terjajo ogromno priprav na prijavo, vodenje izvedbe in predvsem upravičevanje porabljenih sredstev, ker ljudem preprosto ne zaupamo in ne verjamemo, da nekdo preprosto želi nekaj narediti. V ZDA pa je razvit trg tveganega kapitala, kjer so investitorji sposobni preprosto investirati in pri tem reči »delajte, verjamem v vas«. Pri tem pogosto niti ni ključen samo investicijski denar. Kar manjka nam, je dostop do strank, ki ga s seboj prinese takšen investitor. Največja vrednost investicije je zelo redko samo denar, pogosto je ta v celotni zgodbi celo zanemarljiv. Večjo vrednost namreč nosita mreža trženja in dostop do strank, ki ju investitor prinese s sabo.

Vlagatelji v ZDA pogosto vlagajo zato, ker vedo, kaj z razvojnim projektom početi tudi po tem, ko je razvoj končan. Takšni investitorji imajo pogosto že sami razdelan nabor strank in do njih vzpostavljene jasne tržne kanale, s katerimi si zagotovijo vrnitev naložbe. Stranke, dostop do njih in razumevanje njihovih potreb so v teh primerih vredni precej več kot sam investicijski kapital. Mogoče smo se sami tega začeli zavedati malce pozno, ampak verjamem, da bomo s pravo mentaliteto kmalu uspeli ta zaostanek nadoknaditi.