Zanimivosti

Bomo »stroje« priučili lastnih slabosti?

Marjan Kodelja
30. 7. 2016, 19.20
Posodobljeno: 9. 8. 2017, 10.00
Deli članek:

Louis Del Monte, fizik, poslovnež in avtor knjige Revolucija umetne inteligence, je pred časom povedal nekaj krepkih na račun umetne inteligence.

Umetna inteligenca je nerazdružljivo povezano z roboti, ti brez nje ne morejo biti pameti, lahko pa obstaja le znotraj računalnika, kot inteligentni programček (bot).

»Ne obstaja zakon, ki bi omejil inteligenco strojev in njihovo medsebojno povezavo. Če bo razvoj tehnologij tudi v prihodnje potekal po enaki eksponentni krivulji, bi tehnološka singularnost lahko nastopila v naslednjih treh desetletjih. Od tistega dne dalje glavna vrsta na planetu ne bomo več ljudje.«

Stroji bodo pametnejši od ljudi

Predstavil je teorijo o trenutku časa, ko bo inteligenca strojev presegla inteligenco vseh ljudi skupaj. To naj bi se po njegovem zgodilo čez trideset let. Vendar nas ne straši in ne napoveduje scenarija filmske uspešnice Terminator. Vsaj neposredno ne. Po njegovem naj bi stroji poskusili ljudi spremeniti v kiborge (pol ljudje, pol stroji), zaradi česar bomo skoraj nesmrtni. Vprašanje pa je, ali nas bodo prepoznali kot nepredvidljivo in nevarno vrsto oziroma na nas gledali, kot mi gledamo na mrčes. V svoji knjigi namreč opozarja, da postaja tehnologija umetne inteligence vse bolj razvita, sprejemamo pa jo prelahko, le kot še en tehnološki pripomoček.

Arhiv Svet24
Računalniki po definiciji niso ne dobri ne zli, umetna inteligenca pa bo zato natanko takšna, kakršno si bomo zaslužili. Zlovešče, mar ne?

Sovraštvo je priučeno

Nihče se ne rodi kot seksist ali rasist, sovraštvo do drugačnih je priučena zadeva. Z umetno inteligenco je podobno. Rodi se prazna, kot ogromna posoda, v katero je znanje šele treba »natočiti«. A kot kaže, jo lahko naučimo marsičesa, tudi najslabših človekovih lastnosti.

Američani imajo algoritem, ki na podlagi statistike odloča, kakšna je verjetnost, da bo kaznjenec po izpustitvi iz zapora ponovil kaznivo dejanje. Skoraj vedno je verjetnost večja pri črnih kot pri belih obsojencih. Pravijo sicer, da so rezultati v skladu s statistiko, vseeno pa dišijo po človekovi lastnosti pristranskosti in družbenih stereotipih. Nekaj podobnega se je dogodilo Microsoftu. Izdelali so Tay bot, program, ki se je na twitterju predstavljal kot dekle. Tviteraši so jo zasuli z negativnimi čivki ter jo spremenili v rasistko in ljubiteljico nacistov.

Česa se bo »Janezek« naučil

Razlogi se skrivajo v načinih, kako sisteme umetne inteligence učimo. Algoritmi za prepoznavo vzorcev na fotografijah v postopku učenja uporabljajo korpus slik fotografske storitve Flickr. Namen je, da bi algoritem znal sam opisati, kaj je na fotografiji, ne da bi mu pri tem pomagal človek. Učne fotografije so zato opremljene z razlago, ki so jo napisali ljudje. V teh pa se skriva veliko temačnosti in stereotipov. Tako je fotografija, na kateri sta ženska in moški, na primer označena kot »zaposlena se pogovarja s šefom«, pri čemer je ona zaposlena, on pa šef. Beli dojenčki so večinoma označeni z »otročički«, temnopolti pa imajo tudi opis barve kože. Osebe z azijskimi potezami pa so največkrat Japonci ali Kitajci. Takšnih stereotipov je še veliko in nemogoče je pričakovati, da bo umetna inteligenca primerno naučena, če se bo učila na podatkih, v katerih kar mrgoli neprimernih človeških pogledov na svet.