FYI.

This story is over 5 years old.

Matična ploča

​Kad veštačka inteligencija bude zabrljala, nećemo znati zašto

Ako nas jednog dana nevidljivi algoritmi nehotice odvedu u kataklizmu, uzalud ćemo tražiti da nam objasne šta im bi.

Softver iz potaje već upravlja našim životima, bira informacije koje ćemo konzumirati i ljude koje ćemo upoznati. Za neke od nas, tajni algoritmi takođe odlučuju da li postoji značajan rizik da će jednog dana počiniti krivično delo. Prirodno je zapitati se kako tim crnim kutijama sve ovo polazi sa rukom, kad već do te mere utiče na nas.

Veštačka inteligencija (AI) konstantno napreduje. Gugl, na primer, je počeo da koristi metodu poznatu kao „dubinsko učenje" da bi omogućio svojoj AI da razbije ljudskog protivnika u igri go, neverovatno kompleksnoj i više hiljada godina staroj. Naučnici smatraju da bi dubinskim učenjem mogli da se razviju efikasniji lekovi zahvaljujući enormnoj količini brzo obrađenih podataka. Epl već koristi istu metodu da bi Siri učinio pametnijom .

Reklame

Futuristi veruju da će kompjuterski programi jednog dana odlučivati o svemu, od pogodnosti za osiguravajuću polisu do kaznene mere za najteže zločine . Uskoro bi AI mogle da utiču i na izbor meta na ratištu . U suštini, kompjuterima bismo mogli da dodelimo još značajnije mesto u ulozi osiguravajućeg agenta, sudije, ili dželata.

Ovim brigama se bave zakonodavci u EU čiji će novi propisi od 2018. zabraniti odluke „zasnovane isključivo na automatizovanim procesima" u slučaju da „imaju neželjene legalne posledice" ili slične negativne efekte na ljude kojima se bave. Zakon navodi primer „odbijanja onlajn prijave kredita ili elektronsko regrutovanje zaposlenih".

„Kad mašina postane dovoljno komplikovana, praktično je nemoguće pouzdano objasniti šta ona tačno radi."

U slučaju mašine koja sjebe nečiji život, stručnjaci tvrde da bi ovi novi propisi otvorili zakonsku mogućnost zahteva za obrazloženjem. Iako „pravo na objašnjenje" za odluke koje donose algoritmi nije eksplicitno navedeno u zakonu, neki akademici smatraju da bi takav zahtev mogao da usledi čim ljudi budu počeli da pate zbog odluka kompjutera.

Neformalno predloženo „pravo" na obrazloženje zvuči plemenito, ali bilo bi nemoguće sprovesti ga u delo. Ovo ilustruje paradoks u kom se trenutno nalazimo u vezi sa najmoćnijom AI tehnologijom danas – dubinskim učenjem.

Dok ne pređemo na detalje, najšire govoreći, sistemi dubinskog učenja zasnivaju se na „slojevima" digitalnih neurona koji sprovode svoje proračune na osnovu unetih podataka i rekonfigurišu se u hodu. Praktično sami sebe uče o tome na šta treba obratiti pažnju unutar ogromne količine podataka koji pritiču.

Reklame

Iako se ovi programi sve češće uvode u korišćenje u našem svakodnevnom životu, ni Gugl ni Epl ni bilo ko drugi ne razume tačno zašto i kako algoritmi donose svoje odluke.

Ako nismo sposobni da objasnimo proces dubinskog učenja, onda moramo razmisliti o tome da li i do koje mere kontrolišemo ove algoritme, odnosno koliko im treba verovati. Nijedna zakonska mera, ma koliko dobronamerna, neće otvoriti ove crne kutije.

Guglov AlphaGo igra protiv Lija Sedola u martu of 2016. ; via Flickr/Buster Benson

Jošua Bengio (52) radi na Université de Montréal od 1993. godine. Jedan je od nekolicine anonimnih kanadskih naučnika koji su pretvorili zaboravljeno duboko učenje u omiljeno AI sredstvo u industriji koja rutinski obrće više milijardi dolara. Pozvao sam ga u nadi da će umiriti moj zazor od činjenice koja bi užasnula svakog ko veruje da će nas roboti jednog dana potamaniti : Mi ne razumemo kako dubinsko učenje donosi zaključke.

Razgovor sa Bengiom nije me baš opustio. Naprotiv, rekao je da softver tako dobro radi upravo zato što nismo sposobni da matematički izanaliziramo svaku odluku koju donese.

„Kad mašina postane dovoljno komplikovana, praktično je nemoguće pouzdano objasniti šta ona tačno radi," kaže Bengio. „Uzmimo neku drugu osobu, ili životinju – njihov mozak koristi stotine milijardi neurona dok misli. Čak iako bi mogli da izmerite aktivnost svih tih neurona, nećete moći da iz nje izvučete smislen zaključak."

Matematika u srži duboko-učećih sistema je prilično jednostavna, kaže Bengio, ali problem je u tome što kad se zaleti, brzo postaje previše kompleksna da bismo je pratili. Čak i ako poređamo sve proračune putem kojih AI dolazi do odluke u jednu tabelu, objašnjava Bengio, rezultat će biti niz brojeva koje samo druga mašina može da razume.

Reklame

Vredi istaći da se dubinsko učenje i dalje primenjuje samo na računare, dakle ne bi ga trebalo previše dizati u zvezde. Nekad su mnogi ljudi radili posao „ ljudskih računara" i bili plaćeni za to. Prevod same reči „kompjuter" kao „računar" implicira istorijski kontinuitet koji skreće pažnju na činjenicu da današnje moćne mašine suštinski rade isti posao koji su nekad radili ljudi, samo mnogo brže.

„Iako ne razumemo do detalja kako razmišlja osoba pred nama, ipak joj verujemo."

Uzmimo Turingovu mašinu, teorijski koncept idealnog kompjutera koji je Alan Turing popularizovao tridesetih godina prošlog veka, a koji se i danas koristi u analizi nezgodnijih etičkih problema vezanih za inteligentne mašine. Ali za Turinga, „ako čovek ima papir, olovku, gumicu, i strogu disciplinu, on je i sam univerzalna mašina."

U tom smislu su i moćni dubinsko-učeći kompjuteri i dalje samo „računari", iako su genijalni na svoj način – uneseš podatke, izvučeš podatke. Matematiku i apstraktne koncepte koji formiraju teorijsku osnovu njihovog funkcionisanja razumemo, ali tu postoji neka interna logika koja je ipak nadmašila našu sposobnost poimanja.

Bengio tvrdi da nije ništa teže, ni opasnije, verovati kompjuteru nego što je verovati drugom čoveku. „Iako ne razumemo do detalja kako razmišlja osoba pred nama, ipak joj verujemo. Isto važi i za kompleksne ljudske organizacije jer niko ne nadzire proces njihove interakcije. Kako verujemo u funkcionisanje društvenog sistema? Nekad mu i ne verujemo, nekad očekujemo da nas izda."

Reklame

Ovo je suština ideje kojom se bave mere vezane za AI u predlogu novog evropskog zakona. Ako zabranimo automatizovanim sistemima da donose odluke koje mogu negativno da utiču na neku osobu, zašto tolerišemo da takve odluke donose sistemi u čije je funkcionisanje umešano ljudsko biće?

Čak i uz tu ogradu, lako je zamisliti situacije u kojima bi „pravo na obrazloženje" ipak bilo poželjno. Na primer, recimo da se samonavođeni automobil slupa . Obrada podataka je bila potpuno automatizovana, i donela je odluku koja je negativno uticala na bar jednu osobu, odnosno putnika. Možda je automobil neobjašnjivo odlučio da skrene levo a ne desno. Moglo bi se ovo nazvati sistemskom greškom, ali moglo bi se nazvati i pogrešnom odlukom.

Da bismo saznali kako je doneta odluka i zadovoljili „pravo na obrazloženje", recimo da rastavimo mozak cele mašine i izvučemo brojeve koji predstavljaju… Pa, samo brojeve. Rezultat milijardu autonomnih proračuna, a ne jasno objašnjenje uzroka tragedije.

Ovaj i mnogi drugi hipotetički primeri veštačkih inteligencija koje pogrešno rezonuju ne nudi nam adekvatno objašnjenje njihovih postupaka, imali mi pravo da ga zahtevamo ili ne. Isti princip važi u slučaju sudara autonomno vođenog vozila kao i u slučaju autonomno odbijene prijave za isplatu osiguranja.

Ljudi-računari 1949. godine; via Wikimedia

Sistemi dubinskog učenja, odnosno neuralne mreže, su „slojevi" čvorišta na kojima se odvijaju polu-nasumične obrade unetih podataka – na primer milioni fotografija mačaka. Sva ova čvorišta se međusobno uporede i reorganizuju da bi zajedno izbacila obrađene podatke – na primer, osnovne vizualne karakteristike prosečne mačke . Ovaj proces predstavlja trening sistema. Gugl ga je izveo 2012. povezivanjem 16,000 kompjuterskih procesora, gde je svaki od njih bio zaseban „neuron" unutar mreže.

Reklame

Ovi sistemi vrše predviđanja na osnovu „poznatih" podataka. Ako utreniranoj neuralnoj mreži iz gornjeg primera pokažemo sliku mačke koju nikad ranije nije videla, sa izvesnim stepenom sigurnosti zaključiće da je i na toj slici zapravo mačka. Naučnici mogu da prilagode sisteme dubinskog učenja za različite svrhe, odnosno da ih treniraju koristeći različite vrste podataka – literaturu ili govor umesto slika, npr.

Posle desetak takvih slojeva i više milijardi ostvarenih veza, putanja kojom mreža dolazi do zaključka postaje previše kompleksna da bi se pratila unatrag. Sistem nije postao čaroban, i dalje funkcioniše po matematičkim principima, samo je previše složen za nas. Rodilo se dete, valja ga ljuljati.

„Recimo da ste ekonomista, i sad vam ja kažem do detalja koje su navike milijardu kupaca," objašnjava Džef Klun , informatičar Univerziteta Vajoming koji se bavi sistemima dubinskog učenja. „Ne biste znali šta da izvučete iz svih tih podataka."

Potrebno je godinama analizirati neuralne mreže sa čak i vrlo malim brojem veza, kaže Klun, pre nego što se shvati način na koji one funkcionišu.

"Ne znam kako će cela simfonija zvučati, kakvu će muziku zajedno stvoriti."

„Ja mogu da sagledam kod koji čini pojedinačni neuron u mreži, ali ipak ne znam kako će cela simfonija zvučati, kakvu će muziku zajedno stvoriti," nastavlja Klun. „Mislim da ćemo ubuduće morati da verujemo sistemima mašinskog učenja koji se dobro pokažu u praksi, a ne zbog teorijskog ili makar delimičnog razumevanja njihovog funkcionisanja."

Reklame

Sve ovo, naravno, ipak ne znači da naučnici ne ulažu napore da shvate kako neuralne mreže funkcionišu. Klun, na primer, radi na vizualnim alatkama koji prikazuju šta svaki neuron u svakom sloju mreže „vidi" pri unosu podataka. On i njegove kolege sastavljaju algoritam koji generiše slike osmišljene tako da maksimalno aktiviraju pojedine neurone i tako ustanove šta tačno oni „traže" u širem unosu podataka.

Gugl je upravo na ovaj način, unatraške, pokušao da shvati šta tačno rade njihove neuralne mreže kada su sagradili Deep Dream, program koji generiše neobične slike na osnovu višeslojnih tumačenja sveta koji ga okružuje. „Jedan od izazova kod neuralnih mreža je shvatanje dešavanja na svakom pojedinom sloju," objašnjava se na blogu posvećenom ovom projektu.

Krajnji cilj nije poimanje misterioznog uma superinteligentnog entiteta, već obuka koja bi ovim programima pomogla da bolje funkcionišu na bazičnom nivou. Deep Dream je, na primer, pokazao da kompjuteri svet oko sebe vide na vrlo smušen i naravno neprecizan način.

I pored svega, dubinsko učenje je po svemu sudeći najefikasniji metod mašinskog učenja do danas razvijen, što cela tehnološka industrija priznaje. Zato se i ovako neshvaćeni sistemi već guraju u upotrebu, a razumevanje može da sačeka.

Selmer Bringsjord , predsedavajući Odseka kognitivnih nauka instituta Renseler, dao nam je jednostavno tumačenje svega ovoga:

„Crno nam se piše u budućnosti prepunoj crnih kutija."

Reklame

Teško je ubediti sebe i druge da crnim kutijama treba verovati kad ovi algoritmi već rasno profilišu ljude u svojim procenama verovatnoća ponavljanja krivičnih dela. Slično, nedavno je veliki i izuzetno popularni mašinski sistem počeo da koristi rasističke i seksističke termine pri prvom dodiru sa javnošću.

Kako da sprečimo pojavu ubilački ili rasistički nastrojenih robota? Za početak, kao što sugeriše EU zakon o algoritamskoj diskriminaciji, mogli bismo da pokušamo da zadržimo donošenje odluka u domenu ljudskih bića. Naravno, ništa ne garantuje ni da ljudi neće iskazati svoje predrasude, a u nekim slučajevima – kao što su samonavođena kola – ljudska kontrola bila bi nemoguća ili kontraproduktivna.

Bengio smatra da se mora selektivno prići unosu podataka u ove sisteme. Na primer, može se obezbediti da neuralnim mrežama ne bude dostupan Mein Kampf. Možda je bolje da čitaju „Darežljivo drvo" ili nešto od V. E. B. Diboa.

„Ako se ustanove uzroci problema, ako znamo da je nepoželjno da se mašina oslanja na određenu vrstu informacija, moguće je istrenirati je da takve informacije ubuduće ignoriše," kaže Bengio.

Drugim rečima, nema smisla zabraniti tehnologiju dubinskog učenja i razvijene oblike veštačke inteligencije, ali treba usmeriti njihov razvoj u pravcu korisnom za ljude. Za tako nešto neophodna bi bila politička volja jača od želja korporacija da jure za profitom, dodaje Bengio.

Koristili mi ove sisteme za računovodstvo ili za ubijanje, postavili im ograničenja ili ne, ipak ih nećemo razumeti. Ako budućnošću budu upravljali procesi dubinskog učenja, bilo kakvo „pravo na obrazloženje" odluke koju veštačka inteligencija donese biće praktično neostvarivo.

Ostaje pitanje kuda dalje, jer danas industrija sve više upotrebljava tehnologiju koju ne razumemo, prosto zato što postiže rezultate.

Možemo ili da se naviknemo da ovim sistemima verujemo, kako Bengio kaže, koliko smo spremni da verujemo i bilo kom ljudskom biću, ili možemo da pokušamo da ih dovedemo pod kontrolu. Jer ako nas jednog dana nevidljivi algoritmi nehotice odvedu u kataklizmu, uzalud ćemo tražiti da nam objasne šta im bi.

Pratite VICE na Facebooku, Twitteru i Instagramu