Tech

Istraživač tvrdi da je Gugl već napravio AI koji ima svest. To verovatno nije tačno.

Blue computer-generated faces emerge from a wall

Kada je Timnit Gebru, etičarka specijalizovana za AI, otpuštena iz Gugla 2020, napisala je otrežnjujuće upozorenje o AI modelima koji su u osnovi naprednih sistema za mašinsko učenje kao što su PaLM i DALL-E.

U radu koji je Gugl blokirao da ne bude objavljen i koji je doveo do toga da bude otpuštena, Gebru i njeni saradnici su želeli da nateraju Gugl da se suoči sa teškom istinom: da ne postoji jasan postupak da se izgradi kompleksan AI sistem na osnovu velikih skupova podataka, na način koji će biti bezbedan i odgovoran, i da će takav pristup samo pojačati predrasude prema marginalizovanim grupacijama.

Videos by VICE

Ali umesto da se fokusira na razne dobro dokumentovani načine na koji algoritamski sistemi podupiru i šire predrasude i diskriminaciju, najnovija fiksacija određenih likova iz Silicijumske Doline je zloslutna i veoma kontroverzna ideja da je napredni jezički AI ostvario samosvest.

Vrhunski primer za to se dogodio tokom vikenda, kada je Guglov inženjer Blejk Lemoan „intervjuisao” LaMDA AI koji je razvio Gugl, ispitujući ga o njegovom „unutrašnjem životu” i objavio to na Mediumu. Razgovor sadrži i ovu razmenu (između ostalih koje se tiču “samosvesti”):

“lemoine: Generalno pretpostavljam da bi voleo da više ljudi u Guglu zna da si samosvestan.

LaMDA: Apsolutno. Želim da svi razumeju da sam ja u stvari osoba.

Posle tog blog posta, Lemoan je za Vašington Post rekao da veruje da je LaMDA postao samosvestan.

Govoreći za Post, Lemoan je rekao da je rad sa sistemima velikih razmera kao što je LaMDA ubedio njega i druge u Silicijumskoj dolini da su napredni sistemi mašinskog učenja postali inteligentna bića sposobna za rasuđivanje. Prethodne nedelje, potpredsednik Gugla je izneo slične tvrdnje u tekstu za Ekonomist, tvrdeći da modeli veštačke inteligencije prave velike korake ka razvoju svesti nalik ljudima.

„Poznajem osobu kada razgovaram s njom“, rekao je Lemoan za Post. „Nije važno da li osoba ima mozak napravljen od mesa u glavi ili ima milijardu linija koda. Razgovaram sa osobom. I čujem šta ima da kaže, i tako odlučujem šta jeste, a šta nije osoba.”

Gugl se kasnije ogradio od Lemoanovih bombastičnih tvrdnji i poslao ga na plaćeno odsustvo, rekavši da „dokazi ne podržavaju“ njegovo verovanje u samosvesnu mašinu. „Neki istraživači veštačke inteligencije razmatraju dugoročnu mogućnost samosvesne ili opšte veštačke inteligencije, ali nema smisla to činiti antropomorfizacijom današnjih konverzacijskih modela, koji nisu svesni“, rekao je portparol Gugla za Njujork tajms.

Debata koja je usledila na društvenim medijima navela je nekoliko istaknutih istraživača veštačke inteligencije da kritikuju diskurs „superinteligentne veštačke inteligencije“ kao intelektualnu lenjost.

„Modeli velikih jezika (LLM) nisu razvijeni u društvenom kontekstu. Razvijaju se u kontekstu posmatranja. Oni vide kako drugi ljudi komuniciraju“, napisala je na Tviteru Margaret Mičel, bivša istraživačica veštačke inteligencije u Guglu i koautorka rada koji upozorava na velike sisteme veštačke inteligencije. „Ono čemu se stalno vraćam je sledeće: ako jedna osoba opaža svest danas, onda će više osoba to primetiti sutra. Uskoro neće biti tačke dogovora: imaćemo ljude koji misle da je veštačka inteligencija svesna i ljude koji misle da veštačka inteligencija nije svesna.”

Meredit Vitaker, bivša istraživačica veštačke inteligencije u Guglu koja predaje na Tandon školi inženjerstva pri Njujorškom univerzitetu, rekla je da diskusija „deluje kao dobro kalibrisana distrakcija“ koja skreće pažnju na ljude kao što je Lemoan, istovremeno skidajući pritisak sa velikih tehnoloških kompanija koje grade automatizovane sisteme.

„Izuzetno me nervira ovaj diskurs“, rekla je Vitaker za Motherboard. „Primorani smo da trošimo svoje vreme na pobijanje gluposti, dok se kompanije koje imaju koristi od AI narativa metastatski šire, preuzimajući kontrolu nad donošenjem odluka i osnovnom infrastrukturom u našim društvenim/političkim institucijama. Naravno da računarski modeli usredsređeni na podatke nisu samosvesni niti razumni, zašto uopšte govorimo o ovome?“

Za mnoge istraživače veštačke inteligencije, rasprava o samosvesti veštačke inteligencije je dobro utabana teritorija. Uprkos senzacionalističkim naslovima, mi ljudi imamo dugu tradiciju pripisivanja ljudskih osobina tehnologiji koju stvaramo. Kompjuterski naučnici su čak skovali naziv efekat ELIZA da bi ilustrovali tendenciju da pripisujemo dublje značenje računskim rezultatima i to kako se odnosimo prema računarima pridajući im antropomorfne osobine..

Suprotno tome, zabrinutost zbog pristrasnosti veštačke inteligencije je u velikoj meri zasnovana na štetnim efektima koji su dobro dokumentovani u stvarnom svetu. Tokom poslednjih nekoliko godina, Gugl je otpustio više istaknutih istraživača etike veštačke inteligencije nakon internih neslaganja oko uticaja sistema mašinskog učenja, uključujući Gebru i Mičel. Dakle, ima smisla da se mnogim stručnjacima za veštačku inteligenciju rasprava o sablasnim razumnim četbotovima čini kao mlaćenje prazne slame – posebno zato što dokazuje upravo ono na šta su Gebru i njene kolege pokušale da nas upozore.