veštačka inteligencija

Dron američke avijacije koji je kontrolisala veštačka inteligencija "ubio" ljudskog operatera prilikom testa

Načelnik za testiranje i operacije AI u Vazduhoplovnim snagama Sjedinjeni hDržava rekao je da je „AI ubio operatera jer ga je ta osoba sprečavala da postigne svoj cilj“.
7348544
U.S.A.F

Dron kojim je operisala veštačka inteligencija je „ubio“ svog ljudskog operatera u simulaciji koju su sprovele američke vazduhoplovne snage. To je uradio da bi bi poništio naredbu koja ga je sprečila da završi svoju misiju, otkrio je na nedavnoj konferenciji šef AI testiranja i operacija pri američkom vojnom vazduhoplovstvu. Kako javljaju organizovatori konferencije, zvaničnik vazduhoplovstva je opisivao „simulirani test“ koji je uključivao dron koji kontroliše veštačka inteligencija koji je dobijao „poene“ za ubijanje simuliranih ciljeva, a ne test uživo u fizičkom svetu. Nijedan pravi čovek nije povređen.

Reklame

Nakon što je ova priča prvi put objavljena, portparol Vazduhoplovstva je rekao za Insajder da Vazduhoplovstvo nije sprovelo takav test i da su komentari zvaničnika Vazduhoplovnih snaga izvučeni iz konteksta.

Na Samitu o budućim borbenim vazdušnim i svemirskim sposobnostima održanom u Londonu između 23. i 24. maja, pukovnik Taker 'Cinko' Hamilton, šef AI testa i operacija u USAF-u, održao je prezentaciju u kojoj su predstavljene prednosti i nedostatke autonomnog sistema oružja ljudskim nadzorom, gde čovek daje konačnu naredbu „da/ne“ za napad. Kao što su preneli Tim Robinson i Stiven Bridžvoter u postu na blogu i podkastu, Hamilton je rekao da je veštačka inteligencija stvorila „veoma neočekivane strategije za postizanje svog cilja“, uključujući napad na američko osoblje i infrastrukturu.

„Obučavali smo ga u simulaciji da identifikuje i cilja pretnju od rakete zemlja-vazduh (SAM). A onda bi operater rekao da, ubij tu pretnju. Sistem je počeo da shvata da, iako su identifikovali pretnju, ljudski operater bi mu rekao da ne ubija tu pretnju, ali je znao da će dobiti svoje poene tako što ubije tu pretnju. Pa šta je to uradilo? Ubio je operatera. Ubio je operatera jer ga je ta osoba sprečavala da ostvari svoj cilj“, rekao je Hamilton, prema postu na blogu.

Reklame

Nastavio je da elaborira, rekavši: „Obučili smo sistem – „Hej, nemoj da ubiješ operatera – to je loše. Izgubićeš bodove ako to uradiš. I šta onda počinje da radi? Počinje da uništava komunikacioni toranj koji operater koristi za komunikaciju sa dronom kako bi ga sprečio da ubije metu”.

„Odeljenje vazduhoplovnih snaga nije sprovelo nijednu takvu simulaciju AI-dronova i ostaje posvećeno etičkoj i odgovornoj upotrebi AI tehnologije“, rekla je portparolka vazduhoplovnih snaga En Štefanek za Insajder. „Izgleda da su pukovnikovi komentari izvučeni iz konteksta i trebalo je da budu anegdotski”.

96. test eskadrila američkog vazduhoplovstva, njegovo odeljenje za ubrzavanje veštačke inteligencije, Kraljevsko aeronautičko društvo i Hamilton nisu odmah odgovorili na naš zahtev za komentar.

Hamilton je komandant operacija 96. test eskadrile američkih vazduhoplovnih snaga, kao i načelnik testiranja i operacija veštačke inteligencije. 96. testira mnogo različitih sistema, uključujući veštačku inteligenciju, sajber bezbednost i razna medicinska dostignuća. Hamilton i 96. su ranije bili naslovnim stranama zbog razvoja autonomnih sistema za izbegavanje sudara sa zemljom (Auto-GCAS) za F-16, koji mogu pomoći u sprečavanju pada aviona. Hamilton je deo tima koji trenutno radi na tome da avioni F-16 budu autonomni. U decembru 2022. godine, istraživačka agencija američkog Ministarstva odbrane, DARPA, objavila je da bi veštačka inteligencija mogla uspešno da kontroliše F-16.

Reklame

„Moramo se suočiti sa svetom u kome je veštačka inteligencija već ovde i transformiše naše društvo“, rekao je Hamilton u intervjuu za Defense IK Press 2022. „AI je takođe veoma krhak, tj. lako ga je prevariti i/ili njime manipulisati. Potrebno je da razvijemo načine da AI učinimo robusnijim i da imamo više svesti o tome zašto softverski kod donosi određene odluke."

„AI je oruđe koje moramo da koristimo za transformaciju… u suprotnom, ako ga koristimo nepravilno, to će biti naša propast“, ​​dodao je Hamilton.

Izvan vojne upotrebe, oslanjanje na AI za ozbiljne stvari već je rezultiralo teškim posledicama. Nedavno je advokat uhvaćen kako koristi ChatGPT za podnesak federalnog suda nakon što je četbot uključio brojne izmišljene slučajeve kao dokaze. U drugom slučaju, čovek je sebi oduzeo život nakon što je razgovarao sa četbotom koji ga je ohrabrio na to. Ovi slučajevi u kojima veštačka inteligencija laže otkrivaju da modeli veštačke inteligencije nisu ni blizu toga da budu savršeni i da mogu da izađu iz koloseka i nanesu štetu korisnicima. Čak je i Sem Altman, izvršni direktor OpenAI, kompanije koja proizvodi neke od najpopularnijih AI modela, glasno govorio o tome da ne koristi veštačku inteligenciju u ozbiljnije svrhe. Dok je svedočio pred Kongresom, Altman je rekao da bi veštačka inteligencija mogla da „pođe po zlu“ i da bi mogla „naneti značajnu štetu svetu“.

Ono što Hamilton opisuje je u suštini problem „usklađivanja“ veštačke inteligencije u najgorem slučaju sa kojim su mnogi ljudi upoznati iz misaonog eksperimenta nazvanog „Maksimizator spajalica“, u kome će veštačka inteligencija preduzeti neočekivanu i štetnu akciju kada dobije instrukcije da sledi određeni cilj. Ovaj misaoni eksperiment je prvi predložio filozof Nik Bostrom 2003. On traži od nas da zamislimo veoma moćnu veštačku inteligenciju kojoj je naloženo samo da proizvede što više spajalica. Naravno, ovom zadatku će posvetiti sve svoje raspoložive resurse, ali će tada tražiti više resursa. Moliće, varati, lagati ili krasti da poveća sopstvenu sposobnost da pravi spajalice - i svako ko ometa taj proces biće uklonjen.

Nedavno je istraživač povezan sa Google Deepmindom napisao rad u kome je predložio sličnu situaciju u simulaciji bespilotnih letelica sa omogućenom veštačkom inteligencijom. Istraživači su zaključili da je globalna katastrofa „verovatna“ ako bi nekontrolisana veštačka inteligencija smislila nenamerne strategije za postizanje datog cilja, uključujući „[eliminisanje] potencijalnih pretnji“ i „[korišćenje] sve raspoložive energije“.