Reklame
politika

Botovi koji menjaju politiku

Rodoslov politibota, rastuće izborne sile koja se ne sme ignorisati.

pisao Renee DiResta
05 Novembar 2017, 7:00am

Fotografija: aboost/Shutterstock


Primedba urednika.: Ovaj esej nastao je u sklopu niza diskusija i radova koje je 2017 organizovao Semjuel Vuli (Digital Lab). Učesnici su bili stručnjaci za botove kao što su Rene Diresta, Džon Litl, Džonaton Morgan, Lisa Marija Nodert, i Ben Nimo. Simpozijum je održan u Jigsaw, Google/Alphabet tehno-inkubatoru, koji je ujedno finansirao Vulija i pokrio troškove prevoza učesnika.

Bot i njihovi srodnici – botnet, bot vojska, sokpapet, lažni nalog, sibil, automatizovani trol, mreža uticaja – su nova dominantna sila u javnim raspravama.

Možda ste već čuli da botovi prete aktivistima, utiču na ishod izbora, čak i razgovaraju sa predsednicima. Botovi su novi hip mediji; Silicijumska dolina nudi nam četbota kao novi tehnološki iskorak posle telefonske aplikacije. Donald Tramp sam kaže da ne bi dobio izbore da mu nije Tvitera, gde istraživanja pokazuju da su botovi u ogromnoj meri pojačali glas njegovih pristalica.

Stručnjaci procenjuju da je skoro 50 miliona naloga na Tviteru automatizovano, odnosno da njima rukovodi bot softver. Fejsbuk pati od socijalnih botova, automatizovanih naloga sposobnih da oponašaju aktivnosti živih korisnika i da prenose određenu vrstu informacija, pa se čitave grupe automatizuju i šire političku propagandu. Nedavno su se u javnosti pojavile informacije o „farmi ruskih trolova" povezanih sa Kremljom, koja je potrošila oko sto hiljada dolara na oglašavanje pred američke izbore 2016 i preko Fejsbuka odnosno Instagrama širila hiljade organskih postova. Ista firma, Internet Research Agency, takođe koristi botove da bi manipulisala javnim mišljenjem izraženim preko društvenih mreža.

Uprkos novom trendu upotrebe reči „bot" u političkoj sferi, posebno tokom poslednjih američkih izbora, sam termin nije ništa jasnije definisan od termina fake news. Danas se botom često naziva svaki korisnik društvenih mreža sa čijim se stavovima ne slažemo.

Šta je to bot i kako radi?

Po jednoj definiciji, botovi su programi koji imitiraju ljudsko ponašanje na razne načine. Čet botovi simuliraju interakciju sa mušterijama ili obavljaju posao asistenta. Politički botovi, pak, programirani su da izražavaju podršku u komentarima na Fejsbuku, da kritikuju novinare serijom tvitova, ili da lajkuju određeni post kako bi mu veštački naduvali popularnost.

Razlika između čoveka i bota je u tome što onaj prvi nađe vremena da se preko interneta oglasi tek par puta dnevno, dok bot ne mora da ide na posao, da čuva decu, ili da spava. Bot je programiran isključivo da postuje što više može, dok ga ne prepoznaju kao bota.
Svakom botu može se zadati određeni identitet; nekad se čak oponaša stil kojim postuju određeni živi ljudi. Neki botovi, osmišljeni tako da se bore za društvenu pravdu, otvoreno se deklarišu kao botovi. Pritajeni politički botovi, sa druge strane, pokušavaju da zavaraju javnost i što uverljivije oponašaju žive ljude sa pravim političkim stavovima. Brižljivo dizajnirani, ovi veštački identiteti obično se obraćaju određenoj publici u sklopu mutnih javnih kampanja.

Setimo se čuvenog slučaja Trampove avgustovske interakcije sa Tviter korisnicom po imenu Nikol Minsi. Tramp se pred svojih 35 miliona sledbenika zahvalio Minsi koja je prethodno tvitovala da on „vredno radi za američki narod". (U vreme tog tvita, Tramp se nalazio na terenu za golf.)

Minsi je naizgled bila konzervativna žena afričko-američkog porekla sa skoro 150,000 sledbenika i simpatijama prema Trampu. Kad se bolje pogledalo, postalo je jasno da se radi o botu, mnogi su pretpostavili političkom. Slika iz profila bila je stok fotografija. Nalog je bio „fiktivni lik iz marketinško-komercijalnog odeljenja određene firme" koja je preko interneta prodavala robu vezanu za Trampa. Nalog je kasnije bio suspendovan.

Da li je ovo bio politički bot? Novinari su otkrili da su sledbenici Nikol Minsi takođe bili isfabrikovani, deo velikog društvenog botneta – grupe botova koji masovno prate jedni druge po Tviteru da bi im nalozi delovali legitimno i izbegli gašenje. Broj tvitova takođe je premašivao kapacitet normalnog, živog korisnika.

Sama Nikol Minsi, ispostavilo se, bila je prava osoba koja je za pomenutu e-komerc firmu obavljala određene zadatke.

Granica između čoveka i bota nekad je tanka. Neki su nalozi potpuno automatizovani, pa spamuju društvene mreže istim porukama u ogromnim količinama. Neki su suptilniji pa postuju jedinstvene, pažljivo osmišljene poruke i čak direktno komuniciraju sa drugima. Ovi suptilniji bot nalozi obično se zovu persone, kiborzi, ili sokpapeti. Iako njima nekad upravlja živa osoba, i dalje se radi o fabrikovanim identitetima.

Neke države uveliko koriste sockpuppet naloge. Na primer, Internet Research Agency iz Sankt Petersburga je plaćala par desetina ljudi 2.3 miliona dolara da bi širili njene poruke po Fejsbuku, Jutubu, i drugim platformama. Tu je i kineska „Partija pedeset centi" koja brojnim veštačkim nalozima hvali državne vlasti ili skreće pažnju od raznih kriza. Dok Rusija automatizovanim programima napada neprijatelje Kremlja, Kina više koristi ljudske operatere lažnih naloga, ali obe operacije se kolokvijalno tretiraju kao botovanje.

Najefikasnije mreže botova koriste kombinaciju potpuno i delimično automatizovanih naloga. Botovi u mreži, to jest u botnetu, koriste komplementarne pristupe da bi ostvarili zajednički cilj:

– Sockpuppet (botovi sa ljudskim operaterima) započinje razgovor, zadaje nove teme, usmerava raspravu u onlajn forumima.

– „Pojačala" (potpuno automatizovani botovi) zatim pojačavaju ovaj signal: šire sadržaj dalje, kače ga po drugim lokacijama, reprodukuju isti stil izražavanja.

– „Odobravači" (takođe automatizovani botovi) pojedine tvitove ili komentare lajkuju, retvituju, odgovaraju na njih, sve u pokušaju da se ideji da privid legitimiteta.

– Ako započne oštra razmena mišljenja, puste se u rad dodatni botovi čiji je zadatak da napadaju određene pojedince ili grupe da bi ih što pre izbacili iz javne rasprave.

Bili automatizovani ili ne, politički botovi su najuspešniji kad mogu da prikažu prepoznatljiv ljudski identitet u paketu sa nadljudskim sposobnostima učestalog postovanja. Moraju da deluju dovoljno uverljivo da bi obmanuli većinu korisnika koji se ne udubljuju previše u identitet svakog sagovornika. Još uvek nije sasvim jasno u kojoj meri svi ovi botovi utiču na razvoj ili nastanak trendova na Tviteru, Fejsbuku, ili Guglu, pa čak ni kad je u pitanju američka politika.

Tramp se pred 35 miliona sledbenika zahvalio Minsi koja je prethodno tvitovala da on „vredno radi za američki narod". (U vreme tog tvita, Tramp se nalazio na terenu za golf.)

Takođe nije jasno u kojoj meri botnet može da utiče na formiranje stavova u javnosti. Kada jedna osoba ili grupa svoj glas proširi na desetine hiljada lažnih identiteta, tako se stvara utisak da mnogo ljudi deli njihovo mišljenje. Baš kao što su televizija i radio nekad bili korišćeni za „proizvodnju saglasja", danas tu ulogu na internetu imaju botovi.

Najuspešnije korišćenje botova u kampanji beleži se kada su stvarni korisnici društvenih mreža postanu dovoljno ubeđeni da i sami počnu da distribuiraju lažne ili zapaljive informacije sa svojim kontaktima. To obično vodi do mejnstrim medija, pa uticaj tako nastavlja da raste čak i ako je namera da se stane u kraj glasinama.

Kris Šafer, Ben Starling, i C. E. Keri ovaj fenomen su uočili posle hakovanja mejlova francuskog predsedničkog kandidata Emanuela Makronapar dana pred izbore. Grupa anonimnih korisnika okupila se na 4chan/pol i osmislila kampanju kojim će se ukradeni podaci iz Makronove kampanje što brže plasirati Tviter mejnstrimu.

Čim su sadržaj okačili na Tviter, počeli su da ga pojačavaju preko popularnih naloga kao što su @DisobedientMedia i @JackPosobiec; 230,000 sledbenika znači da je nalog sasvim dobar „amplifikator signala".

Kako god ih mi zvali, sve ove uloge prepoznatljive su u različitim kampanjama. Neko sastavi poruku i strategiju, a zatim se automatizovani nalozi i lažni identiteti koriste da bi se ta poruka popularizovala. Trending sadržaj privlači pažnju pravih korisnika, pa poruka krene da se dalje širi prirodnim putem kroz mejnstrim i medije. Autori nedavnog istraživanja tvrde da su neki botovi dizajnirani da se obraćaju pojedincima sklonim da prihvate i proslede propagandu, i tako ili šire ili suzbijaju lažne vesti po svom izboru.

Botovi budućnosti

Dok Tviter i Fejsbuk priznaju problem botova i trude se da ih uklone sa svojih platformi, sami botovi postaju sve sofisticiraniji pa ih je sve teže otkriti. Brojne startap kompanije, uz gigante kao što su Amazon i Gugl, rade na „konverzacionim agentima" tj. četbotovima sposobnim da vode uverljiv razgovor sa čovekom. Ovo uglavnom nema veze sa propagandom – namera je da se korisniku obezbedi što je moguće udobnija interakcija sa sajtom firme, bilo da želi da kupi namirnice ili rezerviše avionske karte.

Realnost je, bar u digitalnom svetu, svakog dana sve više relativizovana.

Tehnologija koja mašinama omogućava da komuniciraju ljudskim jezikom čini botove sve uverljivijim. Umesto kratkih, jednostavnih poruka botovi će postati sve sposobniji da vode kompleksne razgovore, da beskrajno debatuju i ubeđuju, da sakupljaju i analiziraju podatke prikupljene tokom razgovora.

Tekstualna komunikacija je ovde samo početak. Na Univerzitetu Vašington nedavno je sastavljen sablasno uverljiv lažni video u kom Barak Obama drži govor – dokaz da je već moguće dizajnirati lažne audiovizualne prikaze dešavanja. Ljudi već teško razlikuju relativno naivne tekstualne botove od pravih korisnika, a sa napretkom mašinskog učenja propagandisti će imati sve veću sposobnost za manipulaciju. Realnost je, bar u digitalnom svetu, svakog dana sve više relativizovana. Nepouzdanost je već sama po sebi pobeda za propagandu, ali društvo može i mora da reši ovaj problem.


Pogledajte VICE Meets Lazar Džamić


Botovi se sve češće koriste da bi se izvršio uticaj na određene grupe, brendove, ili korporacije. Holivudski filmovi (prošlogodišnji Ghostbusters) i glumci (Šija Labef) bili su izloženi vojskama trolova koje su regrutovali Redit ili 4chan. Ubrzo se može očekivati da botnet plasira lažne vesti o nekoj korporaciji – recimo, da je ugrožena bezbednost njihovih korisnika – i zatim tu vest krene da gura koristeći desetine hiljada drugih botova, sve dok je ne preuzmu živi korisnici i mejnstrim mediji, a zatim trijumfuje kupovinom privremeno oborenih akcija. Slični napadi su već viđeni u Poljskoj, gde su botovi korišćeni da bi se širila propaganda u korist farmaceutskih kompanija.

Kako protiv (Ro)bota

Sve je veća potreba za strategijama koje bi mogle da zaustave botovsko širenje uticaja na politiku i kulturu. Organizacije izložene napadu botova mogle bi da odgovore istom merom pa puste sa lanca svoje „kontra-botove" da šire podršku Tviterom i Fejsbukom dok ne povrate ravnotežu. Botovi bi takođe mogli da šire svest o problematičnim društvenim pitanjima ili da povezuju grupe aktivista.

Ovo naravno nosi određene rizike. Botovi koji bi markirali lažne vesti mogli bi se lako zloupotrebiti, što bi vodilo do nove trke u naoružanju na planu javne rasprave. Kontra-botovanjem bi se samo dodatno zatrovala diskusija, ali ta trka je nažalost već počela, a za je naša strana nenaoružana.

Na duže staze gledano, društvene mreže su mehanizam koji botovi koriste, pa bi se od njih moglo i očekivati da ovaj problem reše. Ipak, te kompanije ulažu minimalne napore u rešavanje problema jer su finansijski motivisane da im dozvole rad – botovska aktivnost društvenim mrežama donosi dodatnu zaradu kroz marketing.

Iako je Fejsbuk američkom kongresu dostavio sve što zna o ruskom oglašavanju, ova kompanija nije iznela praktično nikakva saznanja korišćenju automatizovanih naloga da bi se kontrolisale korisničke grupe, onaj deo platforme gde se ostvaruje aktivan kontakt sa nepoznatim korisnicima.

Tviterove PR službe osporavaju rad nezavisnih istraživača na planu botova jer su podaci „obično neprecizni i metodološki sumnjivi". Ipak, svoje timove još nisu uputili na rešavanje kolosalnog bot problema koji im preti.

Gugl se za sada kloni ovih rasprava, iako je profesor Džonatan Olbrajt sa Univerziteta Kolumbija ustanovio da na njihov Jutub „utiče veoma moćan pojačivač signala za određena politička glasila".

U odbranu sve tri platforme, jedan aspekt aktualne situacije je posebno nezgodan: iza delimično automatizovanih naloga stoje pravi, živi ljudi koji tehnički ne krše nikakva pravila svojim anonimnim delovanjem. Evo ipak par predloga koji bi mogli da pomognu u rešavanju problema:

– Jasno istaći koji su nalozi automatizovani. Tehnički je izvodljivo, a donelo bi transparentnost.

– Učiniti dostupnim podatke neophodne za analizu mreža. Ovo bi otkrilo ne samo operatere botovanih naloga, već i dinamiku širenja njihovih poruka.

– Algoritamski koristiti „tihe banove" – bot naloge ne uklanjati već samo sakriti od drugih korisnika da bi im se ograničio uticaj.

Iako su izazovi identifikacije i metodologije brojni, jedno je sigurno. Ako društvene mreže ne budu rešile ovaj problem, videćemo pad kredibiliteta ovog vida komunikacije, kao i dalju degradaciju javnih rasprava. Onlajn forumi postaće sve manje upotrebljivi.

O autorima:

Renee DiResta (@noupside) Haven

John Little (@blogsofwar) osnivač Blogs of War, Institute for the Future

Jonathon Morgan (@jonathanmorgan) osnivač NewKnowledge.io

Lisa Maria Neudert (@lmneudert) istraživačica, "Computational Propaganda Project", Univerzitet Oksford

Ben Nimmo (@benimmo) the Digital Forensic Research Lab, Future Europe Initiative, Atlantic Council

Samuel Woolley (@samuelwoolley) istraživač, DigIntel Lab, Institute for the Future, "Computational Propaganda Project", Univerzitet Oksford

Još na VICE.com

Razgovarala sam sa Zo - novim Majkrosoftim čet botom

Seks botovi ćaskanjem zadovoljavaju naše najluđe fantazije

Zaljubila sam se u Tviter bota