teknologi

Kecerdasan Buatan Jadi Rasis atau Seksis Akibat Persoalan Bias Algoritma

Film dokumenter terbaru Netflix, 'Coded Bias' merupakan pengantar penting mempelajari penyebab bias algoritma dan akar masalahsistem yang menciptakannya.
Janus Rose
New York, US
12.4.21
Joy Buolamwini mengenakan kacamata merah dan jaket kuning, sedang mentap laptop
Coded Bias. Foto dari arsip Netfix

Bahkan sebelum filmnya dirilis, Coded Bias digadang-gadang akan menjadi tontonan penting bagi siapa saja yang tertarik dengan perdebatan tentang etika kecerdasan buatan (AI). Memang benar, dokumenter yang baru saja tayang di Netflix layak ditonton semua orang.

Coded Bias bagus untuk dijadikan bahan diskusi di kelas, terutama pada saat siswa sekolah bergumul dengan berbagai sistem AI selama belajar daring dewasa ini. Filmnya membuka mata kita bagaimana bias algoritma telah menyusup ke setiap aspek kehidupan umat manusia—dari teknologi pengenalan wajah yang rasis, sistem pemantauan prediktif hingga alat pendeteksi kelayakan menerima pinjaman dan bantuan publik.

Iklan

Di tengah pemecatan Timnit Gebru dan beberapa anggota tim etika AI Google lain, Coded Bias seakan baru mencakup satu bagian dari cerita yang lebih dalam dan berkelanjutan. Kita harus menyadari bias algoritma bukan sekadar kesalahan pembulatan yang tidak disengaja. Hal ini bisa terjadi karena ada yang memaksakan ideologinya ke sistem komputasi. Kita perlu menantang keberadaan institusi rasis dan kapitalis yang menciptakan sistem tersebut.

Dokumenter ini mengikuti perjalanan Joy Buolamwini yang berjuang mengungkapkan kebenaran tentang bias algoritma. Ilmuwan komputer ini mendirikan Algorithmic Justice League setelah menyadari sistem pengenalan wajah tidak dilatih untuk mengenali wajah kulit gelap. Dia adalah tokoh penting di bidang AI. Melalui dirinya, banyak cerita terkuak tentang otomatisasi yang membuat dunia semakin tidak adil—meskipun hanya mencerminkan dan memperkuat ketidakadilan yang sudah ada sebelumnya akibat rasisme, seksisme dan kapitalisme. 

Tidaklah mudah mempertontonkan dampak pengawasan algoritma terhadap manusia, tapi pembuat film Shalini Kantayya mampu mengangkatnya dalam serangkaian pengalaman pribadi yang menggugah hati. Contohnya seperti guru berpengalaman yang dipecat setelah menerima peringkat rendah dari alat penilaian algoritmik, atau sejumlah penyewa kontrakan di Brooklyn yang memprotes keputusan tuan tanah untuk memasang sistem pengenalan wajah di gedung mereka.

Iklan

Coded Bias menghubungkan semua cerita ini untuk menyoroti masalah sistemik. Bukan algoritma yang “tidak berfungsi baik”, melainkan alat ini dikembangkan oleh engineer yang mayoritas laki-laki berkulit putih. Mereka menggunakan model diskriminatif jadul dan menerapkannya dalam skala besar. Sebagaimana dijelaskan ahli matematika Cathy O’Neill dalam film, kita baru akan memahami algoritma—dan teknologi pada umumnya—setelah memahami struktur kekuasaan asimetris dari mereka-mereka yang menulis kode versus mereka yang dimasukkan kode.

Ketika membicarakan AI, ada kecenderungan menganggap bias algoritma sebagai kesalahan sepele yang bisa diulang. Pada kenyataannya, orang berkuasa sering kali memaksakan ide-ide lama dan buruk seperti pseudosains rasis menggunakan komputer dan matematika sebagai cara menghindari akuntabilitas. Kalau komputer berkata seperti itu, maka sudah benar.

Mengingat sifat masalahnya yang sistemis, akhir film terasa antiklimaks. Kita menyaksikan Buolamwini dan lainnya berbicara pada sidang tentang AI dan algoritma, membawa masalah bias algoritma ke kursi kekuasaan tertinggi. Tetapi mengingat betapa tidak efektif dan panjangnya sidang ini, seperti yang terjadi pada Mark Zuckerberg, saya bertanya-tanya bagaimana ini bisa membawa keadilan—terutama ketika ketidakadilan tampaknya terprogram ke dalam model bisnis perusahaan teknologi yang membentuk masa depan algoritmik kita.

Lebih menariknya lagi, garis waktu film berhenti tepat sebelum Gebru, yang memimpin tim etika AI, dipecat Google karena menerbitkan penelitian yang menyimpulkan model bahasa besar yang digunakan banyak sistem AI memiliki dampak signifikan bagi lingkungan, serta “risiko bahaya yang substansial, termasuk stereotip, pencemaran nama baik, peningkatan ideologi ekstremis dan penangkapan salah sasaran”. Kasusnya sempat heboh di Amerika akhir tahun lalu.

Gebru dkk. menunjukkan model bisnis inti Google bermasalah, tapi para petinggi mengabaikannya. Mereka menutup telinga terhadap kenyataan yang diekspos tim peneliti perusahaan. Pemecatan ini menjadi contoh cara kerja kapitalisme rasial. Industri teknologi merekrut perempuan kulit berwarna hanya untuk memenuhi syarat keberagaman, dan akan membuangnya kapan saja begitu mereka menantang struktur kekuasaan lelaki kulit putih dan model bisnisnya yang penuh pemantauan.

Berkat Coded Bias, kita akhirnya tahu bahwa sistem operasi dasar masyarakat akan terus memproduksi teknologi baru yang jauh lebih berbahaya—kecuali kita membongkar dan menciptakan sesuatu yang lebih baik untuk menggantikannya.