Facebook

Facebook Mengaku 1 dari 1.000 Konten di Platform Mereka Bermuatan Kebencian

Ini pertama kalinya Facebook mempublikasikan data internal mengukur postingan kebencian. Medsos ini sering jadi alat propaganda menyulut kerusuhan antar etnis/agama berbagai negara.
CEO Facebook Mark Zuckerberg bersaksi di sidang senat secara jarak jauh. (Foto oleh Hannah McKay-Pool/Getty Images)
CEO Facebook Mark Zuckerberg bersaksi di sidang senat secara jarak jauh. (Foto oleh Hannah McKay-Pool/Getty Images)

Kamis pekan lalu, manajemen Facebook untuk pertama kalinya mengungkapkan prevalensi ujaran kebencian di platform mereka. Perusahaan menjelaskan konten kebencian terhadap etnis/agama/orientasi seksual lain menyumbang 0,11 persen dari total konten yang ditayangkan sepanjang Juli-September 2020.

Persentasenya mungkin terlihat kecil, tapi data tersebut menandakan bahwa satu dari setiap 1.000 penayangan merupakan postingan bernada kebencian. Jika Facebook memiliki 2,7 miliar pengguna aktif setiap bulannya, itu berarti ujaran kebencian tersebar luas di platform tersebut.

Iklan

Alih-alih melihat jumlah konten kebencian yang dihapus, Facebook mengatakan prevalensinya “dihitung dengan memilih sampel konten yang terlihat di Facebook, lalu diberi label seberapa banyak pelanggarannya.”

Prevalensi berperan penting dalam mengukur seberapa luas cakupan konten yang melanggar di Facebook. Pada 2016, Facebook membandingkannya dengan “mengukur konsentrasi polutan yang kita hirup.” Guy Rosen, kepala keamanan dan integritas Facebook, memberi tahu lewat telepon bahwa prevalensi adalah “teknik pengukuran paling penting” yang dimiliki Facebook. Tanpa metrik ini, perusahaan takkan bisa memahami apa saja yang terjadi di platformnya.

“[Metrik prevalensi] penting karena hanya segelintir konten yang bisa viral dan menyebar luas dalam kurun waktu singkat, sedangkan konten lainnya mungkin sudah ada sejak lama tapi tidak pernah terlihat orang,” tuturnya.

Berhubung ini pertama kalinya Facebook mempublikasikan prevalensi ujaran kebencian di platform, perusahaan tidak dapat menyebutkan angka 0.11 persen tersebut telah naik atau turun jika dibandingkan dengan periode sebelum Juli.

Walaupun Facebook telah mengambil tindakan atas aspek-aspek tertentu dari ujaran kebencian — seperti memblokir konten penyangkalan Holocaust dan QAnon — raksasa media sosial itu mengalami kesulitan dalam menangani konten bernada kebencian yang menggunakan bahasa selain Inggris.

Laporan Perserikatan Bangsa-Bangsa yang diterbitkan pada 2016 menemukan, Facebook memfasilitasi pembersihan etnis Muslim Rohingya di Myanmar pada 2016. Aktivis Ethiopia melaporkan hal serupa belum lama ini. 

Iklan

Selain itu, Facebook mengungkapkan telah menghapus 22,1 juta konten bernada kebencian selama tiga bulan tersebut hingga akhir September. Sistem kecerdasan buatan milik perusahaan dikatakan dapat mendeteksi 95 persen ujaran kebencian sebelum postingannya dilaporkan oleh pengguna. Jumlahnya naik dari 80 persen tahun lalu.

Meskipun demikian, masih ada setidaknya satu juta ujaran kebencian yang menyebar luas selama periode tiga bulan. Postingannya baru dihapus setelah dilaporkan.

Facebook mempekerjakan 35.000 karyawan kontrak untuk meninjau dan menghapus konten-konten problematik yang tidak dapat dideteksi AI secara otomatis. Perusahaan itu dituntut oleh sejumlah moderatornya di Amerika Serikat dan Eropa karena pekerjaan ini merugikan kesehatan mental mereka. Banyak dari moderator yang menderita PTSD dan gangguan kejiwaan lain akibat tugas mereka yang sangat berat.

Pekan lalu, 200 moderator dan staf Facebook lainnya menulis surat terbuka yang ditujukan kepada Zuckerberg. Dalam surat itu, mereka mengaku dipaksa masuk kantor selama pandemi, padahal karyawan tetap Facebook diizinkan bekerja dari rumah setidaknya sampai Juli 2021.

“Facebook tak akan nyaman digunakan tanpa keberadaan kami,” demikian bunyi surat itu. “Algoritma Facebook tidak dapat memahami satir, menyaring disinformasi, dan menanggapi postingan berisi self-harm dan kekerasan terhadap anak-anak. Hanya kami yang bisa melakukannya.”