Pentingnya Fitur Trust and Safety dalam Moderasi Konten Media Sosial di Indonesia

219
Ilustrasi: Net

Kerusuhan yang terjadi di Jakarta pada tanggal 22 Mei 2019 membawa kenangan buruk bagi masyarakat Indonesia. Terakhir kali terjadi kerusuhan politik berskala besar yang memakan korban jiwa di Jakarta adalah Mei 1998 menuntut mundurnya mantan Presiden Soeharto. Dalam kerusuhan yang terjadi beberapa minggu lalu tersebut, massa yang tidak dikenal bentrok dengan aparat keamanan. Bentrokan ini telah memakan korban 8 orang meninggal dunia dan hampir 700 orang terluka.

Namun kali ini, dalam beberapa hal, pemerintah lebih siap menangani potensi kerusuhan. Sejak siang hari akses masyarakat ke layanan perpesanan dan media sosial dibatasi. Tujuannya menjaga keamanan nasional dengan menangkal penyebaran kabar bohong atau palsu (hoaks) dan konten negatif. WhatsApp, Facebook, dan Instagram termasuk dalam daftar akses internet yang dibatasi tersebut. Menteri Komunikasi dan Informatika, Rudiantara, menjelaskan bahwa fitur yang dinonaktifkan adalah unduh video dan foto. Penyebaran hoaks lewat foto dan video dianggap sangat cepat mempengaruhi emosi seseorang dibandingkan dengan tulisan. Pembatasan akses ini juga dilakukan secara regional. Jakarta menjadi kawasan yang paling terdampak untuk pembatasan WhatsApp.

Menkominfo Rudiantara menjelaskan, “Kita tahu modusnya (provokator) adalah posting di medsos Facebook, Instagram dalam bentuk video, meme dan foto. Kemudian screen capture diambil, viralkan di messaging system WhatsApp.”

Mengambil keputusan untuk membatasi akses internet di era digital adalah keputusan sulit bagi negara manapun. Terlepas dari apakah negara tersebut tergolong otoriter atau demokratis, pembatasan akses internet hampir selalu menjadi kebijakan yang tidak populer. Sebagai salah satu negara pengguna media sosial terbanyak di dunia, perlu disesalkan bahwa sistem moderasi konten berbasis machine learning untuk bahasa Indonesia belum sepenuhnya dikembangkan dengan mendetail oleh platform-platform besar. Apalagi jika mengingat bahwa Indonesia adalah negara peringkat ke-4 dalam jumlah pengguna Facebook dan WhatsApp dan peringkat 3 dalam jumlah pengguna Twitter.

Sayangnya besaran jumlah pengguna belum tentu berkorelasi linier dengan besaran investasi Trust and Safety yang dikerahkan oleh platform-platform besar ini. Bukan juga pertama kali isu kelalaian semacam ini pernah melanda platform seperti Facebook. Ujaran kebencian terhadap muslim Rohingya di Myanmar yang berakhir dengan pembantaian berseliweran di Facebook tanpa bisa terdeteksi oleh algoritma konten moderasi.

Baca Juga:  Setelah Endgame Yang Dilakukan Oleh Avengers Yang Tersisa Ini Patut Kita Jadikan Pelajaran

Tanpa adanya prosedur moderasi konten yang mumpuni berbasis bahasa Indonesia, negara yang rawan konflik seperti Indonesia menjadi “terpaksa” untuk mencoba menghalau ujaran kebencian dan anjuran makar dari segi institusi atau bahkan infrastruktur, seperti yang dilakukan pemerintah bulan Mei kemarin.

Masyarakat Indonesia masih bisa berlega hati. Alih-alih memberlakukan sistem whitelist yang dilakukan pemerintah Cina, pemerintah Indonesia membatasi akses online dengan cara memberikan surat perintah kepada penyelenggara jaringan telekomunikasi. Masalahnya memberlakukan moderasi yang komprehensif di internet adalah hal yang hampir mustahil, apalagi jika hanya menggunakan sistem reaktif seperti yang digunakan pemerintah Indonesia.

Penggunaan Sosial Media bagi Kelompok Radikal di Amerika Serikat

Di Amerika Serikat berbagai bentuk ujaran kebencian semacam ini sudah semakin tersingkir di media online, karena para pemilik platform besar bersepakat bahwa pidato kebencian tidak lagi bisa mendapatkan tempat dalam ranah mereka. Akun-akun Facebook dan Twitter diteliti secara aktif dan berkala. Dan akun-akun yang menunjukkan ujaran kebencian dan anjuran kekerasan akan diberhentikan dan diblokir.

Pada akhirnya kelompok-kelompok radikal di Amerika Serikat memang harus memutar otak agar bisa mengkoordinasikan gerakan mereka. Saat ini mereka terpojok untuk menggunakan channel-channel pinggiran seperti 8chan, Discord, atau bahkan kolom komentar Daily Stormer.

Platform-platform ini akhirnya “dibersihkan” ketika ketahuan menjadi salah satu medium yang menampung jalur koordinasi untuk grup-grup radikal tersebut. Daily Stormer harus kehilangan domain hosting mereka, Discord menutup beberapa server, dan para penggerak radikal ini dipaksa untuk mengungsi ke dark net.

Lantas bagaimana cara memerangi segala konten negatif di media online? Finlandia disebut-sebut sebagai negara yang memenangi perang melawan hoax. Salah satu langkah yang ditempuh pemerintah Finlandia adalah dengan mengikutsertakan pendidikan dalam mengenali hoaks ke dalam kurikulum sekolah. Dalam sebuah artikel yang diterbitkan oleh CNN, ditunjukkan berbagai Skenario pengenalan hoaks di  dalam setting ruang kelas. Para siswa diajarkan untuk berpikir kritis dan selalu mengecek reliabilitas sumber dan data.

Baca Juga:  Minangkabau dan Mozaik Perjalanan Bapak Republik yang Nyaris Dilupakan

Konsep yang diterapkan oleh Finlandia wajib dijalankan untuk solusi jangka panjang Indonesia dalam menangani hoaks. Namun, meletakkan beban perang anti-hoaks itu sepenuhnya di tangan pengguna juga bukan pendekatan yang tepat. Karena platform-platform besar sebenarnya bisa berbuat lebih dalam bisa menyaring informasi yang masuk ke dalam jaringan mereka. Pada akhirnya memang regulasi dan kekuatan pasar yang bisa menekan perilaku industri.

Perlukah pihak ketiga berupa perusahaan yang bergerak di bidang konten moderasi?

Yang diperlukan Indonesia adalah pendekatan dari berbagai sisi. Selain mencanangkan kurikulum penggunaan internet di sekolah, menyediakan kerangka sistem penegakan hukum yang secara lebih adil mengatur pasal penyalahgunaan medium digital, platform yang beroperasi di Indonesia perlu didorong untuk mengadopsi sistem konten moderasi berbahasa Indonesia yang lebih teliti dan mumpuni.

Salah satu proyek yang sedang dikerjakan oleh Sintesa adalah Project Sadra. Project Sadra dikembangkan untuk membangun sistem moderasi konten yang menggabungkan artificial intelligence (AI) yang dipadukan dengan tenaga manusia bagi platform berbahasa Indonesia yang mengandalkan user-generated content.

Model-model konten moderasi yang ada saat ini dapat dikelompokkan dalam tiga kategori:

1. Artisanal (Vimeo)

2. Organisasi industrial (Facebook, Twitter, instagram)

3. Mengandalkan komunitas (Reddit)

Berdasarkan studi yang dilakukan Data and Society di New York, regulasi yang tidak mempertimbangkan perbedaan antara jenis platform dan hanya memukul rata semua teknologi digital cenderung tidak efektif dalam penerapan.

Praktik moderasi konten bukanlah perkara mudah dan tidak bisa sepenuhnya mengandalkan machine learning ataupun sepenuhnya mengandalkan manusia. Beban terbesar adalah meniti garis tipis antara kebebasan berekspresi dan memberikan keamanan bagi masyarakat luas.

Kebanyakan platform asing justru menyatakan bahwa mereka akan menghormati kedaulatan sebuah negara tempat mereka beroperasi dan memprioritaskan nilai tersebut di atas prinsip perusahaan, selama pemerintah mengkomunikasikan permintaan mereka melalui jalur yang tepat. Jalur-jalur inilah yang menjadi kunci untuk proses moderasi konten tersebut.

Baca Juga:  Isu Hutang dan Kampanye Hitam Pilpres 2019

Dalam era konvergensi, konteks akan selalu menjadi problem. Jika platform-platform besar diminta untuk “meresmikan” prosedur konten moderasi terlalu cepat, kita beresiko mengkodifikasi standar konten moderasi yang digunakan untuk melatih ribuan moderator konten, dan pada akhirnya mengotomatisasikan model “sensor” tersebut. Ini akan berdampak besar pada demokrasi dan pola komunikasi online masyarakat secara keseluruhan.

Masyarakat  juga perlu memahami bahwa prosedur moderasi konten platform-platform ini juga tidak harus dipublikasikan secara luas. Alasannya adalah jika oknum-oknum provokator yang memang ingin melakukan pelanggaran akan selalu bisa mengganti strategi jika mereka sudah mengetahui konten apa yang akan disensor oleh platform. Yang diperlukan di Indonesia adalah sebuah alur moderasi konten yang menjembatani kebijakan pemerintah dan platform melalui pihak ketiga.

Beberapa strategi yang akan diterapkan dalam Project Sadra dalam menciptakan sebuah sistem moderasi konten adalah:

1. Grounded theory approach (secara induktif membangun kategori-kategori sensor dan flagging).

2. Membangun alur kerja serta modul training yang mumpuni untuk melatih tenaga moderasi konten manusia. Model ini pun harus menyesuaikan dengan bentuk platform. Contohnya: untuk isu yang penting dan bernuansa lebar, beberapa platform berukuran kecil dan menengah menerapkan mock trial yang terdiri dari sekelompok orang yang akan memperdebatkan keabsahan sebuah konten secara hukum.

Menetapkan metode karantina juga penting dalam situasi seperti kerusuhan Mei kemarin. Beberapa konten yang dianggap “bermasalah” tinggi perlu dikarantina demi mengizinkan aparat untuk menangani isu tersebut. Parameter karantina ini bisa beragam, tergantung dari kompleksitas, nuansa, dan kedaruratan sebuah situasi.

Kerusuhan Mei kemarin menunjukkan dalam ranah digital, sistem keamanan dan penegakan hukum di Indonesia memerlukan bantuan, tidak hanya dari moderator konten manusia, tetapi juga kemampuan machine learning berbasis bahasa Indonesia yang mumpuni.