Polisi Inggris Mengembangkan Alat ‘Prediksi Pembunuhan’ Ala Minority Report
Dalam perkembangan terbaru yang mengingatkan kita pada film fiksi ilmiah dystopia, Minority Report, pemerintah Inggris dikabarkan sedang mengembangkan sebuah algoritma prediksi yang bertujuan untuk mengidentifikasi individu yang paling mungkin melakukan pembunuhan. Proyek ini, yang memicu kontroversi, menimbulkan pertanyaan serius tentang etika dan potensi bias dalam penggunaan teknologi untuk penegakan hukum.
Detail Proyek Prediksi Pembunuhan
Menurut laporan dari The Guardian, yang memperoleh dokumen melalui permintaan Freedom of Information oleh organisasi transparansi Statewatch, Kementerian Kehakiman Inggris (MoJ) ditugaskan untuk merancang sistem profiling yang dapat menandai orang-orang yang dianggap mampu melakukan tindak kekerasan serius sebelum mereka benar-benar melakukannya. Proyek yang awalnya disebut Homicide Prediction Project, kemudian diubah namanya menjadi “Sharing Data to Improve Risk Assessment” (Berbagi Data untuk Meningkatkan Penilaian Risiko) untuk menghindari kesan yang terlalu dystopian.
Data yang Dikumpulkan
Proyek ini menyerap data dari antara 100.000 dan 500.000 orang, yang diambil dari berbagai sumber termasuk Kementerian Kehakiman (MoJ), Kementerian Dalam Negeri, Kepolisian Greater Manchester (GMP), dan Kepolisian Metropolitan London. Data tersebut dilaporkan tidak terbatas pada mereka yang memiliki catatan kriminal, tetapi juga mencakup data tersangka yang tidak dihukum, korban, saksi, dan orang hilang. Yang lebih mengkhawatirkan, data tersebut juga mencakup rincian tentang kesehatan mental seseorang, kecanduan, tindakan menyakiti diri sendiri, bunuh diri, kerentanan, dan disabilitas—”penanda kesehatan” yang menurut MoJ “diharapkan memiliki kekuatan prediktif yang signifikan.”
Potensi Bias dan Dampak Negatif
Kritikus berpendapat bahwa alat prediksi semacam itu berpotensi menargetkan individu berpenghasilan rendah dan terpinggirkan secara tidak proporsional. Pengalaman dengan alat-alat keadilan prediktif sebelumnya yang diterapkan oleh Kementerian Kehakiman Inggris menunjukkan hasil yang problematik. Contohnya, Sistem Penilaian Pelaku Tindak Pidana (Offender Assessment System) digunakan untuk “memprediksi” kemungkinan seseorang melakukan pelanggaran kembali, dan prediksi tersebut digunakan oleh hakim dalam pengambilan keputusan hukuman. Sebuah tinjauan pemerintah menemukan bahwa tingkat pelanggaran aktual secara signifikan lebih rendah dari tingkat yang diprediksi, terutama untuk pelanggaran non-kekerasan. Lebih lanjut, algoritma tersebut menilai pelaku kulit hitam kurang akurat dibandingkan pelaku kulit putih.
Masalah Bias Algoritma
Masalah bias algoritmik bukan hanya masalah di Inggris. Alat-alat kepolisian prediktif secara teratur salah menilai orang, dengan risiko yang terkait dengan komunitas terpinggirkan menjadi miring—akibat dari bias rasial yang ditemukan dalam data itu sendiri. Bias ini berasal dari penegakan hukum yang berlebihan secara historis di komunitas kulit berwarna dan komunitas berpenghasilan rendah, yang mengarah pada lebih banyak interaksi polisi, tingkat penangkapan yang lebih tinggi, dan hukuman yang lebih ketat. Hasil tersebut dimasukkan ke dalam data, yang kemudian diperburuk oleh pemrosesan algoritmik informasi tersebut dan memperkuat perilaku yang mengarah pada hasil yang tidak merata.
Pentingnya Skeptisisme
Sebagai pengingat, kita seharusnya tidak menerima sifat prediktif dari Precogs dalam Minority Report—kita seharusnya skeptis terhadap mereka. Pengembangan alat prediksi pembunuhan ini menyoroti perlunya pengawasan dan regulasi yang ketat untuk memastikan bahwa teknologi tersebut tidak memperburuk ketidaksetaraan sosial dan melanggar hak-hak individu.
Leave a Reply