Kabar Teknologi – Kepolisian Meningkatkan Kekhawatiran Tentang Data AI yang Bias

Polisi mengungkapkan kekhawatiran tentang penggunaan alat kecerdasan buatan “bias”, sebuah laporan yang ditugaskan oleh salah satu badan penasihat pemerintah Inggris mengungkapkan.

Studi ini memperingatkan perangkat lunak tersebut dapat “memperkuat” prasangka, yang berarti beberapa kelompok dapat menjadi lebih mungkin untuk dihentikan di jalan dan digeledah.

Dikatakan petugas juga khawatir mereka bisa menjadi terlalu bergantung pada otomatisasi.

Dan itu mengatakan pedoman yang lebih jelas diperlukan untuk penggunaan pengenalan wajah.

“Polisi khawatir bahwa kurangnya panduan yang jelas dapat menyebabkan ketidakpastian atas penggunaan yang dapat diterima dari teknologi ini,” kata Alexander Babuta dari Institut Royal United Services Institute (Rusi) kepada BBC News.

“Dan mengingat kurangnya kebijakan pemerintah untuk penggunaan analitik data oleh polisi, itu berarti bahwa pasukan kepolisian akan enggan untuk berinovasi.

“Itu berarti setiap potensi manfaat dari teknologi ini dapat hilang karena keengganan risiko polisi dapat menyebabkan mereka tidak mencoba mengembangkan atau mengimplementasikan alat-alat ini karena takut akan akibat hukum.”

Rusi mewawancarai sekitar 50 ahli untuk penelitiannya, termasuk perwira polisi senior di Inggris dan Wales – yang tidak disebutkan namanya – serta pakar hukum, akademisi dan pejabat pemerintah.

Pekerjaan itu ditugaskan oleh Pusat Etika dan Inovasi Data, yang berencana menyusun kode praktik yang mencakup penggunaan analitik data oleh polisi tahun depan.

Salah satu masalah utama yang diungkapkan adalah tentang penggunaan catatan polisi yang ada untuk melatih alat-alat pembelajaran mesin, karena ini mungkin condong oleh prasangka petugas yang menangkap itu sendiri.

“Laki-laki muda berkulit hitam lebih mungkin dihentikan dan digeledah daripada lelaki berkulit putih, dan itu murni karena bias manusia,” kata seorang petugas.

“Bias manusia itu kemudian dimasukkan ke dalam dataset dan bias kemudian dihasilkan dalam hasil penerapan dataset itu.”

Faktor tambahan, kata laporan itu, adalah orang-orang dari latar belakang yang kurang beruntung lebih sering menggunakan layanan publik. Dan ini akan menghasilkan lebih banyak data tentang mereka, yang pada gilirannya dapat membuat mereka lebih cenderung ditandai sebagai risiko.

Masalah bisa memburuk dari waktu ke waktu, kata petugas lain, ketika perangkat lunak digunakan untuk memprediksi hotspot kejahatan di masa depan.

“Kami menimbun banyak sumber daya ke daerah tertentu dan itu menjadi ramalan yang dipenuhi sendiri, semata-mata karena ada lebih banyak pemolisian masuk ke daerah itu, tidak harus karena diskriminasi di pihak petugas,” kata orang yang diwawancarai.

Namun, ada perbedaan pendapat tentang seberapa banyak ruang lingkup yang harus diberikan kepada petugas yang ingin mengabaikan rekomendasi perangkat lunak prediktif.

“Petugas sering tidak setuju dengan algoritma,” kata seorang.

“Aku mengharapkan dan menyambut tantangan itu. Titik di mana kamu tidak mendapatkan tantangan itu, saat itulah orang mengesampingkan penilaian profesional itu.”

Tetapi petugas lain khawatir tentang orang lain yang terlalu bersedia untuk mengabaikan rekomendasi aplikasi, menambahkan: “Penilaian profesional mungkin hanya kata lain untuk bias.”

Leave a Reply

Your email address will not be published. Required fields are marked *