Kabar Teknologi – Para Ahli Peringatkan Penyalahgunaan AI

Drones berubah menjadi rudal, video palsu yang memanipulasi opini publik dan hacking otomatis hanya tiga dari ancaman dari kecerdasan buatan di tangan yang salah, kata para ahli. Laporan dari The Malicious Use of Artificial Intelligence memperingatkan bahwa AI yang matang bisa dieksploitasi oleh negara-negara nakal, penjahat dan teroris.

Mereka yang merancang sistem AI perlu berbuat lebih banyak untuk mengurangi kemungkinan penyalahgunaan teknologi mereka, kata para penulis. Dan pemerintah harus mempertimbangkan undang-undang baru.

Laporan tersebut meminta:

  • Pembuat kebijakan dan peneliti teknis bekerja sama untuk memahami dan mempersiapkan penggunaan AI yang jahat.
  • Sebuah kesadaran bahwa, walaupun AI memiliki banyak aplikasi positif, ini adalah teknologi penggunaan ganda dan peneliti dan insinyur AI harus memperhatikan dan proaktif tentang potensi penyalahgunaannya.
  • Praktik terbaik yang dapat dan harus dipelajari dari disiplin ilmu dengan sejarah penanganan risiko penggunaan yang lebih lama, seperti keamanan komputer.
  • Ekspansi aktif dari jangkauan pemangku kepentingan yang terlibat dengan, mencegah dan mengurangi risiko penggunaan AI yang berbahaya

Berbicara kepada BBC, Shahar Avin, dari Pusat Studi Kajian Risiko Eksternal Universitas Cambridge, menjelaskan bahwa laporan tersebut berkonsentrasi pada area AI yang tersedia sekarang atau mungkin tersedia dalam lima tahun, daripada melihat ke masa depan yang jauh.

Yang terutama mengkhawatirkan adalah area baru pembelajaran penguatan di mana orang-orang AI dilatih untuk menilai kecerdasan super manusia tanpa contoh atau tuntunan manusia.

Dia menjelaskan beberapa skenario di mana AI bisa berubah “nakal” dalam waktu dekat:

  • Teknologi seperti AlphaGo – AI dikembangkan oleh Google DeepMind dan mampu mengecoh pemain Go manusia – bisa digunakan oleh hacker untuk menemukan pola dalam data dan eksploitasi baru dalam kode.
  • Individu jahat bisa membeli pesawat tak berawak dan melatihnya dengan perangkat lunak pengenal wajah untuk menargetkan seseorang tertentu.
  • Bot bisa menjadi video otomatis atau “palsu” untuk manipulasi politik.
  • Hacker bisa menggunakan sintesis ucapan untuk meniru target.

Miles Brundage, rekan peneliti Institut Hak Asasi Manusia Oxford University, mengatakan: “AI akan mengubah lanskap risiko bagi warga negara, organisasi dan negara – apakah itu mesin pelatihan penjahat untuk hack atau ‘phish’ pada tingkat kinerja atau privasi manusia-menghilangkan pengawasan, pembuatan profil dan represi – serangkaian dampak keamanan sangat luas.

Leave a Reply

Your email address will not be published. Required fields are marked *