Apple Hadirkan Fitur Khusus yang Bisa Deteksi Konten Pelecehan Terhadap Anak

Ilustrasi

Apple membuat fitur khusus untuk mendeteksi konten pelecehan anak dengan memindai foto yang ada di iCloud. Nantinya konten pelecehan yang ditemukan akan dilaporkan ke penegak hukum.

Sistem ini akan mendeteksi materi pelecehan seksual anak (CSAM) menggunakan proses bernama hashing, dimana gambar akan diubah menjadi nomor unik yang mewakili gambar tersebut.

Diungkapkan dalam halaman keamanan anak di website resminya, Apple telah bekerja sama dengan pakar keselamatan anak, memperkenalkan fitur keselamatan anak dalam tiga area.

Pertama pada area keamanan komunikasi pesan. Dimana aplikasi pesan nantinya akan menambahkan fitur alat baru untuk memberi peringatan ke anak-anak dan orang tua mereka saat menerima atau mengirim foto seksual vulgar lewat perangkatnya.

Area kedua deteksi CSAM atau Materi Pelecehan Seksual Anak. Lewat teknologi terbarunya di iOS dan iPadOS nanti. Apple bisa mendeteksi gambar CSAM yang diketahui disimpan dalam iCloud penggunanya.

Setelah itu, Apple juga bisa melaporkan temuannya itu ke National Center for Missing and Exploited Children (NCMEC), yang bekerja sama dengan lembaga penegak hukum di seluruh Amerika Serikat.

Fitur ini bekerja dengan mencocokkan hash gambar dengan database hash yang disediakan oleh NCMEC. Proses pencocokkan ini akan dilakukan di iPhone pengguna, bukan di cloud.

“Metode Apple untuk mendeteksi CSAM (Materi Pelecehan Seksual Anak) yang diketahui dirancang dengan mempertimbangkan privasi pengguna,” klaim perusahaan..

Jika Apple mendeteksi beberapa foto yang melanggar aturan di akun iCloud, sistem akan mengunggah file yang memungkinkan Apple untuk mendekripsi dan melihat foto di akun tersebut. Foto itu kemudian ditinjau secara manual oleh seorang reviewer untuk mengonfirmasi apakah ada kecocokan atau tidak.

Area ketiga, Apple juga memperluas panduan di Siri dan Pencarian, dengan menyediakan sumber daya tambahan untuk membantu anak-anak dan orang tua agar tetap aman saat mereka online. Sekaligus juga mendapatkan bantuan dengan situasi yang tidak aman.

Misalnya, pengguna yang bertanya kepada Siri bagaimana mereka dapat melaporkan CSAM atau eksploitasi anak akan diarahkan langsung ke pihak terkait dengan cepat.

Begitupun saat pengguna melakukan pencarian untuk kueri yang terkait dengan CSAM. Intervensi akan dilakukan Apple, dengan menjelaskan kepada pengguna tersebut bahwa minat pada topik ini berbahaya dan bermasalah.

"Kami ingin membantu melindungi anak-anak dari predator yang menggunakan alat komunikasi untuk merekrut dan mengeksploitasi mereka, dan membatasi penyebaran Materi Pelecehan Seksual Anak (Child Sexual Abuse Material/CSAM)," tulis Apple dalam keterangan di halaman keamanan anak website resminya.

Namun, ada kekhawatiran muncul bahwa teknologi tersebut dapat disalahgunakan, termasuk oleh pemerintah yang ingin mengawasi warganya.

Dikutip dari Guardian, Matthew Green, seorang peneliti kriptografi di Universitas Johns Hopkins, memperingatkan bahwa sistem tersebut juga berpotensi digunakan untuk menjebak orang-orang yang tidak bersalah.

Terkait kekhawatiran beberapa pihak itu, Apple sendiri menyangkal kemungkinan tersebut. Dikatakan bahwa mereka telah hati-hati mempertimbangkan inovasi yang dikeluarkannya, agar tetap mampu memberi perlindungan, tapi tidak mengganggu privasi penggunanya.

Untuk memberikan lapisan keamanan tambahan, Apple memanfaatkan teknologi threshold secret sharing. Teknologi ini tidak akan mengizinkan siapapun dapat melihat isi dari enkripsi, kecuali seseorang melewati ambang batas yang tidak ditentukan dari konten CSAM.

Apple menjelaskan, fitur ini tersedia di akun iCloud keluarga. Oleh karena itu, terdapat fitur lain yang memungkinkan sistem untuk mendeteksi ketika seseorang mengunggah konten ke iCloud yang menunjukkan anak-anak terlibat dalam tindakan seksual eksplisit.

Apple mulai menguji coba sistem tersebut pada pekan ini, tapi baru terbatas di Amerika Serikat. Nantinya sistem ini akan menjadi bagian dari iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey.

Editor: -
TAG :
Baca Juga
LIPUTAN KHUSUS