Apple “jelas tidak melaporkan” pelecehan seksual anak, kata pengawas
Apple “jelas tidak melaporkan” pelecehan seksual anak, kata pengawas

Setelah bertahun-tahun kontroversi mengenai rencana pemindaian iCloud untuk menemukan lebih banyak materi pelecehan seksual anak (CSAM), Apple meninggalkan rencana tersebut tahun lalu. Kini, pakar keselamatan anak menuduh raksasa teknologi itu tidak hanya gagal menandai CSAM yang dipertukarkan dan disimpan di layanannya—termasuk iCloud, iMessage, dan FaceTime—tetapi juga diduga gagal melaporkan semua CSAM yang ditandai.

National Society for the Prevention of Cruelty to Children (NSPCC) di Inggris membagikan data kepolisian Inggris dengan The Guardian menunjukkan bahwa Apple “sangat meremehkan seberapa sering” CSAM ditemukan secara global pada layanannya.

Menurut NSPCC, polisi menyelidiki lebih banyak kasus CSAM di Inggris saja pada tahun 2023 dibandingkan dengan jumlah kasus yang dilaporkan Apple secara global sepanjang tahun. Antara April 2022 dan Maret 2023 di Inggris dan Wales, NSPCC menemukan, “Apple terlibat dalam 337 pelanggaran gambar pelecehan anak yang tercatat.” Namun pada tahun 2023, Apple hanya dilaporkan 267 kasus CSAM ke Pusat Nasional Anak Hilang dan Tereksploitasi (NCMEC), yang seharusnya mewakili semua CSAM di platformnya di seluruh dunia, The Guardian melaporkan.

Perusahaan teknologi besar di AS harus melaporkan CSAM ke NCMEC saat ditemukan, tetapi sementara Apple melaporkan beberapa ratus kasus CSAM setiap tahunnya, perusahaan teknologi besar seperti Meta dan Google melaporkan jutaan kasus, menurut laporan NCMEC. Para ahli mengatakan kepada The Guardian bahwa ada kekhawatiran berkelanjutan bahwa Apple “jelas” meremehkan CSAM pada platformnya.

Richard Collard, kepala kebijakan daring keselamatan anak di NSPCC, mengatakan kepada The Guardian bahwa ia yakin upaya Apple dalam keselamatan anak perlu perbaikan besar.

“Ada perbedaan yang mengkhawatirkan antara jumlah kejahatan gambar pelecehan anak di Inggris yang terjadi pada layanan Apple dan jumlah laporan global yang hampir dapat diabaikan tentang konten pelecehan yang mereka buat kepada pihak berwenang,” kata Collard kepada The Guardian. “Apple jelas tertinggal dari banyak perusahaan sejenisnya dalam menangani pelecehan seksual anak padahal semua perusahaan teknologi seharusnya berinvestasi dalam keselamatan dan mempersiapkan peluncuran Undang-Undang Keamanan Daring di Inggris.”

Di luar Inggris, pakar keselamatan anak lainnya juga menyampaikan kekhawatiran yang sama dengan Collard. Sarah Gardner, CEO organisasi perlindungan anak yang berbasis di Los Angeles bernama Heat Initiative, mengatakan kepada The Guardian bahwa ia menganggap platform Apple sebagai “lubang hitam” yang mengaburkan CSAM. Ia juga memperkirakan bahwa upaya Apple untuk menghadirkan AI ke platformnya akan memperparah masalah tersebut, yang berpotensi mempermudah penyebaran CSAM yang dihasilkan AI di lingkungan tempat predator seksual mungkin mengharapkan penegakan hukum yang lebih sedikit.

“Apple sama sekali tidak mendeteksi CSAM di sebagian besar lingkungannya dalam skala besar,” kata Gardner kepada The Guardian.

Gardner setuju dengan Collard bahwa Apple “jelas tidak melaporkan” dan “tidak berinvestasi dalam tim kepercayaan dan keamanan untuk dapat menangani hal ini” karena Apple terburu-buru menghadirkan fitur AI canggih ke platformnya. Bulan lalu, Apple ChatGPT terintegrasi ke Siri, iOS dan Mac OSmungkin menetapkan ekspektasi untuk fitur AI generatif yang terus ditingkatkan yang akan disebut-sebut dalam perlengkapan Apple masa depan.

“Perusahaan ini bergerak maju ke wilayah yang kami tahu bisa sangat merugikan dan berbahaya bagi anak-anak tanpa rekam jejak kemampuan dalam menanganinya,” kata Gardner kepada The Guardian.

Sejauh ini, Apple belum mengomentari laporan NSPCC. September lalu, Apple menanggapi tuntutan Heat Initiative untuk mendeteksi lebih banyak CSAMmengatakan bahwa alih-alih berfokus pada pemindaian konten ilegal, fokusnya adalah menghubungkan pengguna yang rentan atau menjadi korban secara langsung dengan sumber daya lokal dan penegak hukum yang dapat membantu mereka di komunitas mereka.

Sumber