Kemudian neuralMatch akan membandingkan foto tersebut dengan yang ada di database yang berisi kumpulan gambar kategori pelecehan anak.
Ketika muncul peringatan berupa flag, maka staf Apple akan meninjaunya secara manual.
Begitu terkonfirmasi pelecehan anak, langsung dilaporkan pada National Center for Missing and Exploited Children atau lembaga yang menangani anak hilang dan tereksploitasi berkedudukan di Amerika.
Baca Juga: Sutradara Angga Sasongko Pilih Stop Kerjasama dengan TV yang Undang Saipul Jamil
Kendati begitu, kritikan untuk software ini adalah soal keamanan privasinya. Seperti bisa memindai konten pribadi lantas disalahgunakan untuk kepentingan lain.
CEO Whatsapp Will Cathcart mengatakan sistem pengawasan Apple ini mudah sekali digunakan untuk memindai konten pribadi atas alasan apapun yang mereka atau pemerintah ingin kendalikan. Tiap negara punya definisi masing-masing tentang acceptable-nya.
Pihak Apple menyatakan dibutuhkan tambahan waktu beberapa bulan ke depan untuk mengumpulkan masukan dan melakukan pengembangan sebelum merilis fitur ini.***