Yang Perlu Anda Ketahui Tentang Perlindungan Keamanan Anak Apple

Yang Perlu Anda Ketahui Tentang Perlindungan Keamanan Anak Apple

Apple baru-baru ini mengumumkan perlindungan keselamatan anak baru yang akan datang musim gugur ini dengan pengenalan iOS 15, iPadOS 15, dan macOS Monterey.





Kami akan melihat lebih dekat fitur keselamatan anak yang diperluas ini dan teknologi di baliknya di bawah ini.





Pemindaian Materi Pelecehan Seksual Anak

Perubahan yang paling menonjol adalah bahwa Apple akan mulai menggunakan teknologi baru untuk mendeteksi gambar yang menggambarkan gambar pelecehan anak yang disimpan di Foto iCloud.





Gambar-gambar ini dikenal sebagai Materi Pelecehan Seksual Anak, atau CSAM, dan Apple akan melaporkan contohnya ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi. NCMEC adalah pusat pelaporan untuk CSAM dan bekerja dengan lembaga penegak hukum.

Pemindaian CSAM Apple akan terbatas di Amerika Serikat saat peluncuran.



hal-hal keren yang harus dilakukan dengan perselisihan

Apple mengatakan sistem ini menggunakan kriptografi dan dirancang dengan mempertimbangkan privasi. Gambar dipindai di perangkat sebelum diunggah ke Foto iCloud.

Menurut Apple, tidak perlu khawatir karyawan Apple melihat foto Anda yang sebenarnya. Sebagai gantinya, NCMEC memberi Apple hash gambar dari gambar CSAM. Hash mengambil gambar dan mengembalikan string huruf dan angka yang panjang dan unik.





Apple mengambil hash tersebut dan mengubah data menjadi kumpulan hash yang tidak dapat dibaca yang disimpan dengan aman di perangkat.

Terkait: Bagaimana iOS 15 Melindungi Privasi iPhone Anda Lebih Baik Dari Sebelumnya





Sebelum gambar disinkronkan ke Foto iCloud, gambar tersebut diperiksa dengan gambar CSAM. Dengan teknologi kriptografi khusus—persimpangan set pribadi—sistem menentukan apakah ada kecocokan tanpa mengungkapkan hasilnya.

Jika ada kecocokan, perangkat membuat voucher keamanan kriptografi yang mengkodekan kecocokan bersama dengan lebih banyak data terenkripsi tentang gambar. Voucher itu diunggah ke Foto iCloud dengan gambar.

Kecuali jika akun Foto iCloud melewati ambang batas tertentu dari konten CSAM, sistem memastikan bahwa voucher keamanan tidak dapat dibaca oleh Apple. Itu berkat teknologi kriptografi yang disebut berbagi rahasia.

Menurut Apple, ambang batas yang tidak diketahui memberikan akurasi yang tinggi dan memastikan kurang dari satu dalam satu triliun kemungkinan salah menandai akun.

Ketika ambang batas terlampaui, teknologi akan memungkinkan Apple untuk menginterpretasikan voucher dan mencocokkan gambar CSAM. Apple kemudian akan meninjau setiap laporan secara manual untuk mengonfirmasi kecocokan. Jika dikonfirmasi, Apple akan menonaktifkan akun pengguna dan kemudian mengirim laporan ke NCMEC.

Akan ada proses banding untuk pemulihan jika pengguna merasa bahwa akun mereka telah salah ditandai oleh teknologi.

Jika Anda memiliki masalah privasi dengan sistem baru, Apple telah mengkonfirmasi bahwa tidak ada foto yang akan dipindai menggunakan teknologi kriptografi jika Anda menonaktifkan Foto iCloud. Anda dapat melakukannya dengan menuju ke Pengaturan > [Nama Anda] > iCloud > Foto .

Ada beberapa kelemahan saat mematikan Foto iCloud. Semua foto dan video akan disimpan di perangkat Anda. Itu mungkin menyebabkan masalah jika Anda memiliki banyak gambar dan video dan iPhone lama dengan penyimpanan terbatas.

Selain itu, foto dan video yang diambil di perangkat tidak akan dapat diakses di perangkat Apple lainnya menggunakan akun iCloud.

Terkait: Cara Mengakses Foto iCloud

Apple menjelaskan lebih lanjut tentang teknologi yang digunakan dalam deteksi CSAM di a PDF kertas putih . Anda juga dapat membaca FAQ Apple dengan informasi tambahan tentang sistem.

Di FAQ, Apple mencatat bahwa sistem deteksi CSAM tidak dapat digunakan untuk mendeteksi apa pun selain CSAM. Perusahaan juga mengatakan bahwa di Amerika Serikat, dan banyak negara lain, kepemilikan gambar CSAM adalah kejahatan dan Apple berkewajiban untuk memberi tahu pihak berwenang.

Perusahaan juga mengatakan bahwa mereka akan menolak tuntutan pemerintah untuk menambahkan gambar non-CSAM ke daftar hash. Ini juga menjelaskan mengapa gambar non-CSAM tidak dapat ditambahkan ke sistem oleh pihak ketiga.

Karena tinjauan manusia dan fakta bahwa hash yang digunakan berasal dari gambar CSAM yang diketahui dan yang sudah ada, Apple mengatakan bahwa sistem dirancang agar akurat dan menghindari masalah dengan gambar lain atau pengguna yang tidak bersalah dilaporkan ke NCMEC.

cara mengubah urutan halaman di word

Protokol Keamanan Komunikasi Tambahan dalam Pesan

Fitur baru lainnya akan ditambahkan protokol keamanan di aplikasi Pesan. Ini menawarkan alat yang akan memperingatkan anak-anak dan orang tua mereka saat mengirim atau menerima pesan dengan foto seksual eksplisit.

Ketika salah satu dari pesan ini diterima, foto akan diburamkan dan anak juga akan diperingatkan. Mereka dapat melihat sumber daya yang bermanfaat dan diberi tahu bahwa tidak apa-apa jika mereka tidak melihat gambar tersebut.

Fitur ini hanya untuk akun yang diatur sebagai keluarga di iCloud. Orang tua atau wali harus memilih untuk mengaktifkan fitur keamanan komunikasi. Mereka juga dapat memilih untuk diberi tahu ketika seorang anak berusia 12 tahun atau lebih muda mengirim atau menerima gambar seksual eksplisit.

Untuk anak-anak berusia 13 hingga 17 tahun, orang tua tidak diberitahu. Tetapi anak akan diperingatkan dan ditanya apakah mereka ingin melihat atau membagikan gambar seksual eksplisit.

Terkait: Bagaimana iOS 15 Menggunakan Kecerdasan untuk Membuat iPhone Anda Lebih Cerdas Dari Sebelumnya

Message menggunakan machine learning di perangkat untuk menentukan apakah lampiran atau gambar eksplisit secara seksual. Apple tidak akan menerima akses apa pun ke pesan atau konten gambar.

Fitur ini akan berfungsi untuk pesan SMS dan iMessage biasa dan tidak ditautkan ke fitur pemindaian CSAM yang kami jelaskan di atas.

Terakhir, Apple akan memperluas panduan untuk fitur Siri dan Pencarian untuk membantu anak-anak dan orang tua tetap aman saat online dan menerima bantuan dalam situasi yang tidak aman. Apple menunjukkan contoh di mana pengguna yang bertanya kepada Siri bagaimana mereka dapat melaporkan CSAM atau eksploitasi anak akan diberikan sumber daya tentang cara mengajukan laporan kepada pihak berwenang.

Pembaruan akan tiba di Siri dan Cari ketika ada orang yang melakukan kueri pencarian yang terkait dengan CSAM. Intervensi akan menjelaskan kepada pengguna bahwa minat pada topik itu berbahaya dan bermasalah. Mereka juga akan menunjukkan sumber daya dan mitra untuk membantu mendapatkan bantuan terkait masalah tersebut.

Lebih Banyak Perubahan Datang Dengan Perangkat Lunak Terbaru Apple

Dikembangkan bersama dengan pakar keamanan, tiga fitur baru dari Apple dirancang untuk membantu menjaga anak-anak tetap aman saat online. Meskipun fitur tersebut mungkin menimbulkan kekhawatiran di beberapa kalangan yang berfokus pada privasi, Apple telah mengungkapkan tentang teknologi dan bagaimana hal itu akan menyeimbangkan masalah privasi dengan perlindungan anak.

Membagikan Membagikan Menciak Surel 15 Fitur Tersembunyi di iOS 15 dan iPadOS 15 yang Tidak Disebutkan Apple di WWDC

Anda telah mendengar tentang perubahan besar pada iOS 15, tetapi inilah semua perubahan tersembunyi yang ditinggalkan Apple dari WWDC.

Baca Selanjutnya
Topik-topik yang berkaitan
  • iPhone
  • Mac
  • apel
  • Privasi Ponsel Cerdas
  • Pengasuhan dan Teknologi
Tentang Penulis Brent Dirks(193 Artikel Diterbitkan)

Lahir dan dibesarkan di Texas barat yang cerah, Brent lulus dari Texas Tech University dengan gelar BA dalam jurnalisme. Dia telah menulis tentang teknologi selama lebih dari 5 tahun dan menikmati semua hal Apple, aksesori, dan keamanan.

More From Brent Dirks

Berlangganan newsletter kami

Bergabunglah dengan buletin kami untuk kiat teknologi, ulasan, ebook gratis, dan penawaran eksklusif!

Klik di sini untuk berlangganan