06.08.2021 - 18:05 | Son Güncellenme:
AA
Apple, internet sitesinden yaptığı duyuruda, yeni tarama sistemi sayesinde çocuk istismarının önlenmesi için önemli bir adım atıldığına işaret etti. ABD'li şirket, çocuk istismarına karşı aldıkları üç aşamalı önlemlerin ilk aşamasında, mesajlaşma uygulamasında, yapay zeka teknolojileri sayesinde özel yazışmalar şirket tarafından görülmeden yalnızca CSAM (Child Sexual Abuse Material) olarak anılan hassas içerik taraması yapılacağını belirtti.
Söz konusu sistem, çocuk istismarı ile ilgili şüpheli görselleri, gerçek kişilerin incelemesine sunarak gerektiğinde güvenlik güçlerinin uyarılmasını sağlayacak.
Şirket, ikinci aşamada iOS ve iPadOS üzerinden iCloud fotoğraflarını tarayarak hassas içeriğin yayılmasını önceleyecek. Son aşamada ise Siri ve arama fonksiyonları aileleri ve çocukları güvensiz durumlara karşı uyaracak.
Apple'ın yeni tarama sistemi genel olarak takdirle karşılanırken bazı güvenlik uzmanları, sistemin kötü niyetle kullanılabileceğinden endişe ediyor.
Apple’ın planlarını şirketten bir gün önce Twitter hesabında açıklayan Johns Hopkins Üniversitesi şifreleme uzmanı Matthew Green, masum insanlara Apple’ın algoritmasına takılacak görseller gönderilerek komplo kurulabileceği konusunda uyarıda bulundu.
“Uçtan uca şifreleme” ile mesajların gönderici ve alıcı dışında kimsenin ulaşmasına izin vermeyen ilk şirketlerden biri olan Apple, kriptolu verilerin gözetlenebilmesine izin vermesi için bir süredir yönetimlerden ve güvenlik güçlerinden talepler alıyordu.
Apple'ın söz konusu tarama sistemi yılın son çeyreğinde iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey güncellemeleri ile kullanıma girecek.