appleDÜNYAHaberiPhoneTEKNOLOJİ

Apple, tepki çeken “CSAM” sistemini tamamen iptal etmiş olabilir

Teknoloji devi Apple, çocuk güvenliği mevzusunda başlatacağı yeni dönem için erteleme sonucu almıştı. Bu düşünce tamamen rafa kalkmış olabilir.


Advertisement

Apple, çocuk güvenliğini çoğaltmak adına hazırladığı yenilikler ile geçtiğimiz aylarda hakikaten oldukca büyük ses getirmişti. Özetlemek gerekirse anımsamak adına uzmanlar ile ortaklaşa geliştirilen üç yeni özellik karşımıza çıkarıldı.

Burada ilk olarak iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey ile beraber artık yerleşik mesajlar uygulaması makine öğrenmeyi kullanarak ufaklıklara gelen fena (Çıplak fotoğraflar vb.) medya içeriklerini gizleyebilecek denildi.

Yeni altyapıda en mühim detay ise Child Sexual Abuse Material (CSAM) olarak geçen, evladı bir cinsel obje olarak gösteren içeriklerin yayılmasını azaltma planı oldu. Zira teknoloji devi bunun için iOS 15 ve iPadOS 15 ile birlikte aygıt temelli fotoğraf taraması hayata geçirmeye başlayacaklarını duyurdu.

Bu fotoğraf taraması, hususi bir “hash” veri tabanı ile eğitilen algoritma temelinde işleyecek ve çocuk istismarı içeren fotoğraflar direkt olarak iPhone ve iPad’ler içinde ya da iCloud yedeklerinde tespit edilecek bilgisi verildi.

Bu fotoğrafları barındıran yada yürüyerek kişiler ondan sonra yetkili birimlere bildirilecek ve yakalanması için lüzumlu adımlar atılacak. Bir şahıs suçlanmadan ilkin sistemin tespit etmiş olduğu fotoğraflar insan gözetmenler tarafınca denetim edilecek.

Resmi açıklamaya bakılırsa bu özellik kapatılabilecek. Apple’a bakılırsa fotoğraflar için iCloud yedeğini kapatmak, tarama sistemini aygıt özelinde de kapatacak.

İLGİNİZİ ÇEKEBİLİR

Apple, çocuk güvenliği mevzusundaki yöntemi sebebiyle oldukca fazla tepki çekti

Tam da bu yüzden yeni altyapı çıkmadan ilkin bir süre verilmeden ertelendi. Apple o vakit süreci iptal etmemiş, gelen bildirimler doğrultusunda araştırma ve düzeltmeler yapılacağını açıklamıştı.

Sadece yeni gelen bilgilere bakılırsa Apple sistemi gerçek anlamda iptal etmiş olabilir. Zira bugün firmanın çocuk güvenliği sayfasından Child Sexual Abuse Material (CSAM) ile ilgili tüm ibareleri kaldırdığı tespit edildi.

Apple ya Child Sexual Abuse Material (CSAM) sistemiyle ilgili hususi bir sayfa açacak, ya da sistemi tamamen iptal edecek. Bunun yakında net olarak belli olması umut ediliyor. Apple’ın evlatları koruması isteniyor sadece daha değişik bir yöntem bulunması isteniyor. Zira mevcut yöntem çok da fazla güvenli durmuyor. Birçok uzman bunu kanıtlarıyla gözler önüne seriyor.

İlginizi Çekebilir



İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
Kapalı

Please allow ads on our site

Looks like you're using an ad blocker. We rely on advertising to help fund our site.