appleDÜNYAHaberiPhoneTEKNOLOJİ

Apple, tepki çeken çocuk / fotoğraf hamlesi için yeni bilgiler verdi

[ad_1]

Teknoloji devi Apple, çocuk güvenliği mevzusunda başlatacağı yeni dönem için bir izahat daha yapmış oldu. Yapmak mecburiyetinde bırakıldı.

Apple, çocuk güvenliğini çoğaltmak adına hazırladığı yenilikler ile geçtiğimiz günlerde hakikaten oldukca büyük ses getirdi. Özetlemek gerekirse anımsamak adına kısa süre ilkin uzmanlar ile ortaklaşa geliştirilen üç yeni özellik karşımıza çıktı.

Bilmeyenler için iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey ile beraber artık yerleşik mesajlar uygulaması makine öğrenmeyi kullanarak ufaklıklara gelen fena (Çıplak fotoğraflar vb.) medya içeriklerini gizleyebilecek.

Yeni altyapıda en mühim detay ise Child Sexual Abuse Material (CSAM) olarak geçen, evladı bir cinsel obje olarak gösteren içeriklerin yayılmasını azaltma planı oldu. Bu sebeple teknoloji devi bunun için iOS 15 ve iPadOS 15 ile birlikte aygıt temelli fotoğraf taraması hayata geçirmeye başlayacaklarını duyurdu.

Bu fotoğraf taraması, hususi bir “hash” veri tabanı ile eğitilen algoritma temelinde işleyecek ve çocuk istismarı içeren fotoğraflar direkt olarak iPhone ve iPad’ler içinde ya da iCloud yedeklerinde tespit edilecek.

Bu fotoğrafları barındıran yada yürüyerek kişiler ondan sonra yetkili birimlere bildirilecek ve yakalanması için lüzumlu adımlar atılacak. Bir şahıs suçlanmadan ilkin sistemin tespit etmiş olduğu fotoğraflar insan gözetmenler tarafınca denetim edilecek.

Resmi açıklamaya nazaran bu özellik kapatılabilecek. Apple’a nazaran fotoğraflar için iCloud yedeğini kapatmak, tarama sistemini aygıt özelinde de kapatacak.

İLGİNİZİ ÇEKEBİLİR

Apple, çocuk güvenliği mevzusunda tepki çekiyor

Türkiye’de açılıp açıklamayacağı halen bilinmeyen sistem, daha ilkin de hep aktardığımız suretiyle birçok kişiyi endişelendiriyor. Derhal hepimiz, devletlerin CSAM harici içerikler için de gizli saklı fotoğraf / sistem taraması isteyeceğini düşünüyor. Apple ise harici istekleri kesinlikle kabul etmeyeceğini aktarıyor.

Hatta teknoloji devi artan tepkiler sebebiyle bu mevzuda bir izahat daha yapmak mecburiyetinde bırakıldı. Apple, yeni sistemde CSAM için birden fazla ülkeden gelen ortak hash verilerinin kullanılacağını belirtti. Bu sayede bir devletin CSAM veritabanına “siyasal casusluk benzer biçimde başka amaçlar için” hususi veri eklemesi zorlaşacak.

Bunu en baştan açıklamayarak bir hata icra eden ve bunu da kabul eden şirket, buna ek olarak sistemin “araştırma başlatılması” özelinde 30 fotoğraf üstünde çalışacağını da aktardı. Kısaca bir şahıs incelemeye alınmadan ilkin cihazında çocuk istismarıyla ilgili minimum 30 tane fotoğrafın olması gerekecek.

Çocuk pornosu vb. benzer biçimde içerikleri telefonunda barındıran kişiler, yukarıda da dediğimiz benzer biçimde hususi bir ekip tarafınca denetim edilecek. İnsan kontrolü ile süreç hatasız şekilde ilerletilecek. Bu ekip oldukca fena fotoğraflara maruz duracak sadece bu sayede binlerce çocuğun yaşamı kurtulabilecek.

İlginizi Çekebilir



[ad_2]

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
Kapalı

Please allow ads on our site

Looks like you're using an ad blocker. We rely on advertising to help fund our site.