appleDÜNYAHaberiPhoneTEKNOLOJİ

Apple, tüm fotoğrafları tarama planıyla şirket içinde de tepki çekiyor

Teknoloji devi Apple, geçtiğimiz hafta çocuk güvenliği mevzusunda yeni bir dönem başlatacağını duyurdu. Fakat bu hoş karşılanmıyor.

Apple, çocuk güvenliğini çoğaltmak adına hazırladığı yenilikler ile geçtiğimiz günlerde hakkaten fazlaca büyük ses getirdi.

Özetlemek gerekirse anımsamak adına çocuk güvenliği mevzusunda uzmanlar ile ortaklaşa geliştirilen üç yeni özellik karşımıza çıktı. iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey ile beraber artık yerleşik mesajlar uygulaması makine öğrenmeyi kullanarak ufaklıklara gelen fena (Çıplak fotoğraflar vb.) medya içeriklerini gizleyebilecek.

Yeni altyapıda en mühim detay ise Child Sexual Abuse Material (CSAM) olarak geçen, evladı bir cinsel obje olarak gösteren içeriklerin yayılmasını azaltma planı oldu. Şundan dolayı teknoloji devi bunun için iOS 15 ve iPadOS 15 ile birlikte aygıt temelli fotoğraf taraması hayata geçirmeye başlamış olacak.

Bu fotoğraf taraması, hususi bir veri tabanı ile eğitilen algoritma / suni zeka temelinde işleyecek ve çocuk istismarı içeren fotoğraflar direkt olarak iPhone ve iPad’ler içinde tespit edilecek.

Bu fotoğrafları barındıran yada yürüyerek kişiler hemen sonra yetkili birimlere bildirilecek ve yakalanması için lüzumlu adımlar atılacak. Bir şahıs suçlanmadan ilkin sistemin tespit etmiş olduğu fotoğraflar insan gözetmenler tarafınca denetim edilecek.

Resmi açıklamaya gore bu özellik kapatılabilecek. Apple’a gore fotoğraflar için iCloud yedeğini kapatmak, tarama sistemini aygıt özelinde de kapatacak. Sadece bir çok şahıs bu yedekleme sistemini kapatmak istemiyor bundan dolayı iCloud’a para ödeyerek fotoğraflarını kendi isteğiyle yedeklemek istiyor.

İLGİNİZİ ÇEKEBİLİR

Apple, çocuk güvenliği mevzusunda tepki çekiyor

Türkiye’de açılıp açıklamayacağı bilinmeyen sistem, birçok güvenlik uzmanını endişelendiriyor. Apple devletten gelecek CSAM veritabanı harici verileri kabul etmeyeceğini, talep gelirse itiraz edeceğini belirtiyor sadece gene de süreçte küçük bir ihtimal bulunuyor.

İşte bu durumdan uzmanlar kadar Apple’ın kendi çalışanları da rahatsız olmuş durumda. Söylendiği kadarıyla çalışanlar şirket içi Slack kanallarında bu durum hakkında endişelerini dile getirmeye başladı.

Çalışanlar da öteki güvenlik uzmanları benzer biçimde devletlerin CSAM harici içerikler için de fotoğraf / sistem taraması isteyeceğini düşünüyor. Yukarıda da dediğimiz benzer biçimde Apple harici şeyleri kabul etmeyeceğini aktarıyor sadece firmanın bunun garantisini vermesi mümkün değil.

Şundan dolayı CSAM direkt olarak fotoğraf temelli çalışmıyor ve hususi veriler üstünden idrak etme yapılıyor. Bunlar üstündeki hususi / küçük oynamaları Apple’ın fark etmeme ihtimali bulunuyor.

Bazı çalışanlar Apple’ın amacı kağıt üstünde iyi olmasına karşın CSAM ile seneler süresince oluşturduğu “gizlilik itibarını” zedelediğini düşünüyor. Apple’ın bu mevzuda bir geri adım atma düşüncesi ise şimdilik bulunmuyor.

Ayrıca ek data olarak CSAM sistemini Google ve Feysbuk benzer biçimde firmalar de fazlaca uzun süreden beri kullanıyor.

İlginizi Çekebilir



İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
Kapalı

Please allow ads on our site

Looks like you're using an ad blocker. We rely on advertising to help fund our site.