G
Gözde Ulukan
Misafir
Apple, iOS, macOS, watchOS ve iMessage'da potansiyel çocuk istismarı görüntülerini tespit edecek yeni teknolojisi üzerinde çalıştığı bilgisini paylaşmıştı. ABD'deki cihazlar için, bu sonbaharda kullanıma sunulan yeni iOS ve iPadOS sürümleri, kullanıcı gizliliği için tasarım yaparken çocuk cinsel istismarı materyalinin online olarak yayılmasını sınırlamaya yardımcı olacak yeni şifreleme uygulamalarına sahip olacak.
Şimdi ise Financial Times'ın haberine göre Apple, iPhone'larda ve iCloud'da depolanan fotoğrafları çocuk istismarı görüntüleri için taramayı planlıyor. Yeni sistem, cezai soruşturmalarda kolluk kuvvetlerine yardımcı olabilecek. NeuralMatch adı verilen sistem, ilk olarak ABD'de kullanıma sunulacak.
Fotoğraflar, çocuk cinsel istismarına ilişkin bilinen resimlerin bulunduğu bir veri tabanıyla karşılaştırılacak. ABD'de iCloud'a yüklenen her fotoğrafa, şüpheli olup olmadığına dair bir güvenlik kuponu verilecek. Belirli sayıda fotoğraf şüpheli olarak işaretlendiğinde, Apple tüm şüpheli fotoğrafların şifresinin çözülmesine ve görünüşe göre yasa dışıysa ilgili makamlara iletilmesine izin verecek.
Apple, Gmail ve diğer bulut e-posta sağlayıcılarındaki benzer sistemlere paralel olarak, e-posta üzerinden gönderilen çocuk istismarı görüntülerini taramak için yıllardır karma sistemler kullandı. Bu program, görüntüler başka bir kullanıcıya gönderilmese veya başka şekilde paylaşılmasa bile aynı taramaları iCloud Fotoğrafları'nda depolanan kullanıcı görüntülerine uygulayacak.
Apple, iCloud Fotoğrafları'ndaki yeni önlemlerin yanı sıra, çocuk istismarı riski altındaki genç iPhone sahiplerini korumak için de önlemler aldı. Buna göre mesajlar uygulamasında, potansiyel olarak müstehcen içeriği algılayan sistem, o içerikleri tespit ettiğinde içeriği bulanıklaşıracak ve ekranda bir uyarı belirecek. Ebeveynlerin aile iCloud hesaplarında etkinleştirebilecekleri yeni bir ayar ise eğer çocuk algılanan görüntüyü görüntülerse veya gönderirse ebeveyne bir bildirim gönderecek.
Kaynak : Webrazzi
Şimdi ise Financial Times'ın haberine göre Apple, iPhone'larda ve iCloud'da depolanan fotoğrafları çocuk istismarı görüntüleri için taramayı planlıyor. Yeni sistem, cezai soruşturmalarda kolluk kuvvetlerine yardımcı olabilecek. NeuralMatch adı verilen sistem, ilk olarak ABD'de kullanıma sunulacak.
Fotoğraflar, çocuk cinsel istismarına ilişkin bilinen resimlerin bulunduğu bir veri tabanıyla karşılaştırılacak. ABD'de iCloud'a yüklenen her fotoğrafa, şüpheli olup olmadığına dair bir güvenlik kuponu verilecek. Belirli sayıda fotoğraf şüpheli olarak işaretlendiğinde, Apple tüm şüpheli fotoğrafların şifresinin çözülmesine ve görünüşe göre yasa dışıysa ilgili makamlara iletilmesine izin verecek.
Apple, Gmail ve diğer bulut e-posta sağlayıcılarındaki benzer sistemlere paralel olarak, e-posta üzerinden gönderilen çocuk istismarı görüntülerini taramak için yıllardır karma sistemler kullandı. Bu program, görüntüler başka bir kullanıcıya gönderilmese veya başka şekilde paylaşılmasa bile aynı taramaları iCloud Fotoğrafları'nda depolanan kullanıcı görüntülerine uygulayacak.
Apple, iCloud Fotoğrafları'ndaki yeni önlemlerin yanı sıra, çocuk istismarı riski altındaki genç iPhone sahiplerini korumak için de önlemler aldı. Buna göre mesajlar uygulamasında, potansiyel olarak müstehcen içeriği algılayan sistem, o içerikleri tespit ettiğinde içeriği bulanıklaşıracak ve ekranda bir uyarı belirecek. Ebeveynlerin aile iCloud hesaplarında etkinleştirebilecekleri yeni bir ayar ise eğer çocuk algılanan görüntüyü görüntülerse veya gönderirse ebeveyne bir bildirim gönderecek.
Kaynak : Webrazzi