Apple News

Apple потвърждава, че откриването на материали за сексуална злоупотреба с деца е деактивирано, когато iCloud Photos е изключен

Четвъртък, 5 август 2021 г., 15:16 PDT от Джули Кловър

Apple обяви днес че iOS 15 и iPad 15 ще видим въвеждането на нов метод за откриване на материали за сексуално насилие над деца (CSAM) на iPhone и iPad в Съединените щати.





Обща функция на iCloud
Потребителските устройства ще изтеглят нечетима база данни с известни хешове на CSAM изображения и ще направят сравнение на устройството със собствените снимки на потребителя, като ги маркират за известен CSAM материал, преди да бъдат качени в iCloud снимки . Apple казва, че това е много точен метод за откриване на CSAM и защита на децата.

CSAM сканирането на изображения не е незадължителна функция и се случва автоматично, но Apple потвърди Вечна че не може да открие известни CSAM изображения, ако ‌iCloud Photos‌ функцията е изключена.



разлика между iphone se и xr

Методът на Apple работи, като идентифицира известна CSAM снимка на устройството и след това я маркира, когато е качена в ‌iCloud Photos‌ с приложен ваучер. След като определен брой ваучери (известни още като маркирани снимки) са качени в ‌iCloud Photos‌, Apple може да интерпретира ваучерите и да направи ръчен преглед. Ако бъде намерено съдържание на CSAM, потребителският акаунт се деактивира и Националният център за изчезнали и експлоатирани деца се уведомява.

Тъй като Apple сканира ‌iCloud Photos‌ за флаговете на CSAM има смисъл функцията да не работи с ‌iCloud Photos‌ хора с увреждания. Apple също така потвърди, че не може да открие известни CSAM изображения в iCloud Backups, ако ‌iCloud Photos‌ е деактивиран на устройството на потребителя.

Струва си да се отбележи, че Apple сканира специално за хешове на известни материали за сексуално насилие над деца и не инспектира широко библиотеката със снимки на потребителя или сканира лични изображения, които вече не циркулират сред тези, които злоупотребяват с деца. Все пак потребителите, които имат опасения относно поверителността относно усилията на Apple да сканира потребителски фото библиотеки, могат да деактивират ‌iCloud Photos‌.

Изследователите по сигурността имат изрази загриженост над инициативата на Apple CSAM и се тревожи, че в бъдеще може да открие други видове съдържание, които биха могли да имат политически последици и последици за безопасността, но засега усилията на Apple са ограничени да търсят насилници на деца.

Забележка: Поради политическия или социалния характер на дискусията по тази тема, дискусионната нишка се намира в нашата Политически новини форум. Всички членове на форума и посетители на сайта са добре дошли да четат и следват темата, но публикуването е ограничено до членове на форума с най-малко 100 публикации.

Етикети: поверителност на Apple , функции за безопасност на децата на Apple