Apple News

Бившият шеф на сигурността на Facebook обсъжда спорове около планираните функции за безопасност на децата на Apple

Вторник, 10 август 2021 г., 6:50 ч. PDT от Хартли Чарлтън

На фона на продължаващите спорове около плановете на Apple за изпълнение нови функции за безопасност на децата което би включвало сканиране на съобщения и библиотеки със снимки на потребителите, бившият шеф на сигурността на Facebook Алекс Стамос се включи в дебата с критики към множество замесени страни и предложения за бъдещето.





Функция за безопасност на децата
В обширна Тема в Twitter , Стамос каза, че няма „лесни отговори“ в дебата за защитата на детето срещу личната неприкосновеност.

iphone 6s в сравнение с iphone se

Стамос изрази разочарованието си от начина, по който Apple се справи с обявяването на новите функции и критикувани компанията за това, че не участва в по-широки браншови дискусии около аспектите на безопасността и поверителността на криптирането от край до край през последните години.



Apple беше поканена, но отказа да участва в тези дискусии и с това съобщение те просто се впуснаха в балансиращия дебат и изтласкаха всички в най-отдалечените ъгли без обществена консултация или дебат.

по същия начин, – каза Стамос че е разочарован от различни неправителствени организации, като напр Electronic Frontier Foundation (EFF) и Национален център за изчезнали и експлоатирани деца (NCMEC), за оставянето на малко място за дискусия в техните публични изявления. NCMEC, например, обади се служители на Apple което поставя под въпрос последиците за неприкосновеността на личния живот на новите функции „пищящите гласове на малцинството“. „Публичният ход на Apple ги накара да се застъпят за своите акции до крайност“, обясни Стамос.

Стамос призова с изследователи по сигурността и активисти, които бяха изненадани от съобщението на Apple да обърнат по-голямо внимание на глобалната регулаторна среда и спекулираха, че Законът за онлайн безопасността на Обединеното кралство и Законът за цифровите услуги на ЕС са били от съществено значение в хода на Apple да внедри новите функции за безопасност на децата.

Един от основните проблеми с подхода на Apple е, че те изглеждат отчаяни да избегнат изграждането на истинска функция за доверие и безопасност за своите комуникационни продукти. Няма механизъм за докладване на спам, заплахи за смърт, реч на омразата, NCII или други видове злоупотреби в iMessage.

Той също каза че Apple няма достатъчно функции за доверие и безопасност, и насърчи Apple за да създадете система за отчитане в iMessage, внедрете ML от страна на клиента, за да подканите потребителите да докладват за нещо злоупотреба, и насочете екип за безопасност на децата, който да разследва най-лошите доклади.

Вместо това получаваме система за ML, която е насочена само към (под) 13-годишни (не най-голямата група цели за секс изнудване/подстригване според моя опит), която дава на децата избор, за които не са подготвени, и уведомява родителите вместо Apple T&S.

Стамос казах че не е разбрал защо Apple сканира за CSAM локално, освен ако не се работи по криптиране на резервно копие в iCloud, и предупреди, че Apple може да е „отровила“ мнението срещу класификаторите от страна на клиента.

как да редактирате страници на iphone

Също така не разбирам защо Apple прокарва CSAM сканирането за iCloud в устройството, освен ако не е в подготовка за истинско криптиране на резервни копия на iCloud. Разумна цел трябва да бъде сканирането на споделени iCloud албуми, които могат да бъдат внедрени от страна на сървъра.

Във всеки случай, излизането от портата със сканиране на местни снимки без съгласие и създаване на ML от страна на клиента, което няма да осигури много реална превенция на вредите, означава, че Apple може би току-що е отровила кладенеца срещу всякакво използване на клиент -странични класификатори за защита на потребителите.

Въпреки това, Стамос подчерта че Facebook хвана 4,5 милиона потребители да публикуват изображения на малтретиране на деца и че това вероятно е само част от общия брой нарушители, като сканира за изображения с известни съвпадения за CSAM.

Етикети: Facebook , Apple функции за безопасност за деца