Apple обяви днес че с пускането на iOS 15 и iPad 15 , ще започне да сканира iCloud снимки в САЩ, за да търсят известни материали за сексуално насилие над деца (CSAM), като планират да докладват констатациите на Националния център за изчезнали и експлоатирани деца (NCMEC).
Преди, когато Apple разясни подробно своите планове, новините за инициативата CSAM изтекоха и изследователите по сигурността вече започнаха да изразяват опасения относно това как новият протокол за сканиране на изображения на Apple може да се използва в бъдеще, както отбелязва Financial Times .
Apple използва система 'NeuralHash', за да сравнява известни CSAM изображения със снимки на потребителски iPhone преди да бъдат качени в iCloud. Ако има съвпадение, тази снимка се качва с ваучер за криптографска безопасност и при определен праг се задейства преглед, за да се провери дали лицето има CSAM на своите устройства.
как да прехвърляте файлове от iphone на mac
В момента Apple използва своята технология за сканиране и съпоставяне на изображения, за да търси злоупотреба с деца, но изследователите се притесняват, че в бъдеще тя може да бъде адаптирана за сканиране за други видове изображения, които са по-загрижени, като антиправителствени знаци в протести.
В поредица от туитове, изследовател на криптографията на Джон Хопкинс Матю Грийн каза, че CSAM сканирането е „наистина лоша идея“, защото в бъдеще може да се разшири до сканиране на криптирани снимки от край до край, а не само до съдържание, качено в iCloud. За деца, Apple е внедряване на отделна функция за сканиране, която търси сексуално изрично съдържание директно в iMessages, които са криптирани от край до край.
Грийн също изрази опасения относно хешовете, които Apple планира да използва, тъй като потенциално може да има „сблъсъци“, при които някой изпраща безвреден файл, който споделя хеш с CSAM и може да доведе до фалшив флаг.
Apple от своя страна казва, че нейната технология за сканиране има „изключително високо ниво на точност“, за да се увери, че акаунтите не са маркирани неправилно, а отчетите се преглеждат ръчно преди iCloud акаунтът е деактивиран и докладът се изпраща до NCMEC.
Грийн вярва, че внедряването на Apple ще накара други технологични компании да приемат подобни техники. „Това ще счупи язовира“, написа той. „Правителствата ще го изискват от всички.“ Той сравни технологията с „инструменти, които репресивните режими са използвали“.
Това са лоши неща. Не искам особено да съм на страната на детското порно и не съм терорист. Но проблемът е, че криптирането е мощен инструмент, който осигурява поверителност и не можете наистина да имате силна поверителност, като същевременно наблюдавате всяко изображение, което някой изпраща. — Матю Грийн (@matthew_d_green) 5 август 2021 г
Изследователят по сигурността Алек Мъфет, който преди е работил във Facebook, каза, че решението на Apple да приложи този вид сканиране на изображения е „огромна и регресивна стъпка за личната неприкосновеност“. „Apple се оттегля от неприкосновеността на личния живот, за да активира 1984 г.“, каза той.
Рос Андерсън, професор по инженерство по сигурността в университета в Кеймбридж, каза, че това е 'абсолютно ужасяваща идея', която може да доведе до 'разпределено групово наблюдение' на устройства.
Както мнозина посочиха в Twitter, множество технологични компании вече извършват сканиране на изображения за CSAM. Google, Twitter, Microsoft, Facebook и други използват методи за хеширане на изображения, за да търсят и докладват известни изображения на малтретиране на деца.
И ако се чудите дали Google сканира изображения за изображения на насилие над деца, аз отговорих на това в историята, която написах преди осем години: прави това **ОТ 2008 г.**. Може би всички седнете и си сложите шапките обратно. pic.twitter.com/ruJ4Z8SceY - Чарлз Артър (@charlesarthur) 5 август 2021 г
Също така си струва да се отбележи, че Apple беше вече сканиране на някакво съдържание за изображения на малтретиране на деца преди въвеждането на новата инициатива CSAM. През 2020 г. главният директор по поверителността на Apple Джейн Хорват каза, че Apple използва технология за скрининг, за да търси незаконни изображения и след това деактивира акаунти, ако бъдат открити доказателства за CSAM.
как да получите одобрение за Apple карта
Apple през 2019 г актуализира своите политики за поверителност да отбележи, че ще сканира качено съдържание за „потенциално незаконно съдържание, включително материали за сексуална експлоатация на деца“, така че днешните съобщения не са съвсем нови.
Забележка: Поради политическия или социалния характер на дискусията по тази тема, дискусионната нишка се намира в нашата Политически новини форум. Всички членове на форума и посетители на сайта са добре дошли да четат и следват темата, но публикуването е ограничено до членове на форума с най-малко 100 публикации.
Етикети: поверителност на Apple , функции за безопасност на децата на Apple
Популярни Публикации