Apple Новини

Изследователите по сигурността изразяват тревога за плановете на Apple да сканира iCloud изображения, но практиката вече е широко разпространена

Четвъртък, 5 август 2021 г., 14:04 PDT от Джули Кловър

Apple обяви днес че с пускането на iOS 15 и iPad 15 , ще започне да сканира iCloud снимки в САЩ, за да търсят известни материали за сексуално насилие над деца (CSAM), като планират да докладват констатациите на Националния център за изчезнали и експлоатирани деца (NCMEC).





Функция за безопасност на децата
Преди, когато Apple разясни подробно своите планове, новините за инициативата CSAM изтекоха и изследователите по сигурността вече започнаха да изразяват опасения относно това как новият протокол за сканиране на изображения на Apple може да се използва в бъдеще, както отбелязва Financial Times .

Apple използва система 'NeuralHash', за да сравнява известни CSAM изображения със снимки на потребителски iPhone преди да бъдат качени в iCloud. Ако има съвпадение, тази снимка се качва с ваучер за криптографска безопасност и при определен праг се задейства преглед, за да се провери дали лицето има CSAM на своите устройства.



как да прехвърляте файлове от iphone на mac

В момента Apple използва своята технология за сканиране и съпоставяне на изображения, за да търси злоупотреба с деца, но изследователите се притесняват, че в бъдеще тя може да бъде адаптирана за сканиране за други видове изображения, които са по-загрижени, като антиправителствени знаци в протести.

В поредица от туитове, изследовател на криптографията на Джон Хопкинс Матю Грийн каза, че CSAM сканирането е „наистина лоша идея“, защото в бъдеще може да се разшири до сканиране на криптирани снимки от край до край, а не само до съдържание, качено в ‌iCloud‌. За деца, Apple е внедряване на отделна функция за сканиране, която търси сексуално изрично съдържание директно в iMessages, които са криптирани от край до край.

Грийн също изрази опасения относно хешовете, които Apple планира да използва, тъй като потенциално може да има „сблъсъци“, при които някой изпраща безвреден файл, който споделя хеш с CSAM и може да доведе до фалшив флаг.

Apple от своя страна казва, че нейната технология за сканиране има „изключително високо ниво на точност“, за да се увери, че акаунтите не са маркирани неправилно, а отчетите се преглеждат ръчно преди ‌iCloud‌ акаунтът е деактивиран и докладът се изпраща до NCMEC.

Грийн вярва, че внедряването на Apple ще накара други технологични компании да приемат подобни техники. „Това ще счупи язовира“, написа той. „Правителствата ще го изискват от всички.“ Той сравни технологията с „инструменти, които репресивните режими са използвали“.


Изследователят по сигурността Алек Мъфет, който преди е работил във Facebook, каза, че решението на Apple да приложи този вид сканиране на изображения е „огромна и регресивна стъпка за личната неприкосновеност“. „Apple се оттегля от неприкосновеността на личния живот, за да активира 1984 г.“, каза той.

Рос Андерсън, професор по инженерство по сигурността в университета в Кеймбридж, каза, че това е 'абсолютно ужасяваща идея', която може да доведе до 'разпределено групово наблюдение' на устройства.

Както мнозина посочиха в Twitter, множество технологични компании вече извършват сканиране на изображения за CSAM. Google, Twitter, Microsoft, Facebook и други използват методи за хеширане на изображения, за да търсят и докладват известни изображения на малтретиране на деца.


Също така си струва да се отбележи, че Apple беше вече сканиране на някакво съдържание за изображения на малтретиране на деца преди въвеждането на новата инициатива CSAM. През 2020 г. главният директор по поверителността на Apple Джейн Хорват каза, че Apple използва технология за скрининг, за да търси незаконни изображения и след това деактивира акаунти, ако бъдат открити доказателства за CSAM.

как да получите одобрение за Apple карта

Apple през 2019 г актуализира своите политики за поверителност да отбележи, че ще сканира качено съдържание за „потенциално незаконно съдържание, включително материали за сексуална експлоатация на деца“, така че днешните съобщения не са съвсем нови.

Забележка: Поради политическия или социалния характер на дискусията по тази тема, дискусионната нишка се намира в нашата Политически новини форум. Всички членове на форума и посетители на сайта са добре дошли да четат и следват темата, но публикуването е ограничено до членове на форума с най-малко 100 публикации.

Етикети: поверителност на Apple , функции за безопасност на децата на Apple