Apple News

Университетски изследователи, които изградиха система за сканиране CSAM, призовават Apple да не използва „опасната“ технология

Петък, 20 август 2021 г., 6:48 ч. PDT от Сами Фатхи

Уважавани университетски изследователи бият алармата за технологията зад плановете на Apple да сканира iPhone библиотеки със снимки на потребителите за CSAM или материали за сексуално насилие над деца, наричайки технологията „опасна“.





поверителността на ябълката
Джонанат Майер, асистент по компютърни науки и обществени въпроси в Принстънския университет, както и Анунай Кулшреста, изследовател в Центъра за политика на информационните технологии на университета в Принстън, и двамата написа оп-ред за The Washington Post , очертавайки своя опит с изграждането на технология за откриване на изображения.

Изследователите стартираха проект преди две години за идентифициране на CSAM в криптирани от край до край онлайн услуги. Изследователите отбелязват, че предвид тяхната област, те „знаят стойността на криптирането от край до край, което защитава данните от достъп на трети страни“. Тази загриженост, казват те, е това, което ги ужасява от CSAM „разпространението на криптирани платформи“.



можете ли да защитите с парола скритите снимки на iphone

Майер и Кулшреста казаха, че искат да намерят средата за ситуацията: да изградят система, която онлайн платформите могат да използват за намиране на CSAM и защита на криптирането от край до край. Изследователите отбелязват, че експертите в областта се съмняват в перспективата на такава система, но успяват да я изградят и в процеса са забелязали значителен проблем.

Опитахме се да проучим възможен среден път, при който онлайн услугите биха могли да идентифицират вредно съдържание, като в противен случай запазват криптирането от край до край. Концепцията беше ясна: ако някой сподели материал, който съответства на база данни с известно вредно съдържание, услугата ще бъде предупредена. Ако човек сподели невинно съдържание, услугата няма да научи нищо. Хората не можеха да прочетат базата данни или да научат дали съдържанието съвпада, тъй като тази информация може да разкрие методи за прилагане на закона и да помогне на престъпниците да избегнат разкриването.

Знаещи наблюдатели твърдят, че система като нашата е далеч от осъществима. След много фалстартове изградихме работещ прототип. Но се сблъскахме с очевиден проблем.

След обявяването на функцията от Apple, компанията беше бомбардирана с притеснения че системата зад откриването на CSAM може да се използва за откриване на други форми на снимки по искане на потисническите правителства. Apple категорично отблъсна подобна възможност, заявявайки, че ще откаже всяко подобно искане от правителствата.

Независимо от това, опасенията относно бъдещите последици от технологията, използвана за откриване на CSAM, са широко разпространени. Майер и Кулшреста казаха, че притесненията им относно това как правителствата могат да използват системата за откриване на съдържание, различно от CSAM, са ги „обезпокоили“.

нощен режим iphone 11 pro max

Чуждестранно правителство би могло, например, да принуди услуга на хора, споделящи неодобрена политическа реч. Това не е хипотетично: WeChat, популярното китайско приложение за съобщения, вече използва съвпадение на съдържание, за да идентифицира дисидентски материали. Индия прие правила тази година, които може да изискват предварителен преглед на съдържание, критично за правителствената политика. Русия наскоро глоби Google, Facebook и Twitter за това, че не са премахнали материали за протести за демокрация.

Забелязахме и други недостатъци. Процесът на съпоставяне на съдържанието може да има фалшиви положителни резултати и злонамерени потребители могат да играят системата, за да подложат невинни потребители на проверка.

Бяхме толкова обезпокоени, че предприехме стъпка, която не сме виждали преди в литературата по компютърни науки: предупредихме срещу собствения си системен дизайн, настоявайки за по-нататъшни изследвания за това как да смекчим сериозните недостатъци....

Apple продължи да се занимава с притесненията на потребителите относно своите планове, публикуване на допълнителни документи и страница с често задавани въпроси . Apple продължава да вярва, че нейната система за откриване на CSAM, която ще се появи на устройството на потребителя, е в съответствие с нейните дългогодишни ценности за поверителност.

Етикети: поверителност на Apple , WashingtonPost.com , функции за безопасност на децата на Apple