Apple News

Apple се справя с опасенията за откриване на CSAM, ще обмисли разширяване на системата на база на всяка държава

Петък, 6 август 2021 г., 11:25 ч. PDT от Джо Росиньол

Apple тази седмица обяви това, започвайки по-късно тази година с iOS 15 и iPadOS 15, компанията ще може да открие известни изображения за материал за сексуално насилие над деца (CSAM), съхранявани в iCloud Photos , което позволява на Apple да докладва за тези случаи на Националния център за изчезнали и експлоатирани деца, организация с нестопанска цел, която работи в сътрудничество с правоприлагащите органи в Съединените щати.





блок диаграма на apple csam
Плановете имат предизвика опасения сред някои изследователи по сигурността и други партии, че Apple в крайна сметка може да бъде принудена от правителствата да добавят изображения, които не са CSAM, към хеш списъка за злобни цели, като например за потискане на политическия активизъм.

„Без значение колко добронамерено е, Apple въвежда масово наблюдение в целия свят с това“, казах известният разобличител Едуард Сноудън, добавяйки, че „ако могат да сканират за детско порно днес, те могат да сканират за всичко утре“. Фондация Electronic Frontier с нестопанска цел също критикува плановете на Apple , заявявайки, че „дори и задълбочено документирана, внимателно обмислена и ограничена задна врата все още е задна врата“.



За да отговори на тези опасения, Apple предостави допълнителен коментар за своите планове днес.

Известната система за откриване на CSAM на Apple ще бъде ограничена до Съединените щати при стартирането и за да се справи с потенциала някои правителства да се опитат да злоупотребяват със системата, Apple потвърди пред Eternal, че компанията ще обмисли всяка потенциална глобална експанзия на системата в страна- по държави след извършване на правна оценка. Apple не предостави времева рамка за глобално разширяване на системата, ако такъв ход някога се случи.

Apple също така разгледа хипотетичната възможност конкретен регион в света да реши да корумпира организация за безопасност в опит да злоупотреби със системата, като отбеляза, че първият слой на защита на системата е неразкрит праг, преди потребителят да бъде маркиран за наличие на неподходящи изображения. Дори ако прагът бъде надвишен, Apple заяви, че процесът на ръчен преглед ще послужи като допълнителна бариера и ще потвърди липсата на известни CSAM изображения. Apple заяви, че в крайна сметка няма да докладва маркирания потребител на NCMEC или правоприлагащите органи и че системата ще продължи да работи точно както е проектирано.

къде е папката ми с библиотека на mac

Apple също така подчерта някои привърженици на системата, като някои страни похвалиха компанията за усилията й да се бори с насилието над деца.

„Ние подкрепяме продължаващото развитие на подхода на Apple към онлайн безопасността на децата“, каза Стивън Балкам, главен изпълнителен директор на Family Online Safety Institute. „Като се имат предвид предизвикателствата, пред които са изправени родителите при защитата на децата си онлайн, наложително е технологичните компании непрекъснато да повтарят и подобряват своите инструменти за безопасност, за да отговорят на нови рискове и реални щети.“

Apple призна, че няма сребърен отговор, тъй като се отнася до потенциала на системата да бъде злоупотребена, но компанията заяви, че се ангажира да използва системата единствено за откриване на известни CSAM изображения.

Забележка: Поради политическия или социалния характер на дискусията по тази тема, дискусионната нишка се намира в нашата Политически новини форум. Всички членове на форума и посетители на сайта са добре дошли да четат и следват темата, но публикуването е ограничено до членове на форума с най-малко 100 публикации.