Apple News

Служители на Apple вътрешно изразяват опасения относно плановете за откриване на CSAM

Петък, 13 август 2021 г., 12:43 ч. PDT от Сами Фатхи

Служителите на Apple сега се присъединяват към хора от хора, които изразяват загриженост относно плановете на Apple да сканира iPhone библиотеки със снимки на потребители за CSAM или материали за сексуално насилие над деца, според съобщенията, които говорят вътрешно за това как технологията може да се използва за сканиране на снимки на потребителите за други видове съдържание, според доклад от Ройтерс .





ябълков парк дрон юни 2018 2
Според Ройтерс , неуточнен брой служители на Apple се обърнаха към вътрешни канали на Slack, за да изразят опасения относно откриването на CSAM. По-конкретно, служителите са загрижени, че правителствата могат да принудят Apple да използва технологията за цензура, като намира съдържание, различно от CSAM. Някои служители се притесняват, че Apple уврежда репутацията на водеща в индустрията за поверителност.

Служителите на Apple наводниха вътрешен канал на Apple Slack с повече от 800 съобщения относно плана, обявен преди седмица, казаха за Ройтерс служители, които поискаха да не бъдат идентифицирани. Мнозина изразиха притеснения, че функцията може да бъде използвана от репресивни правителства, които искат да намерят друг материал за цензура или арести, според работници, които са видели дългодневната тема.



Минали промени в сигурността в Apple също предизвикаха безпокойство сред служителите, но обемът и продължителността на новия дебат са изненадващи, казаха работниците. Някои плакати се притесняват, че Apple уврежда водещата си репутация за защита на поверителността.

Според доклада служителите на Apple в роли, свързани със сигурността на потребителите, не се смятат за част от вътрешния протест.

Откакто е съобщение миналата седмица , Apple беше бомбардирана с критики за своите планове за откриване на CSAM, които все още се очаква да се пуснат с iOS 15 и iPadOS 15 тази есен. Притесненията се въртят главно около това как технологията може да представлява хлъзгав наклон за бъдещи реализации от потиснически правителства и режими.

как да видите заряда на airpods

Apple твърдо отблъсна идеята, че технологията на устройството, използвана за откриване на CSAM материал, може да се използва за всякакви други цели. В публикуван документ с често задавани въпроси , компанията казва, че категорично ще откаже всяко подобно искане от страна на правителствата.

Могат ли правителствата да принудят Apple да добави изображения без CSAM към хеш списъка?
Apple ще откаже подобни искания. Възможността за откриване на CSAM на Apple е изградена единствено за откриване на известни CSAM изображения, съхранявани в iCloud Photos, които са идентифицирани от експерти в NCMEC и други групи за безопасност на децата. Преди сме се сблъсквали с искания за създаване и внедряване на определени от правителството промени, които влошават поверителността на потребителите, и категорично отказвахме тези искания. Ще продължим да им отказваме и занапред. Нека бъдем наясно, тази технология е ограничена до откриване на CSAM, съхранявани в iCloud, и ние няма да се присъединим към искането на никое правителство да я разшири. Освен това Apple извършва преглед от хора, преди да направи доклад до NCMEC. В случай, когато системата маркира снимки, които не съвпадат с известни CSAM изображения, акаунтът няма да бъде деактивиран и няма да бъде подаден доклад до NCMEC.

Ан отворено писмо критикувайки Apple и призовавайки компанията незабавно да спре плана си за внедряване на CSAM детекция, събра повече от 7000 подписа към момента на писане. Шефът на WhatsApp също има се включи в дебата .

Етикети: поверителност на Apple , функции за безопасност на децата на Apple