Apple News

Apple публикува често задавани въпроси, за да отговори на опасенията относно откриването на CSAM и сканирането на съобщения

Понеделник, 9 август 2021 г., 2:50 ч. PDT от Тим ​​Хардуик

Apple публикува често задавани въпроси, озаглавен „Разширени защити за деца“, който има за цел да успокои опасенията за поверителността на потребителите относно новото откриване на CSAM в iCloud снимки и комуникационна безопасност за функциите на Messages, които компанията обяви миналата седмица .





поверителността на ябълката
„Откакто обявихме тези функции, много заинтересовани страни, включително организации за поверителност и организации за безопасност на децата, изразиха подкрепата си за това ново решение, а някои се обърнаха с въпроси“, се казва в ЧЗВ. „Този ​​документ служи за справяне с тези въпроси и осигурява повече яснота и прозрачност в процеса.“

Някои дискусии замъглиха разликата между двете функции и Apple полага големи усилия в това документ да ги разграничи, обяснявайки, че безопасността на комуникацията в Messages „работи само върху изображения, изпратени или получени в приложението Messages за детски акаунти, настроени в Family Sharing“, докато откриването на CSAM в ‌iCloud Photos‌ „влияе само на потребители, които са избрали да използват ‌iCloud Photos‌ да съхраняват техните снимки... Няма влияние върху други данни на устройството.'



От ЧЗВ:

как да отмените абонаментите на iphone

Тези две функции не са еднакви и не използват една и съща технология.

Безопасността на комуникацията в Messages е предназначена да даде на родителите и децата допълнителни инструменти, които да помогнат да защитят децата си от изпращане и получаване на сексуално изрични изображения в приложението Messages. Работи само върху изображения, изпратени или получени в приложението Messages за детски акаунти, настроени в Family Sharing. Той анализира изображенията на устройството и така не променя гаранциите за поверителност на Messages. Когато детски акаунт изпраща или получава изображения с явен сексуален характер, снимката ще бъде замъглена и детето ще бъде предупредено, ще бъде представено с полезни ресурси и ще бъде успокоено, че е добре, ако не иска да види или изпрати снимката. Като допълнителна предпазна мярка на малките деца може също да се каже, че за да са сигурни, че родителите им ще получат съобщение, ако го видят.

Втората функция, откриване на CSAM в iCloud Photos, е предназначена да държи CSAM изключен от iCloud Photos, без да предоставя информация на Apple за снимки, различни от тези, които съответстват на известни CSAM изображения. CSAM изображенията са незаконни за притежаване в повечето страни, включително Съединените щати. Тази функция засяга само потребители, които са избрали да използват iCloud Photos, за да съхраняват своите снимки. Това не засяга потребителите, които не са избрали да използват iCloud Photos. Няма влияние върху други данни на устройството. Тази функция не се отнася за Messages.

Останалата част от документа е разделена на три секции (с удебелен шрифт по-долу), с отговори на следните често задавани въпроси:

кога излиза ipod touch 7

разлика между 12 и 12 про
    Безопасност на комуникацията в Messages
  • Кой може да използва безопасността на комуникацията в Messages?
  • Това означава ли, че Messages ще споделя информация с Apple или с правоприлагащите органи?
  • Това нарушава ли криптирането от край до край в Messages?
  • Тази функция пречи ли на децата в домовете, където има насилие, да търсят помощ?
  • Ще бъдат ли уведомени родителите, без децата да бъдат предупредени и да им бъде даден избор?
  • Откриване на CSAM
  • Това означава ли, че Apple ще сканира всички снимки, съхранявани на моя iPhone ?
  • Това ще изтегли ли CSAM изображения на моя ‌iPhone‌ да сравним с моите снимки?
  • Защо Apple прави това сега?
  • Сигурност за откриване на CSAM за iCloud Photos
  • Може ли системата за откриване на CSAM в ‌iCloud Photos‌ да се използва за откриване на неща, различни от CSAM?
  • Могат ли правителствата да принудят Apple да добави изображения без CSAM към хеш списъка?
  • Могат ли изображения, които не са CSAM, да бъдат „инжектирани“ в системата, за да се маркират акаунти за неща, различни от CSAM?
  • Ще открие ли CSAM в ‌iCloud Photos‌ фалшиво сигнализират невинни хора пред органите на реда?

Заинтересованите читатели трябва да се запознаят с документа за пълните отговори на Apple на тези въпроси. Въпреки това, заслужава да се отбележи, че за тези въпроси, на които може да се отговори с двоично да/не, Apple започва всички с „Не“ с изключение на следните три въпроса от раздела, озаглавен „Сигурност за откриване на CSAM за ‌ iCloud Photos‌:'

Може ли системата за откриване на CSAM в iCloud Photos да се използва за откриване на неща, различни от CSAM?
Нашият процес е предназначен да предотврати това да се случи. Откриването на CSAM за iCloud Photos е изградено така, че системата да работи само с хешове на CSAM изображения, предоставени от NCMEC и други организации за безопасност на децата. Този набор от хешове на изображения се основава на изображения, придобити и потвърдени като CSAM от организации за безопасност на децата. Няма автоматизирано докладване на правоприлагащите органи и Apple извършва преглед от хора, преди да направи доклад до NCMEC. В резултат на това системата е предназначена само за отчитане на снимки, които са известни като CSAM в iCloud Photos. В повечето страни, включително Съединените щати, простото притежаване на тези изображения е престъпление и Apple е длъжна да докладва всички случаи, за които научим, на съответните органи.

Могат ли правителствата да принудят Apple да добави изображения без CSAM към хеш списъка?
Apple ще откаже подобни искания. Възможността за откриване на CSAM на Apple е изградена единствено за откриване на известни CSAM изображения, съхранявани в iCloud Photos, които са идентифицирани от експерти в NCMEC и други групи за безопасност на децата. Преди сме се сблъсквали с искания за създаване и внедряване на определени от правителството промени, които влошават поверителността на потребителите, и категорично отказвахме тези искания. Ще продължим да им отказваме и занапред. Нека бъдем наясно, тази технология е ограничена до откриване на CSAM, съхранявани в iCloud, и ние няма да се присъединим към искането на никое правителство да я разшири. Освен това Apple извършва преглед от хора, преди да направи доклад до NCMEC. В случай, когато системата маркира снимки, които не съвпадат с известни CSAM изображения, акаунтът няма да бъде деактивиран и няма да бъде подаден доклад до NCMEC.

Могат ли изображения, които не са CSAM, да бъдат „инжектирани“ в системата, за да се маркират акаунти за неща, различни от CSAM?
Нашият процес е предназначен да предотврати това да се случи. Наборът от хешове на изображения, използвани за съпоставяне, са от известни съществуващи изображения на CSAM, които са придобити и потвърдени от организации за безопасност на децата. Apple не добавя към набора от известни хешове на CSAM изображения. Същият набор от хешове се съхранява в операционната система на всеки потребител на iPhone и iPad, така че целенасочени атаки срещу конкретни лица не са възможни според нашия дизайн. И накрая, няма автоматизирано докладване на правоприлагащите органи и Apple извършва преглед от хора, преди да направи доклад до NCMEC. В малко вероятния случай системата да маркира изображения, които не съвпадат с известни CSAM изображения, акаунтът няма да бъде деактивиран и няма да бъде подаден доклад до NCMEC.

Apple се сблъска със значителни критики от защитници на поверителността, изследователи по сигурността, експерти по криптография, учени и други за решението си да внедри технологията с пускането на iOS 15 и iPad 15 , очаква се през септември.

Това е довело до отворено писмо критикувайки плана на Apple да сканира iPhone за CSAM в ‌iCloud Photos‌ и явни изображения в детски съобщения, които са събрали над 5500 подписа към момента на писане. Apple получи критики и от притежаваното от Facebook WhatsApp, чийто шеф Уил Каткарт го нарече „грешен подход и пречка за неприкосновеността на личния живот на хората по целия свят.“ Изпълнителният директор на Epic Games Тим Суини също нападнат решението, като се твърди, че се е „опитал усилено“ да види този ход от гледна точка на Apple, но е стигнал до заключението, че „неизбежно това е правителствен шпионски софтуер, инсталиран от Apple въз основа на презумпция за вина“.

„Без значение колко добронамерено е, Apple въвежда масово наблюдение в целия свят с това“, казах известният разобличител Едуард Сноудън, добавяйки, че „ако могат да сканират за детско порно днес, те могат да сканират за всичко утре“. Фондация Electronic Frontier с нестопанска цел също критикувани Плановете на Apple, в които се посочва, че „дори старателно документирана, внимателно обмислена и тясно обхватна задна врата все още е задна врата“.

как да свържа моя iphone към моя macbook
Етикети: поверителност на Apple , функции за безопасност на децата на Apple