Apple News

Крейг Федериги признава объркването около функциите за безопасност на децата на Apple и обяснява нови подробности за предпазните мерки

Петък, 13 август 2021 г., 7:33 ч. PDT от Хартли Чарлтън

Старши вицепрезидент по софтуерно инженерство на Apple, Крейг Федериги, днес защити противоречивия план на компанията функции за безопасност на децата в значимо интервю с The Wall Street Journal , разкривайки редица нови подробности за предпазните мерки, вградени в системата на Apple за сканиране на библиотеки със снимки на потребителите за материали за сексуално насилие над деца (CSAM).





поверителност на craig wwdc 2021
Федериги призна, че Apple се е справила с това от миналата седмица съобщение от двете нови функции лошо, свързани с откриването на явно съдържание в Съобщения за деца и CSAM съдържание, съхранявано в iCloud снимки библиотеки и призна широко разпространеното объркване около инструментите:

Наистина е ясно, че много съобщения са разбъркани доста зле по отношение на това как са били разбрани нещата. Искаме това да излезе малко по-ясно за всички, защото се чувстваме много позитивни и силно за това, което правим.



как да нулирате серия часовник на Apple Watch 3

[...]

Погледнато назад, въвеждането на тези две функции едновременно беше рецепта за този вид объркване. Като ги пуснаха едновременно, хората технически ги свързаха и много се уплашиха: какво се случва с моите съобщения? Отговорът е...нищо не се случва с вашите съобщения.

Функцията Communications Safety означава, че ако децата изпращат или получават явни изображения чрез iMessage, те ще бъдат предупредени, преди да го гледат, изображението ще бъде замъглено и ще има опция родителите им да бъдат предупредени. CSAM сканирането, от друга страна, се опитва да съпостави снимките на потребителите с хеширани изображения на известни CSAM, преди да бъдат качени в iCloud. След това акаунти, за които е открит CSAM, ще бъдат предмет на ръчен преглед от Apple и може да бъдат докладвани на Националния център за изчезнали и експлоатирани деца (NCMEC).

как да изключите контролния център на iphone

Новите функции бяха обект на голяма критика от потребителите, изследователи по сигурността , на Electronic Frontier Foundation (EFF) и Едуард Сноудън , Бившият шеф на сигурността на Facebook , и дори Служители на Apple .

На фона на тези критики Федериги обърна внимание на една от основните области на безпокойство, като подчерта, че системата на Apple ще бъде защитена срещу възползване от правителства или други трети страни с „множество нива на одитиране“.


Федериги също така разкри редица нови подробности около предпазните мерки на системата, като например факта, че потребителят ще трябва да отговаря на около 30 съвпадения за CSAM съдържание в своите Снимки библиотека преди Apple да бъде предупреден, след което ще потвърди дали тези изображения изглеждат истински екземпляри на CSAM.

Ако и само ако срещнете праг на нещо от порядъка на 30 съвпадащи известни детски порнографски изображения, само тогава Apple знае нещо за вашия акаунт и знае нещо за тези изображения и в този момент знае само за тези изображения, а не за някое от другите ви изображения. Това не е някакъв анализ, защото имахте ли снимка на детето си във ваната? Или, по този въпрос, имахте ли снимка на някаква порнография от някакъв друг вид? Това буквално съответства само на точните пръстови отпечатъци на конкретни известни детски порнографски изображения.

Той също така посочи предимството за сигурност от поставянето на процеса на съпоставяне на iPhone директно, а не да се случва на сървърите на ‌iCloud‌.

Тъй като е на [телефона], изследователите по сигурността са в състояние постоянно да интроспектират какво се случва в софтуера [телефон] на Apple. Така че, ако бяха направени промени, които трябваше да разширят обхвата на това по някакъв начин — по начин, който се ангажирахме да не правим — има възможност за проверка, те могат да забележат, че това се случва.

На въпрос дали базата данни от изображения, използвани за съвпадение на CSAM съдържание на устройствата на потребителите, може да бъде компрометирана чрез вмъкване на други материали, като политическо съдържание в определени региони, Федериги обясни, че базата данни е изградена от известни CSAM изображения от множество организации за безопасност на децата, като поне две са „в различни юрисдикции“, за да се предпазят от злоупотреба със системата.

кога ще бъде изпратен моят iphone 7 plus

Тези организации за закрила на детето, както и независим одитор, ще могат да проверят дали базата данни с изображения се състои само от съдържание от тези субекти, според Федериги.

Интервюто на Федериги е сред най-големите PR отблъсквания от Apple досега след смесения обществен отговор на обявяването на функциите за безопасност на децата, но компанията също многократно се опитва да отговори на притесненията на потребителите , публикуване на често задавани въпроси и пряко адресиране на проблеми в интервюта с медиите .

Етикети: The Wall Street Journal , Крейг Федериги , Apple функции за безопасност на децата