Apple News

Apple представя нови функции за безопасност на децата, включително сканиране на фотобиблиотеките на потребителите за известни материали за сексуално насилие

Четвъртък, 5 август 2021 г., 13:00 PDT от Джо Росиньол

Apple днес визуализирани нови функции за безопасност на децата който ще дойде на своите платформи с актуализации на софтуера по-късно тази година. Компанията заяви, че функциите ще бъдат достъпни в САЩ само при стартирането и ще бъдат разширени в други региони с течение на времето.





функция за безопасност на комуникацията на iphone

Безопасност на комуникацията

Първо, приложението Messages на iPhone, iPad и Mac ще получи нова функция за безопасност на комуникацията, за да предупреждава децата и техните родители, когато получават или изпращат сексуално откровени снимки. Apple заяви, че приложението Messages ще използва машинно обучение на устройството, за да анализира прикачените изображения и ако се определи, че снимката е сексуално изрична, снимката автоматично ще бъде замъглена и детето ще бъде предупредено.



има ли начин да намерите вашия Apple Watch

Когато дете се опита да види снимка, маркирана като чувствителна в приложението Messages, то ще бъде предупредено, че снимката може да съдържа частни части на тялото и че снимката може да е наранена. В зависимост от възрастта на детето ще има и опция за родителите да получат известие, ако детето им продължи да разглежда чувствителната снимка или ако избере да изпрати снимка с явен сексуален характер на друг контакт, след като бъде предупредено.

Apple заяви, че новата функция за безопасност на комуникацията ще се появи в актуализации на iOS 15, iPadOS 15 и macOS Monterey по-късно тази година за акаунти, създадени като семейства в iCloud. Apple гарантира, че разговорите в iMessage ще останат защитени с криптиране от край до край, което прави частните комуникации нечетими от Apple.

Сканиране на снимки за материал за сексуално насилие над деца (CSAM)

Второ, като се започне тази година с iOS 15 и iPadOS 15, Apple ще може да открива известни изображения за сексуално насилие над деца (CSAM), съхранявани в iCloud Photos, което ще позволи на Apple да докладва за тези случаи на Националния център за изчезнали и експлоатирани деца (NCMEC) , организация с нестопанска цел, която работи в сътрудничество с правоприлагащите органи на САЩ.

Apple заяви, че нейният метод за откриване на известни CSAM е проектиран с оглед на поверителността на потребителите. Вместо да сканира изображения в облака, Apple каза, че системата ще извършва съпоставяне на устройството с база данни с известни хешове на изображения CSAM, предоставени от NCMEC и други организации за безопасност на децата. Apple заяви, че допълнително ще трансформира тази база данни в нечетлив набор от хешове, които се съхраняват сигурно на устройствата на потребителите.

Технологията за хеширане, наречена NeuralHash, анализира изображение и го преобразува в уникален номер, специфичен за това изображение, според Apple.

„Основната цел на хеширането е да гарантира, че идентичните и визуално сходни изображения водят до един и същ хеш, докато изображенията, които се различават едно от друго, водят до различни хешове“, каза Apple в нова бяла книга „Разширени защити за деца“. „Например, изображение, което е леко изрязано, преоразмерено или преобразувано от цветно в черно-бяло, се третира идентично с оригинала и има същия хеш.“

блок диаграма на apple csam
Преди изображението да бъде съхранено в iCloud Photos, Apple каза, че се извършва процес на съпоставяне на устройството за това изображение срещу нечетливия набор от известни CSAM хешове. Ако има съвпадение, устройството създава криптографски ваучер за безопасност. Този ваучер се качва в iCloud Photos заедно с изображението и след като неразкрит праг на съвпадения е надвишен, Apple може да интерпретира съдържанието на ваучерите за CSAM съвпадения. След това Apple ръчно преглежда всеки отчет, за да потвърди, че има съвпадение, деактивира iCloud акаунта на потребителя и изпраща отчет до NCMEC. Apple не споделя какъв е точният й праг, но гарантира „изключително високо ниво на точност“, че акаунтите не са маркирани неправилно.

Apple заяви, че нейният метод за откриване на известни CSAM осигурява „значителни ползи за поверителност“ спрямо съществуващите техники:

• Тази система е ефективен начин за идентифициране на известни CSAM, съхранявани в iCloud Photos акаунти, като същевременно защитава поверителността на потребителите.
• Като част от процеса потребителите също не могат да научат нищо за набора от известни CSAM изображения, които се използват за съпоставяне. Това предпазва съдържанието на базата данни от злонамерено използване.
• Системата е много точна, с изключително нисък процент на грешки от по-малко от един на един трилион акаунт годишно.
• Системата запазва значително по-голяма поверителност от облачното сканиране, тъй като отчита само потребители, които имат колекция от известни CSAM, съхранявани в iCloud Photos.

Основната технология зад системата на Apple е доста сложна и тя публикува а техническо резюме с повече подробности.

„Разширената защита на Apple за деца променя играта. С толкова много хора, използващи продукти на Apple, тези нови мерки за безопасност имат животоспасяващ потенциал за деца, които са примамвани онлайн и чиито ужасяващи изображения се разпространяват в материали за сексуално насилие над деца“, каза Джон Кларк, президент и главен изпълнителен директор на Националния център за изчезнали и експлоатирани деца. „В Националния център за изчезнали и експлоатирани деца знаем, че това престъпление може да се бори само ако сме непоколебими в нашата отдаденост да защитаваме децата. Можем да направим това само защото технологичните партньори, като Apple, се засилват и показват своята отдаденост. Реалността е, че поверителността и защитата на детето могат да съществуват съвместно. Ние аплодираме Apple и с нетърпение очакваме да работим заедно, за да направим този свят по-безопасно място за децата.

Разширено ръководство за CSAM в Siri и Търсене

iphone csam siri
Трето, Apple заяви, че ще разширява насоките в Siri и Spotlight Search на всички устройства, като предоставя допълнителни ресурси, за да помогне на децата и родителите да останат в безопасност онлайн и да получат помощ при опасни ситуации. Например потребителите, които питат Siri как могат да докладват за CSAM или експлоатация на деца, ще бъдат насочени към ресурси за това къде и как да подадат отчет.

Актуализациите на Siri и Search идват по-късно тази година в актуализация за iOS 15, iPadOS 15, watchOS 8 и macOS Monterey, според Apple.

Забележка: Поради политическия или социалния характер на дискусията по тази тема, дискусионната нишка се намира в нашата Политически новини форум. Всички членове на форума и посетители на сайта са добре дошли да четат и следват темата, но публикуването е ограничено до членове на форума с най-малко 100 публикации.

Етикети: поверителност на Apple , функции за безопасност на децата на Apple