20 апреля суббота

Apple отложила внедрение функции сканирования фотографий на iPhone по поиску детского порно

Корпорация Apple временно отказалась от внедрения системы поиска на iPhone запрещенных фотографий с сексуальным насилием над детьми - детским порно (CSAM - Child Sexual Abuse Material), которая должна была появиться в осеннем обновлении вместе с iOS 15, iPadOS 15, watchOS 8 и macOS 12 Monterey.

Лента новостей
4 сентября 2021, Екатерина Войнова | 👁 19688

Apple отложила внедрение функции сканирования фотографий на iPhone по поиску детского порно

Корпорация Apple временно отказалась от внедрения системы поиска на iPhone запрещенных фотографий с сексуальным насилием над детьми - детским порно (CSAM - Child Sexual Abuse Material), которая должна была появиться в осеннем обновлении вместе с iOS 15, iPadOS 15, watchOS 8 и macOS 12 Monterey.

Корпорация Apple временно отказалась от внедрения системы поиска на iPhone запрещенных фотографий с сексуальным насилием над детьми — детским порно (CSAM — Child Sexual Abuse Material), которая должна была появиться в осеннем обновлении вместе с iOS 15, iPadOS 15, watchOS 8 и macOS 12 Monterey. Об этом сообщает пресс-служба компании.

Как заверяла компания, распознавание в новой технологии NeuralMatch потенциально противоправного контента будет проходить с помощью программ машинного обучения, и лишь только при превышении определенного порогового значения будет задействован человек. Однако представленная система идентификации запрещенных фотографий с сексуальным насилием над детьми (CSAM) подверглась критике пользователей и экспертов по причине того, что такая инициатива приведет к разглашению личной информации.

“В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от насильников, использующих средства коммуникации для их вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, групп по защите интересов, исследователей и других лиц, мы решили в ближайшие месяцы уделить дополнительное время тому, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции безопасности детей”  — говорится в заявлении Apple.

На этой неделе американский Фонд Electronic Frontier Foundation также заявил, что было собрано более 25 000 подписей от потребителей. Более того, около 100 политических и правозащитных групп, включая Американский союз гражданских свобод, также призвали корпорацию Apple отказаться от внедрения представленной функции.

Американский профессор компьютерных наук в Институте информационной безопасности Джонса Хопкинса Мэттью Грин отметил, что обычные пользователи ничего не знают об алгоритме анализа.

«Но даже если вы считаете, что Apple не допустит неправильного использования этих инструментов, есть о чем беспокоиться. Эти системы полагаются на базу данных «проблемных медиа-хешей», которые вы, как потребитель, не можете просмотреть. Хеши используют новый запатентованный алгоритм нейронного хеширования, разработанный Apple, и получил согласие NCMEC на использование. Мы мало знаем об этом алгоритме», — писал он своей странице в Twitter.

Когда компания внедрит систему поиска детского порно пока неизвестно. Сейчас они нацелены на внесение улучшений в новое программное обеспечение смартфонов.

Несмотря на то, что корпорация подверглась критике, она все равно считает представленную технологию сканирования фотографий необходимой для защиты детей от жестокого обращения. Однако сама реализация отложенной на неопределенной срок функции затронет пока только американских пользователей.

Ранее сетевое издание RUNET.NEWS сообщило, что WhatsApp выступила против плана Apple по анализу фотографий на iPhone.

Новости smi2.ru
Комментарии 0
Зарегистрируйтесь или , чтобы оставлять комментарии.