Forklog 2021-09-06 09:22:33

Apple отложила запуск функции обнаружения незаконного контента на устройствах

Компания Apple перенесла развертывание инструмента для сканирования фотографий пользователей на предмет жестокого обращения с детьми (CSAM). Об этом пишет 9to5Mac. В Apple заявили, что отложили запуск средств обнаружения материалов о сексуальном насилии над детьми для «внесения улучшений» после критики. В компании не сообщили о новых сроках релиза инструмента. «На основании отзывов клиентов, групп защиты интересов, исследователей и других людей мы решили выделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции для безопасности детей», — сообщили представители компании. В Apple не поделились деталями возможных улучшений. Ранее корпорация планировала развернуть системы обнаружения CSAM с обновлениями iOS 15, iPadOS 15, watchOS 8 и macOS Monterey, которые выйдут в ближайшие недели. Apple также планировала запустить систему сканирования контента в «Сообщениях», чтобы оградить детей от непристойных изображений, присланных незнакомцами. С помощью машинного обучения приложение может анализировать прикрепленные фотографии и определять, являются ли они сексуально откровенными. В Apple утверждают, что не получат доступ к сообщениям, а алгоритм будет обрабатывать изображения непосредственно на устройстве. Также голосовой помощник Siri и встроенные функции поиска в iOS и macOS будут направлять пользователей к соответствующим ресурсам, когда кто-то спрашивает, как сообщить о CSAM, или пытается выполнить поиск незаконного контента. Напомним, 6 августа Apple рассказала об инструменте для сканирования фотографий пользователей на предмет жестокого обращения с детьми. Спустя четыре дня корпорация опубликовала шестистраничный документ с ответами на вопросы о работе технологии, а также пообещала не превращать его в инструмент слежки. В августе более 90 правозащитных групп со всего мира призвали Apple не использовать функцию массового сканирования фотографий. В середине августа исследователь нашел уязвимость в спорном инструменте, а также обнаружил наличие кода функции обнаружения незаконного контента в iOS 14.3. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Прочтите Отказ от ответственности : Весь контент, представленный на нашем сайте, гиперссылки, связанные приложения, форумы, блоги, учетные записи социальных сетей и другие платформы («Сайт») предназначен только для вашей общей информации, приобретенной у сторонних источников. Мы не предоставляем никаких гарантий в отношении нашего контента, включая, но не ограничиваясь, точность и обновление. Никакая часть содержания, которое мы предоставляем, представляет собой финансовый совет, юридическую консультацию или любую другую форму совета, предназначенную для вашей конкретной опоры для любых целей. Любое использование или доверие к нашему контенту осуществляется исключительно на свой страх и риск. Вы должны провести собственное исследование, просмотреть, проанализировать и проверить наш контент, прежде чем полагаться на них. Торговля - очень рискованная деятельность, которая может привести к серьезным потерям, поэтому проконсультируйтесь с вашим финансовым консультантом, прежде чем принимать какие-либо решения. Никакое содержание на нашем Сайте не предназначено для запроса или предложения