Даркнет маркет по продаже наркотиков и не только! Используй VPN для доступа!

Ссылка на Гидра сайт зеркало - hydra2web.cm
Ссылка на Гидра через Tor: hydrarulpfiemp3khy7bjlmdbgeewzghah2p2vail4gc3xlxkq3dsvyd.onion

Apple удалила упоминания системы поиска запрещённых фото детей со своего сайта - Высокие технологии - статьи новости обзоры Apple удалила упоминания системы поиска запрещённых фото детей со своего сайта - Высокие технологии - статьи новости обзоры
Search

Apple удалила упоминания системы поиска запрещённых фото детей со своего сайта

26

Apple без лишней шумихи убрала все упоминания о функции обнаружения на своих устройствах изображений, содержащих сцены жестокого обращения с детьми (CSAM), со своей веб-страницы, посвящённой безопасности детей. Предполагается, что спорный план компании по сканированию всех изображений на iPhone и iPad на предмет запрещённых фотографий может быть остановлен после волны критики в адрес компании.


Apple удалила упоминания системы поиска запрещённых фото детей со своего сайта

В августе Apple объявила о планах по внедрению новых функций для обеспечения безопасности детей, включая сканирование пользовательских фотографий на iPhone и iPad на предмет наличия материалов, содержащих изображения насилия над детьми, а также функции, направленные на определение отправки или получения детьми изображений откровенного характера и оповещение об этом родителей. Эти меры подверглись критике со стороны широкого круга лиц и организаций, включая авторитетных исследователей безопасности, политиков, правозащитников и некоторых сотрудников Apple.

Первоначально Apple пыталась развеять опасения, связанные с новыми функциями безопасности, и успокоить пользователей, опубликовав ответы на часто задаваемые вопросы, касающиеся этих возможностей. Однако, несмотря на усилия Apple, разногласия не утихли. Компания в конечном итоге запустила функцию, которая определяет получение и отправку изображений откровенного характера, но решила отложить внедрение технологии поиска изображений, содержащих сцены насилия над детьми, в пользовательских библиотеках iCloud.

Apple заявила, что её решение отложить запуск функции было обусловлено отзывами клиентов, правозащитников и других деятелей. Компания говорит, что намерена выделить дополнительное время, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти важные для защиты безопасности детей функции. Это заявление было добавлено на веб-страницу Apple, посвящённую безопасности детей, но теперь оно исчезло вместе с любыми упоминаниями о CSAM.

Источник




Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *