Apple отложила функцию проверки фотографий из-за критики — lkk-mesbyt.ru

«В прошлом месяце мы объявили о планах внедрить функции, призванные помочь защитить детей от преследователей, которые используют средства коммуникации для их привлечения и эксплуатации, а также ограничить распространение материалов с сексуальным насилием над детьми. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили, что нам нужно дополнительное время, чтобы собрать информацию и внести улучшения, прежде чем выпустить эти критически важные функции безопасности детей», — сообщается в письме Apple.

В начале августа компания рассказала о функциях CSAM и заявила, что они появятся на устройствах Apple с выходом новых версий операционных систем для iPhone, iPad, MacBook и Apple Watch позже в этом году. Эти функции включают обнаружение изображений сексуального насилия над детьми в iCloud и блокировку потенциально опасных сообщений. Эксперты в сфере безопасности написали открытое письмо, в котором призвали Apple не реализовывать новые функции, поскольку они нарушают конфиденциальность. Компания подробно описала свои намерения и в общих чертах объяснила, как функции CSAM должны работать, но это ничего не изменило. В конечном счёте Крейг Федериги публично заявил, что произошла путаница из-за одновременного анонса двух новых функций.



Материалы по теме:

    Подноготная Apple: 20 фактов, раскрывшихся в суде против Epic Games
    История iPad: как менялись планшеты Apple из года в год
    История iPhone: чем больше всего запомнились и как они менялись из года в год
    Битва камер: Galaxy S21 Ultra против iPhone 12 Pro Max. Я ожидал другого
    Почему техника Apple такая дорогая: 3 принципа ценовой политики компании

Источник: trashbox.ru

Добавить комментарий