Apple подали в суд за то, что не реализовали обнаружение CSAM в iCloud
В 2021 году Apple объявил и затем быстро отказался от спорную систему iCloud, которая должна была сканировать фотографии из iMessage и iCloud на предмет наличия материалов о сексуальном насилии над детьми (CSAM).
Система позволила бы Apple анализировать фотографии в устройствах Apple, используемых детьми, но компания оказалась в эпицентре бури из-за опасений по поводу конфиденциальности, высказанных экспертами и правозащитными группами. Apple отказалась от системы, заявив, что "в ближайшие месяцы им потребуется дополнительное время для сбора информации и внесения улучшений, прежде чем выпустить эти критически важные функции обеспечения безопасности детей"
За прошедшие с тех пор годы сайт Apple ничего не говорил о каких-либо функциях, связанных с CSAM. Теперь (через Engadget), иск от жертвы, поданный в окружной суд США в Северной Калифорнии, утверждает, что неспособность Apple разработать меры безопасности привела к тому, что ее изображения распространялись в Интернете в неподобающем виде.
Впервые о сообщила the New York Times, 27-летняя девушка сказала, что она и ее мать постоянно получали уведомления о нескольких людях, обвиненных в хранении. Иск требует финансовой компенсации для 2680 жертв, чьи изображения просочились в Интернет.
Apple представитель компании Фред Сайнц заявил Engadget, что CSAM "отвратительна, и мы намерены бороться с тем, как хищники подвергают детей опасности" Сайнц сказал, что компания "срочно и активно" ищет способы "борьбы с этими преступлениями, не ставя под угрозу безопасность и конфиденциальность всех наших пользователей"
Источник(и)
Источник изображения: Фото: Tayyab Ejaz на Unsplash