Apple відмовилась від скандальної функції сканування фото в iPhone

Компанія Apple по-тихому видалила всі згадки про функції віддаленого сканування фотографій iPhone на предмет дитячої порнографії зі свого сайту.

У серпні 2021 року Apple анонсувала нові функції безпеки дітей, включаючи сканування власних фотографій iCloud на предмет матеріалів про сексуальне насильство над дітьми (CSAM), безпеку спілкування для попередження дітей та їхніх батьків при отриманні або надсиланні фотографій відверто сексуального характеру та розширене керівництво CSAM у Siri та пошуку Spotlight.

Компанія планувала впровадити їх у США до кінця 2021 року, але, мабуть, після шквалу критики з боку дослідників безпеки, різних організацій та Едварда Сноудена вирішила відкласти запуск.

Сама Apple заявила, що її рішення відкласти запуск функції CSAM “засновано на відгуках клієнтів, груп захисту інтересів, дослідників та інших осіб”. Тепер компанія планує доопрацювати функції безпеки протягом найближчих місяців, але терміни їх впровадження поки що невідомі.

Джерело Мacrumors
Не пропустіть