- Apple объявила, что начнёт проверять изображения на устройствах пользователей на предмет детской порнографии. Функция появится в течение пары месяцев в iOS 15, iPadOS 15, watchOS 8 и macOS Monterey.
- Технология под названием NeuralHash разработана с учётом приватности пользователей, утверждает Apple. Речь идёт об анализе изображений на локальных устройствах с помощью алгоритмов машинного обучения и сопоставления хеш-сумм с базой данных известных изображений. Само хранилище iCloud при этом сканироваться не будет.
- Если число подозрительных снимков будет подходить к установленному порогу, отчёты будут проверяться вручную. В случае подтверждения выводов алгоритма данные будут передаваться в правоохранительные органы.
- Сканирование коснётся также изображений, пересылаемых через iMessage. Если на устройство придёт фотография неподобающего содержания, она станет размытой. Функция предполагает родительский контроль: если такое будет происходить на устройстве ребёнка, родители получат предупреждение.
- Эксперты опасаются, что инициатива в конечном итоге приведёт к децентрализованной массовой слежке за смартфонами и ноутбуками пользователей. Власти разных стран в конечном итоге могут попытаться заставить Apple перенаправить алгоритм на другие цели с целью получения доступа к личным данным своих граждан.
|