Функція “Привіт, Сірі” в iPhone дозволяє таємно підслухувати ваші розмови?

У 2014 році Apple додала в iOS 8 функцію “Привіт, Siri”. Вона дозволила активувати голосового помічника однією фразою. Сьогодні цю фішку підтримують усі пристрої Apple – iPhone, iPad, Apple Watch та MacBook.

Але незадача: виходить, що всі пристрої постійно нас слухають, щоб розпізнати необхідну фразу. А раптом вони можуть підслуховувати те, що не повинні чути? Які у Apple щодо цього є гарантії?

Насправді у компанії все продумали та зробили максимально безпечну систему, яка не дозволить Siri почути ваші розмови. Зараз пояснимо, як це працює.

“Привіт, Siri” раніше працювала не так, як зараз

Коли Apple тільки додала цю фішку в iOS 8, активувати Siri фразою можна було лише тоді, коли iPhone або iPad стояли на зарядці. Причина проста: моніторинг ключової фрази був досить енерговитратним процесом. Актуальні на той час iPhone 4s, 5, 5s та 6 не мали спеціального чіпа Always-on Processor (AOP).

Він з’явився лише у iPhone 6s, як частина співпроцесора M9. Більше того, AOP працює на своїй операційній системі RTKitOS. Відомо, що цей чіп дозволяє працювати функції “Привіт, Siri” і відстежувати розташування iPhone в Локаторі, навіть якщо він вимкнений.

Він незалежний від iOS і має постійний доступ до мікрофону. Ось тут розпочинається справжня магія.

Зараз iPhone чує вас, але не підслуховує

Розробники Apple вигадали хитрий алгоритм виявлення ключової фрази. У спеціальному розділі на сайті Apple з технічною документацією у 2018 році вийшла справжня дослідна стаття, яка пролила світло на багато технічних деталей «Привіт, Siri».

По-перше, референси вашого голосу, які ви вимовляєте під час налаштування Siri, записуються у цей чіп AOP. Потім вони доповнюються новими голосовими ключами майже щоразу, коли ви активуєте Siri. Таким чином, iPhone вчиться реагувати тільки на голос свого власника.

А по-друге, AOP хоч має доступ до мікрофона, але не інтерпретує промову в текст. Тобто не аналізує те, що ви кажете. Це виключає будь-які шанси таємного прослуховування користувача смартфона.

На перший погляд, проста технологія, яка абсолютно унікально влаштована.

Чіп постійно вловлює звукові хвилі, точніше їх відрізки, довжиною всього 0,01 секунди з різною періодичністю. Якщо користувач звертається до голосового помічника, AOP збирає кластер із 20 референсів загальною довжиною 0,2 секунди. Потім вони потрапляють у нейромережу, яка шукає збіги із записаними прикладами.

Тільки якщо ступінь збігів доходить до певної позначки (скільки це у відсотках, Apple не уточнює), iOS надходить команда включити Siri. Ось тоді вже iPhone починає слухати, що ви говорите, та інтерпретувати це у запит. Які потім виконає (або не виконає) Siri.

Незважаючи на велику кількість етапів роботи цієї функції, на запити Siri майже завжди реагує швидко і безпомилково.