Над 1000 фрази неправилно събуждат гласовите асистенти

Гласовите асистенти могат да се окажат пробив в поверителността за потребителите
(снимка: CC0 Public Domain)

Джаджи с гласови асистенти като Alexa, Assistant и Siri се превърнаха в аксесоари в милиони домове, но защитниците на поверителността отдавна предупреждават, че това не е добре. Ново изследване потвърди, че заплахата за неприкосновеността може да е по-голяма, отколкото се смяташе досега: над 1000 различни фрази „събуждат” асистентите, без потребителят да има намерение да ги използва.

Резултатите показват колко често един обикновено разговор и дума или дори само диалог от телевизионен филм може да задейства гласовия асистент. Оттам насетне той слуша, записва и изпраща звуците до сървъри на Amazon, Apple, Google или друг производител, за да бъдат анализирани думите. Изследователите са открили повече от 1000 последователности от думи, които неправилно и неочаквано задействат умните джаджи.

„Устройствата са умишлено програмирани по един „прощаващ” начин, тъй като се предполага, че трябва да могат да разбират собствениците си”, обяснява един от изследователите – Доротея Колоса. „Следователно е по-вероятно да стартират по-скоро по-често от нужното, отколкото да не се задействат при нужда”.

Примери за думи или последователности от думи, които задействат гласовите асистенти ненужно, включват:

  • При Alexa: „unacceptable” (неприемлив), „election” (избори) и „a letter” (писмо);
  • При Google Home: „OK, cool”, (Окей, хубаво) и „Okay, who is reading” (Окей, кой чете);
  • При Siri: „city” (град) и „хей, Джери”;
  • При Microsoft Cortana: „Монтана”.

При много случаи фразите активират устройството локално, алгоритмите анализират фразите, а ако погрешно заключат, че това е израз за „събуждане”, устройствата изпращат записа към отдалечените сървъри, където по-мощни механизми за проверка анализират думите; те също могат погрешно да ги счетат за фрази за събуждане. В някои случаи думите или фразите провокират само локално разпознаване, но не и алгоритмите „в облака”.

Когато устройствата се „събудят”, според изследователите, машинките записват част от казаното и го предават на производителя. Тогава аудиото може да бъде транскрибирано и проверено от служителите в опит за подобряване на разпознаването на думи. Резултатът: фрагменти от потенциално лични разговори могат да се окажат в логовете на някоя частна компания.

Рискът за неприкосновеността не е само теоретичен. През 2016 г. органите на реда, разследващи убийство, поискаха от Amazon данни на Alexa, предадени в моментите, съвпадащи с престъплението. Миналата година Гардиън съобщи, че служителите на Apple понякога транскрибират чувствителни разговори, чувани от Siri. Това включва дори частни дискусии между лекари и пациенти, бизнес-сделки, сексуални срещи.

Изследователският доклад, озаглавен „Неприемливо! Къде е моята неприкосновеност?” е изготвен от група учени с участието на Леа Шьонхер, Максимилиан Гола, Ян Виле, Торстен Айзенхофер, Доротея Колоса и Торстен Холц от Рурския университет „Бохум” и Институт „Макс Планк” за сигурността и поверителността. В кратко описание на констатациите си учените казват:

„Нашата работа успя да идентифицира повече от 1000 фрази, които неправилно задействат смарт-говорителите. Например, открихме, че в зависимост от произношението, Alexa реагира на думите „неприемлив” и „избори”, докато Google често се задейства „OK, cool”. Siri може да бъде заблуден от „city”, Cortana – от „Монтана”, Амазон – от „zone”…

Изследователите са записали и видео, което показва как се случват объркванията. Те са анализирали гласови асистенти от Amazon, Apple, Google, Microsoft и Deutsche Telekom, както и три китайски от Xiaomi, Baidu и Tencent. Резултатите, публикувани преди броени дни, бяха фокусирани върху първите четири.

Целият доклад тепърва ще бъде публикуван, но и преди това общите констатации свидетелстват, че гласовите асистенти могат да се окажат пробив в поверителността за потребителите, дори когато хората не смятат, че устройствата им ги „слушат”. За тези, които са загрижени за неприкосновеността си, най-добрите решения са устройствата да бъдат изключени „от контакта” или просто да бъде отхвърлено използването им изобщо.

Самите компании-производители на асистентите все още нямат официална позиция относно изводите от изследването. От Amazon посочиха, че не са запознати с методологията на проучването и не могат да потвърдят точността на направените изводи.

„Въпреки това можем да ви уверим, че сме вградили механизми за поверителност дълбоко в услугата Alexa и нашите устройства са проектирани да се събуждат само след откриване на събуждащата дума. Клиентите говорят с Alexa милиарди пъти месечно и в редки случаи устройствата могат да се събудят, след като чуят дума, която звучи подобно на „Alexa” или някоя от другите налични думи за събуждане. Работим така, че разпознаването на събуждащите думи и разпознаването на реч се подобряват с всеки изминал ден – докато клиентите използват своите устройства, ние оптимизираме производителността”.

От компанията увериха, че продължават да инвестират в подобряване на технологията за откриване на събуждащи думи и насърчават изследователите да споделят своята методология, за да отговорят по-подробно.

Коментар