Американские ученые протестировали голосовые ассистенты с целью выяснить, как они реагируют на звуки, которые не способно воспринимать человеческое ухо. Siri, как и другие голосовые помощники, провалила тестирование. Ее удалось взломать ультразвуком.
Используя генератор ультразвуковых частот, студенты Калифорнийского университета (Беркли) и университета Джорджтаун (Вашингтон) вставили необходимые команды непосредственно в музыкальные треки и обычную речь. Замаскированная команда предлагала Siri и Amazon Alexa добавить в список покупок тот или иной предмет. При воспроизведении ни один человек не мог расслышать, что именно звучит в команде.
А вот ассистенты воспринимали обращение и послушно подчинялись. Первый подобный эксперимент был проведен еще год назад. Похоже, что за это время разработчики так и не закрыли дыру в безопасности ассистентов.