FYI.

This story is over 5 years old.

Tecnologia

Gli hacker possono bisbigliare comandi a Siri senza farsi sentire

DolphinAttack mostra la vulnerabilità degli assistenti vocali.
Riccardo Coluccini
Macerata, IT
Immagine: Shutterstock

Dei ricercatori dell'Università Zhejiang hanno recentemente pubblicato un paper in cui dimostrano come gli assistenti vocali presenti su diversi dispositivi possano essere costretti ad eseguire comandi attraverso l'invio di un segnale audio impercettibile per l'orecchio umano — l'attacco è stato rinominato DolphinAttack.

I sistemi di riconoscimento vocale come Siri, Google Now, ed Alexa stanno diventando il metodo preferito per interfacciarsi con i dispositivi tecnologici — l'accessibilità ed i miglioramenti nell'accuratezza del riconoscimento vocale stanno infatti trainando il settore.

Pubblicità

In passato sono stati dimostrati esempi di attacchi che prevedono l'invio di segnali audio incomprensibili per le persone ma comunque udibili. In questo caso, invece, i ricercatori hanno sfruttato una vulnerabilità dell'hardware dei microfoni ed utilizzato segnali ad ultrasuoni — suoni di frequenza superiore ai 20kHz — per far eseguire comandi agli assistenti vocali senza che le persone possano accorgersene.

Il DolphinAttack è stato testato su Siri, Google Now, Samsung S Voice, Huawei HiVoice, Cortana ed Alexa, ed ha permesso di attivare chiamate su FaceTime e persino modificare le impostazioni di rete degli smartphone attivando la modalità aereo.

Sfruttando una caratteristica dei filtri passa basso presenti nei microfoni — necessari per selezionare il range di frequenze che possono essere acquisite — è possibile introdurre nei dispositivi audio con frequenze maggiori di quelle permesse; inoltre, sfruttando la possibilità di ricostruire messaggi vocali sequenziando diverse fonti audio sono riusciti anche a superare il sistema di sblocco di alcuni dispositivi basato sul riconoscimento vocale.

Infatti, il funzionamento degli assistenti vocali passa attraverso due fasi distinte, spiegano i ricercatori nel paper, l'attivazione ed il riconoscimento. Per attivare il sistema è necessario utilizzare delle parole specifiche — come ad esempio "Alexa" o "Ok Google" — ma non sempre queste formule sono collegate all'identità della persona che sta parlando.

Pubblicità

"Questo tipo di attacco nasconde del tutto la sua esecuzione alla vittima."

Il caso dei dispositivi Alexa attivati dall'audio di un programma televisivo che li ha indotti ad effettuare acquisti è l'emblema dei problemi di sicurezza dei dispositivi con interfaccia vocale. I ricercatori sono riusciti a creare dei comandi di attivazione sfruttando diversi sistemi già in mercato che offrono la funzione di text-to-speech per creare audio con diverse tonalità e timbri vocali, in modo da superare l'attivazione dell'assistente vocale. Una volta attivi, gli assistenti vocali accettano comandi da qualunque voce.

"Questo tipo di attacco nasconde del tutto la sua esecuzione alla vittima," sottolinea Stefano Zanero, professore di sicurezza informatica presso il Politecnico di Milano, contattato telefonicamente.

Se da un lato possono esserci dubbi sulla sua effettiva esecuzione in contesti reali, dall'altro questo paper rimarca la necessità di riflettere maggiormente sulle funzioni degli assistenti vocali: "la modalità di utilizzo dei voice assistant richiede che i dispositivi siano sempre in ascolto e questo rappresenta una vulnerabilità congenita, non è soltanto un difetto," sottolinea Zanero.

Si tratta quindi di un compromesso fra la facilità di utilizzo e l'estensione della superficie di attacco, e proprio nel paper vengono descritti alcuni attacchi eseguibili, come ad esempio costringere lo smartphone a visitare un sito che contiene malware, effettuare una chiamata permettendo così di spiare la conversazione fra presenti, o addirittura creare disservizi alla rete costringendo il dispositivo ad entrare in modalità aereo.

Inoltre, essendo un problema collegato ai componenti hardware, per poter risolvere la vulnerabilità è necessario che i produttori richiamino tutti i dispositivi — fatto altamente improbabile.

"Mi sembra un attacco interessante dal punto di vista tecnico, che dimostra come la presenza di un assistente vocale costantemente attivo sia una finestra verso il nostro dispositivo," conclude Zanero, "e questo ci deve far riflettere sulle funzioni ed attività che vogliamo lasciare in mano a questi assistenti."