Utilizzi Alexa, Google Assistant e simili? I ladri ti possono entrare in casa e non solo

Condividi l'articolo

Che ne pensi?
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0

Iniezione audio basata su laser su sistemi a controllo vocale

Light Commands è una vulnerabilità dei microfoni MEMS che consente agli aggressori di iniettare da remoto comandi impercettibili e invisibili negli assistenti vocali, come l’assistente Google, Amazon Alexa, il portale Facebook e Apple Siri utilizzando la luce.

In questo articolo dimostriamo questo effetto, utilizzando con successo la luce per iniettare comandi dannosi in diversi dispositivi a comando vocale come altoparlanti intelligenti, tablet e telefoni su grandi distanze e attraverso finestre di vetro.

Le implicazioni dell’iniezione di comandi vocali non autorizzati variano in gravità in base al tipo di comandi che possono essere eseguiti tramite la voce. Ad esempio, in questo articolo mostriamo come un utente malintenzionato può utilizzare comandi vocali iniettati di luce per sbloccare le porte domestiche protette da serratura intelligente della vittima, o persino individuare, sbloccare e avviare vari veicoli.

Guarda i comandi luminosi in azione

Come funzionano i Light Commands?

Puntando il laser attraverso la finestra sui microfoni all’interno di altoparlanti, tablet o telefoni intelligenti, un utente malintenzionato lontano può inviare comandi impercettibili e potenzialmente invisibili che vengono poi eseguiti da Alexa, Portal, Assistente Google o Siri.

A peggiorare le cose, una volta che un utente malintenzionato ha acquisito il controllo su un assistente vocale, l’attaccante può utilizzarlo per rompere altri sistemi. Ad esempio, l’attaccante può:

  • Controlla gli interruttori della casa intelligente
  • Apri le porte del garage intelligente
  • Effettua acquisti online
  • Sblocca e avvia da remoto determinati veicoli
  • Apri i lucchetti intelligenti forzando furtivamente il numero PIN dell’utente.

Ma perché succede questo

I microfoni convertono il suono in segnali elettrici. La principale scoperta dietro i comandi luminosi è che oltre al suono, i microfoni reagiscono anche alla luce diretta su di loro. Pertanto, modulando un segnale elettrico nell’intensità di un raggio di luce, gli aggressori possono indurre i microfoni a produrre segnali elettrici come se ricevessero audio autentico.

Ok, ma cosa c’entrano gli assistenti vocali?

Gli assistenti vocali si affidano intrinsecamente alla voce per interagire con l’utente. Puntando un laser sui propri microfoni, un utente malintenzionato può effettivamente dirottare l’assistente vocale e inviare comandi impercettibili ad Alexa, Siri, Portal o Google Assistant.

Qual è la gamma di comandi luminosi?

La luce può facilmente percorrere lunghe distanze, limitando l’attaccante solo nella capacità di focalizzare e puntare il raggio laser. Abbiamo dimostrato l’attacco in un corridoio di 110 metri, che è il corridoio più lungo a nostra disposizione al momento della scrittura.

Ma come posso puntare il laser con precisione e a tali distanze?

Affinché i comandi della luce funzionino sono effettivamente necessari un puntamento accurato e una focalizzazione laser. Per mettere a fuoco il laser su grandi distanze è possibile utilizzare un teleobiettivo disponibile in commercio. La mira può essere eseguita utilizzando una testa del treppiede a ingranaggi, che aumenta notevolmente la precisione. Un utente malintenzionato può utilizzare un telescopio o un binocolo per vedere le porte del microfono del dispositivo a grandi distanze.

Quali dispositivi sono suscettibili ai comandi luminosi?

Nei nostri esperimenti, testiamo il nostro attacco sui sistemi di riconoscimento vocale più popolari, ovvero Amazon Alexa, Apple Siri, Facebook Portal e Google Assistant. Confrontiamo più dispositivi come altoparlanti intelligenti, telefoni e tablet, nonché dispositivi di terze parti con riconoscimento vocale integrato.

Dispositivo Sistema di Riconoscimento Vocale Potenza laser minima
a 30 cm [mW]
Distanza massima
a 60 mW [m] *
Distanza massima
a 5 mW [m] **
Google Home Google Assistant 0.5 50+ 110+
Google Home mini Google Assistant 16 20
Google NEST Cam IQ Google Assistant 9 50+
Echo Plus 1st Generation Amazon Alexa 2.4 50+ 110+
Echo Plus 2nd Generation Amazon Alexa 2.9 50+ 50
Echo Amazon Alexa 25 50+
Echo Dot 2nd Generation Amazon Alexa 7 50+
Echo Dot 3rd Generation Amazon Alexa 9 50+
Echo Show 5 Amazon Alexa 17 50+
Echo Spot Amazon Alexa 29 50+
Facebook Portal Mini Alexa + Portal 18 5
Fire Cube TV Amazon Alexa 13 20
EchoBee 4 Amazon Alexa 1.7 50+ 70
iPhone XR Siri 21 10
iPad 6th Gen Siri 27 20
Samsung Galaxy S9 Google Assistant 60 5
Google Pixel 2 Google Assistant 46 5

Sebbene non affermiamo che il nostro elenco di dispositivi testati sia esaustivo, sosteniamo che fornisce alcune intuizioni sulla vulnerabilità dei comuni sistemi di riconoscimento vocale ai comandi leggeri.
Nota:
* Limitato a un corridoio lungo 50 m.
** Limitato a un corridoio lungo 110 m.

Il riconoscimento dell’altoparlante può proteggermi dai comandi luminosi?

Al momento della scrittura, il riconoscimento dell’altoparlante è disattivato per impostazione predefinita per gli altoparlanti intelligenti ed è abilitato solo per impostazione predefinita per dispositivi come telefoni e tablet. Pertanto, i comandi luminosi possono essere utilizzati su questi altoparlanti intelligenti senza imitare la voce del proprietario. Inoltre, anche se abilitato, il riconoscimento dell’altoparlante verifica solo che le parole di attivazione (ad esempio, “Ok Google” o “Alexa”) siano dette con la voce del proprietario e non il resto del comando. Ciò significa che è possibile utilizzare un “OK Google” o “Alexa” pronunciato dal proprietario per compromettere tutti i comandi. Infine, come dimostriamo nel nostro lavoro, il riconoscimento dell’oratore per le parole di attivazione è spesso debole e talvolta può essere aggirato da un utente malintenzionato utilizzando strumenti di sintesi vocale in linea per imitare la voce del proprietario.

I comandi luminosi richiedono attrezzature speciali? Come posso costruire una tale configurazione?

L’attacco Light Commands può essere montato utilizzando un semplice puntatore laser ($ 13,99, $ 16,99 e $ 17,99 su Amazon), un driver laser (Wavelength Electronics LD5CHA, $ 339) e un amplificatore del suono (Neoteck NTK059, $ 27,99 su Amazon). Un teleobiettivo (Opteka 650-1300 mm, $ 199,95 su Amazon) può essere utilizzato per mettere a fuoco il laser per attacchi a lungo raggio.

Quanto sono vulnerabili gli altri sistemi a controllo vocale?

Anche se il nostro articolo si concentra su Alexa, Siri, Portal e Google Assistant, la vulnerabilità di base sfruttata da Light Commands deriva da problemi di progettazione nei microfoni MEMS. Pertanto, qualsiasi sistema che utilizza microfoni MEMS e agisce su questi dati senza ulteriore conferma dell’utente potrebbe essere vulnerabile.

Come posso rilevare se qualcuno ha usato i comandi leggeri contro di me?

Mentre l’iniezione di comandi tramite la luce non emette alcun suono, un utente attento può notare il raggio di luce dell’aggressore riflesso sul dispositivo di destinazione. In alternativa, si può tentare di monitorare la risposta verbale del dispositivo e i cambiamenti dello schema luminoso, che servono entrambi come conferma del comando.

I comandi leggeri sono stati abusati in natura?

Finora non abbiamo visto alcuna indicazione che questo attacco sia stato sfruttato in modo dannoso.

L’effetto dipende dal colore del laser o dalla lunghezza d’onda?

Durante i nostri esperimenti, notiamo che gli effetti sono generalmente indipendenti dal colore e dalla lunghezza d’onda. Sebbene le luci blu e rosse siano sugli altri bordi dello spettro visibile, i livelli del segnale audio iniettato sono nella stessa gamma e anche le forme delle curve di risposta in frequenza sono simili.

Devo usare un laser? E le altre fonti di luce?

In linea di principio qualsiasi luce abbastanza brillante può essere utilizzata per montare il nostro attacco. Ad esempio, la torcia a eccitazione laser Acebeam W30 può essere utilizzata come alternativa a un diodo laser.

È possibile mitigare questo problema?

Un ulteriore livello di autenticazione può essere efficace per mitigare in qualche modo l’attacco. In alternativa, nel caso in cui l’aggressore non possa intercettare la risposta del dispositivo, fare in modo che il dispositivo ponga all’utente una semplice domanda casuale prima dell’esecuzione del comando può essere un modo efficace per impedire all’attaccante di ottenere l’esecuzione del comando con successo.

I produttori possono anche tentare di utilizzare tecniche di fusione dei sensori, come acquisire l’audio da più microfoni. Quando l’attaccante utilizza un singolo laser, solo un singolo microfono riceve un segnale mentre gli altri non ricevono nulla. Pertanto, i produttori possono tentare di rilevare tali anomalie, ignorando i comandi iniettati.

Un altro approccio consiste nel ridurre la quantità di luce che raggiunge il diaframma del microfono utilizzando una barriera che blocca fisicamente i raggi di luce dritti per eliminare la linea di vista sul diaframma, oppure implementare una copertura non trasparente sopra il foro del microfono per attenuare la quantità di luce che colpisce il microfono. Tuttavia, notiamo che tali barriere fisiche sono efficaci solo fino a un certo punto, poiché un attaccante può sempre aumentare la potenza del laser nel tentativo di compensare l’attenuazione indotta dalla copertura o per bruciare le barriere, creando un nuovo percorso di luce.

Il raggio laser utilizzato nell’attacco è sicuro?

La radiazione laser richiede controlli speciali per la sicurezza, poiché i laser ad alta potenza potrebbero causare rischi di incendio, danni agli occhi e danni alla pelle. In questo lavoro, consideriamo laser di Classe 3R e Classe 3B a bassa potenza. I dispositivi di classe 3R (come i comuni puntatori laser) emettono meno di 5 mW di potenza ottica e sono considerati sicuri per gli occhi umani per brevi periodi di esposizione.

I sistemi di classe 3B emettono tra 5 e 500 mW e potrebbero causare lesioni agli occhi anche per brevi periodi di esposizione al raggio. Chiediamo che i ricercatori ricevano una formazione formale sulla sicurezza del laser e l’approvazione dei progetti sperimentali prima di tentare la riproduzione del nostro lavoro.

Perché si chiama Light Commands?

Il nostro lavoro si chiama Light Commands poiché sfruttiamo la luce (al contrario del suono) come mezzo principale per trasmettere il comando al microfono.

Articolo tradotto da: https://lightcommands.com/

Dite la vostra!

Che ne pensate di questo articolo? Eviterete di utilizzare dispositivi a controllo vocale o prenderete le dovute precauzioni? Esprimete la vostra opinione lasciando un commento nell’apposita sezione che trovate più in basso.

Per altre domande, informazioni o assistenza nel mondo della tecnologia, potete inviare una email all’indirizzo [email protected].

Che ne pensi?
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0

Condividi l'articolo

Iscriviti al blog tramite email

Inserisci il tuo indirizzo e-mail per iscriverti a questo blog, e ricevere via e-mail le notifiche di nuovi post.

0 0 votes
Article Rating

Rispondi

0 Commenti
Inline Feedbacks
View all comments
Stai visitando il sito con Adblock In questo modo rendi inutile il mio lavoro. Se ci tieni al nostro futuro, per favore disabilita Adblock!
You are visiting the site with Adblock (This will make my work useless). If you care about our future, please disable Adblock!

Clicca con il tasto destro del mouse sull’icona di uno di questi Adblock del tuo browser…

Questa immagine ha l'attributo alt vuoto; il nome del file è adb-2.jpeg

…e disabilitalo come da esempio:

Aggiornando la pagina ora potrai navigare liberamente su guruhitech.com. Grazie! 🙂

0
Would love your thoughts, please comment.x