Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

DOMOTICA

Assistenti vocali, doppio rischio privacy e security: quali soluzioni

Alexa, Google Home, Cortana le star del nuovo mercato che solo in Italia vale 380 milioni di euro. Ma il loro ingresso nelle abitazioni pone in modo sempre più marcato la gestione di una serie di rischi. Ecco come proteggersi dai vari tipi di minacce

29 Mag 2019

Paolo Ballanti

Tesla Consulting

mente artificiale

Siamo entrati quasi senza accorgerci nell’era degli assistenti vocali. Se da un lato le possibilità offerte sono molteplici, dall’altro non mancano i dubbi su come l’utilizzo di questi dispositivi possa esporci a rischi quali la violazione della nostra sicurezza e della nostra privacy.

Grazie anche alla capacità di governare scenari di “smart home” (centralizzando accensione, spegnimento e regolazione delle luci smart, regolando temperatura e climatizzazione, gestendo agende, sveglie, promemoria, timer, diffondendo contenuti multimediali, aprendo e chiudendo serrande, tende, serrature intelligenti… solo per fare alcuni esempi), la loro diffusione nelle nostre case sta crescendo a ritmo esponenziale.

Ho espressamente citato l’abilitatore di Smart Home in quanto quest’ultimo pare essere un argomento piuttosto sexy, che sta facendo da driver dell’adozione delle tecnologie ad attivazione vocale.

Assistenti vocali, un mercato in esplosione

Nel 2018, il mercato italiano valeva 380 milioni di euro, con una crescita di più del 50% anno su anno; se consideriamo che solo da quell’anno gli smart speaker si sono affacciati definitivamente al mercato italiano, tutto lascia pensare che la crescita sarà molto più importante a partire da quest’anno. È sufficiente analizzare i dati di altri paesi che hanno avuto prima di noi la possibilità di utilizzare questi strumenti per ben comprendere le potenzialità di questo mercato: un esempio per tutti è la Germania, dove questo mercato vale già quasi due miliardi di euro.

L’adozione di questi strumenti sta avvenendo con un misto di entusiasmo e, per i più consapevoli, di scetticismo.

La vera difficoltà risiede infatti nella definizione di quella sottile linea virtuosa oltrepassata la quale affidarsi a tecnologie di questo tipo può comportare più problemi che vantaggi. Ma qual è la realtà? Davvero l’utilizzo di Alexa, Google Home e Cortana, per citare solo alcuni tra i player di questo mercato, comporta dei rischi sotto questo punto di vista?

Come funziona un assistente vocale

Prima di tutto, capiamo che cos’è e come funziona un assistente vocale. In nuce, si tratta di un oggetto “intelligente”, abilitato da un software che tramite meccanismi di machine learning / deep learning riconosce il linguaggio naturale e sfrutta meccanismi di auto-apprendimento per migliorarsi e diventare sempre più preciso in fase di ascolto, comprensione e conseguentemente di risposta: risposta che può significare fornire un’informazione, regolare la temperatura di casa, fare un acquisto online e molto altro.

L’espressione machine learning indica che non solo il servizio tende alla minimizzazione degli errori di riconoscimento ed elaborazione della nostra voce, ma che nel tempo è istruito a imparare e memorizzare i nostri interessi e i nostri gusti, ricordando e correlando ciò che nel tempo ci interessa, ciò che gli chiediamo, come lo chiediamo, quanto tempo dedichiamo ad ogni ricerca o argomento, e così via.

Per raggiungere questo risultato, oggi sono necessarie due componenti: una tecnologica e l’altra umana. Tutte le nostre interazioni con il dispositivo / servizio vengono memorizzate; in tal modo il machine learning può elaborare i dati e migliorare continuamente la propria capacità di capire e servirci come vogliamo essere serviti.

Ciò, d’altro canto, genera il problema della conservazione sicura di questi dati: chi non ne ha diritto non può averne accesso. In aggiunta, attualmente anche l’apporto umano è fondamentale: e anche questa componente è fonte di problemi di privacy.

Per poter evolvere la precisione dei sistemi di riconoscimento vocale, è infatti necessario che team composti da migliaia di persone a livello mondiale siano messi nelle condizioni di ascoltare e analizzare le registrazioni vocali avvenute in case e uffici, pur senza avere (ufficialmente) accesso alle identità delle persone che hanno generato tali contenuti.

Smart speaker: sapranno tutti di noi?

L’evoluzione naturale sarà quella di arrivare a un punto in cui questi dispositivi ci conosceranno addirittura meglio di quanto noi conosceremo loro o persino noi stessi; e questa situazione sarebbe probabilmente molto, forse troppo vicino a quella linea virtuosa di cui parlavamo prima.

Pensate a un mondo in cui gli assistenti virtuali possano condurre conversazioni con esseri umani in autonomia o comprendere le nostre emozioni e i nostri stati d’animo, facendolo persino meglio di come riescano a farlo i nostri amici o parenti, per poi reagire di conseguenza: si arriverebbe al paradosso in cui, in un periodo storico nel quale le persone stanno progressivamente perdendo la loro umanità e le loro capacità di empatia le une con le altre, le macchine sono di fatto nelle condizioni di prendere il loro posto, superandole persino nella capacità di percepire le emozioni e reagire appropriatamente ad esse. Capirete bene come la capacità da parte di una macchina o di una tecnologia di interagire a questo livello con le persone possa rappresentare una notevole area di rischio.

La grande sfida privacy negli assistenti vocali

Come in molti altri campi della nostra vita, in definitiva, anche in questo caso un po’ di sana incoscienza – fino ad arrivare a una vera e propria sottovalutazione del rischio – è ciò che in fin dei conti ci permette di “gettare il cuore oltre l’ostacolo” e aprirci alla sperimentazione di cose nuove. In questo senso, i fondati argomenti a supporto delle preoccupazioni lato privacy e sicurezza non sono sufficienti a fermare l’onda dell’invasione degli assistenti vocali.

All’inizio di quest’anno, il Senior Vice President dei dispositivi e servizi di Amazon, Dave Limp, ha annunciato il traguardo dei 100 milioni di dispositivi Alexa venduti sul mercato. D’altro canto, Google riporta che Google Assistant sta raggiungendo il miliardo di dispositivi, grazie ad oltre 1.600 diverse aziende che producono e commercializzano più di 10.000 smart device.

Alla fine di quest’anno, il mercato degli smart speaker (altoparlanti che integrano al loro interno un assistente vocale) conterà quasi 210 milioni di dispositivi venduti a livello mondiale, in crescita di più dell’80% anno su anno. Nei prossimi 4-5 anni ne saranno stati venduti più di mezzo miliardo, e entro il 2021 il loro numero supererà quello dei tablet, secondo Canalys.

Il rischio connesso al “passive listening”

E se aggiungiamo che quando si parla di assistenti vocali non si parla solo del loro utilizzo privato, il quadro è completo: gli assistenti vocali stanno infatti invadendo anche le aziende e i loro servizi di customer care. Entro quest’anno, si prevede che l’85% delle aziende utilizzerà questi strumenti per dare assistenza ai propri clienti e il 44% di loro utilizzerà dispositivi IoT di tecnologia vocale nei propri store. In definitiva, è facile comprendere come questa onda vada cavalcata il più intelligentemente possibile da tutti, privati e aziende, nel tentativo di massimizzarne i vantaggi e minimizzarne i pericoli.

Già, i pericoli: quali sono questi pericoli, di fatto? La prima minaccia che viene percepita è il pericolo della possibile violazione della privacy. Ci sono più aspetti che giustificano questo timore: lo stato di “passive listening”, o stand-by vigile degli assistenti vocali, cioè la condizione per cui essi stanno sempre in ascolto silente, pronti ad attivarsi se viene pronunciata la parolina magica (come “Alexa” o “Hey Google”), la succitata memorizzazione di ogni interazione avuta con il servizio che abilita tali dispositivi, i meccanismi di geolocalizzazione e così via.

Una ricerca di PWC ha evidenziato, tra le altre cose, come il 38% degli intervistati sia addivenuto alla decisione di non comprare uno smart assistant proprio perché non vuole avere qualcuno o qualcosa in casa che “ascolta sempre tutto” (la ricerca di PWC è davvero molto interessante, se volete leggerla tutta la trovate qui).

Un’altra ricerca, in questo caso di Microsoft, indica nel 41% la percentuale degli utenti preoccupati del passive listening e della propria privacy (clicca qui per la ricerca).

E in effetti è proprio così che funziona: per servirci, l’assistente vocale deve essere in grado di capire quando abbiamo bisogno di lui. Ma per farlo, deve stare sempre in una sorta di veglia. E se è sempre in ascolto, ciò significa che potenzialmente è in grado di sentire tutto quello che diciamo, non solo quando ci stiamo rivolgendo a lui.

Vero è che l’ascolto attivo parte solo al riconoscimento della parola di attivazione e che senza tale parola la fase di registrazione e di invio tramite connessione (criptata) al servizio cloud non parte, ma ogni parola simile a quella di attivazione può accidentalmente far partire la registrazione o, peggio, stimolare delle azioni attive non volute da parte dell’assistente vocale.

Ci sono già stati i primi incidenti in questo senso, un esempio tra i molti il caso di una coppia la cui conversazione privata (per fortuna non compromettente, ma è stato solo un caso che non lo fosse) è stata registrata da uno dei dispositivi Amazon Alexa di casa e da lei inviata ad alcuni dei loro contatti, il tutto senza la minima consapevolezza da parte degli interessati che tutto ciò stesse avvenendo.

Gli strumenti più efficaci per la difesa della privacy

Vero è anche che accedendo al nostro account (meglio se con una autenticazione multi-fattoriale) è possibile cancellare la cronologia dei messaggi voce registrati. Altrettanto vero è che il microfono può generalmente essere escluso tramite la pressione di un tasto, ma tenere il microfono in “mute” equivale a dover interagire fisicamente con il pulsante del dispositivo per uscire da questa modalità ogni volta che si vuole interrogare l’assistente, il che è decisamente molto scomodo e poco pratico.

Stiamo perciò assistendo ai primi tentativi di ovviare a questo problema. In particolare, vi segnalo un interessante progetto open source chiamato Alias. Questo dispositivo, che richiede connessione a internet solamente per la prima configurazione e poi lavora offline risultando particolarmente al riparo da pericoli, opera interponendosi tra l’assistente vocale e l’utente.

L’idea è molto semplice: Alias genera un rumore di fondo continuo che non permette all’assistente vocale di utilizzare il proprio microfono in ascolto. Solo chiamando Alias, esso disattiva il proprio generatore di “white noise” e attiva esso stesso l’assistente vocale, chiamandolo automaticamente con la specifica parola di attivazione. In tal modo, l’assistente vocale vero e proprio è di fatto in ascolto solamente quando viene esplicitamente interpellato.

In tal modo, non vi potranno capitare casi di attivazione indesiderata come quelli descritti in questi due articoli, qui e qui.

Sicurezza e smart speaker, ecco i passi da compiere

L’altra evidente area di rischio è la security in senso più stretto. Diventando il centro pulsante delle nostre smart home, il rischio non va sottovalutato: cosa succede se il mio assistente vocale viene violato e/o un malintenzionato ne prende possesso da remoto? Anche in questo senso, i rischi non sono da sottovalutare.

Le possibilità che il dispositivo abbia un malfunzionamento, un bug (come la vulnerabilità blueborn già fissata da Amazon e Google o venga violato esistono, come esistono per ogni tecnologia (“unhackable” è parola vietata per eccellenza quando si parla di oggetti connessi alla rete e di informatica in generale) e in quel caso i problemi possono essere molti.

Per citare solo i primi che mi vengono in mente:

  • attivazione remota del microfono, senza alcuna consapevolezza del legittimo proprietario);
  • attivazione remota del microfono e della telecamera (es su Alexa Echo Show);
  • utilizzo del dispositivo come “ponte” al fine di attaccare altri dispositivi su internet (ad esempio, in uno scenario di realizzazione di un attacco DDoS);
  • deploy di un ransomware che renda il dispositivo inutilizzabile fino all’avvenuto riscatto o, peggio, che ne governi l’interazione con i dispositivi smart di casa a proprio piacimento (es, accendendo le luci nel bel mezzo della notte, facendo crollare la temperatura di casa, aprendo la serratura della porta e così via).

Ricorderete certamente questa scena vista un paio di anni fa in una puntata di Mr. Robot:


Ecco, non consideratelo uno scenario impossibile, perché non lo è. È interessante anche sapere che i dispositivi a riconoscimento vocale possono essere attivati in maniera abbastanza semplice tramite l’invio di comandi non percepibili dall’orecchio umano, ma ben comprensibili ai microfoni degli smart speaker (vedi ricerca). Ad ogni modo, come per ogni tecnologia vecchia o nuova che sia è importante comprendere quali siano i campi virtuosi di applicazione e essere consapevoli che questi strumenti possono essere utilizzati incrementando il loro livello di sicurezza maggiori, se si hanno alcuni accorgimenti. La maggioranza dei problemi più importanti può essere evitata con una corretta configurazione e decisioni appropriate su quante e quali informazioni debbano essere associate o associabili al dispositivo.

Vale sempre il caro, vecchio adagio della cybersecurity: don’t be an easy target! Ricordiamoci perciò che non basta attivare un assistente vocale: è molto importante configurarlo al meglio. Come fare? Ad esempio, segmentando la rete di casa, separando perciò i dispositivi smart dal resto. Questo può evitare, ad esempio, che un malware presente su un laptop possa attaccare lo smart speaker sulla stessa rete, riconfigurandolo a uso e consumo dell’attaccante.

Va sottolineato comunque che l’interprete dei comandi non è in locale sul dispositivo ma in remoto sul server di backend nel cloud, quindi i fornitori del servizio possono in teoria intervenire e filtrare qualsivoglia comando malevolo che miri a far compiere al dispositivo azioni sospette.

Ad ogni modo, in generale, nonostante sia possibile, non è consigliabile connettere ad assistenti vocali funzioni di sicurezza “chiave” come, perdonate il gioco di parole, l’apertura della serratura della porta di casa. In caso contrario, bisogna rassegnarsi a essere potenzialmente vulnerabili a attacchi molto semplici, come quello di chi si posizionasse fuori dalla porta urlando all’assistente “apri la porta di casa” o “disabilita le telecamere” o ancora “disabilita l’allarme”. Lo stesso concetto si applica alle informazioni sensibili: non è sicuramente una best practice di sicurezza memorizzare password, numeri di carte di credito e quant’altro su questi dispositivi.

Chiudo citando Symantec, che nel suo “A guide to the Security of voice-activated smart speakers” spiega piuttosto bene le accortezze di base da adottare quando si adottano queste tecnologie:

  • State attenti a quali account connettete al vostro assistente vocale. Se non avete necessità di utilizzare il calendario o la rubrica, considerate la creazione di un account ex novo;
  • Su Google Home, disabilitate l’opzione “personal results”;
  • Cancellate con regolarità le registrazioni sensibili, anche se questo può portare a un degrado della qualità del servizio in quanto può essere d’ostacolo al dispositivo nella fase di apprendimento del vostro modo di parlare;
  • Se non state utilizzando l’assistente vocale, mettetelo in muto (o usate Alias, nda). Non è comodo in quanto quando ne avrete bisogno sarà “spento”;
  • Disabilitate la capacità di effettuare acquisti onine se non è necessario o almeno chiedete una password per convalidare l’azione;
  • State attenti alle email di notifica, specialmente quelle relative a nuovi ordini per beni o servizi;
  • Proteggete l’account di servizio connesso al dispositivo con password forte e autenticazione a due fattori laddove possibile;
  • A casa utilizzate un network Wi-Fi criptato con encryption WPA2 e non un hotspot aperto;
  • Create una rete Wi-Fi dedicata per gli ospiti e per i dispositivi IoT non sicuri;
  • Laddove possibile, impostate la vostra impronta vocale e chiedete al dispositivo di lavorare solo con la vostra voce;
  • Disabilitate tutti i servizi che non utilizzate;
  • Non utilizzate l’assistente vocale per ricordare informazioni sensibili come password e carte di credito.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4