giovedì 17 maggio 2018

Punto Informatico venerdì 11 maggio 2018 di la redazione

Fonte: Punto Informatico  venerdì 11 maggio 2018 di la redazione

Come nelle peggiori fantasie degli anni '80, quando leggende metropolitane indicavano la presenza di messaggi satanici subliminali in musiche riprodotte al contrario o tra i frame di film e cartoon per bambini: cosa succederebbe se un orizzonte simile venisse proiettato sul mondo degli speaker per la casa e sui sistemi di intelligenza artificiale che controllano?

Oggi, lontani dal poter definire tutto ciò come una leggenda metropolitana, alcuni gruppi di ricerca di università americane hanno dimostrato come i peggiori timori possano facilmente diventare realtà semplicemente tramite un lavoro di hacking del suono. Tale lavori si basa sulla possibilità di cancellare alcune parti di una traccia audio, togliendo pezzetti sufficienti a modificare la percezione della traccia stessa da parte dello speaker in ascolto e trasformando così il significato veicolato dal messaggio. In pratica mentre l'orecchio umano e lo speaker sentono lo stesso identico suono, la mente umana e l'intelligenza artificiale interpretano in modo differente la medesima traccia elaborando pertanto due messaggi differenti.

L'esito è quello per cui, nascondendo un messaggio all'interno di una traccia audio che si riesce a portare vicino allo speaker (ad esempio tramite un video YouTube ascoltato su un telefonino o una traccia musicale riprodotta in casa) si potrebbe riuscire ad impartire ordini specifici al sistema in ascolto. Le conseguenze potrebbero essere variegate: dalla semplice luce che si spegne ad un invio di un messaggio, dalla disattivazione di un sistema antifurto ad una modifica sul termostato di casa, fino ad immaginare scenari ancor più complessi e pericolosi.
Quella che potrebbe sembrare una canzone, o un suono disordinato, o una semplice voce umana, potrebbe invece nascondere una sorta di attacco informatico che, sfruttando il mezzo analogico della trasmissione del suono, è in grado di ingannare un sistema intelligente in ascolto.

Nessuno escluso: da Siri ad Alexa, passando per Google Assistant, la vulnerabilità è nel sistema stesso di ascolto e interpretazione del messaggio. L'Università di Berkeley lancia quindi l'allarme: così come nei laboratori del campus è stato possibile verificare e riprodurre casi di questo tipo, è possibile che altri abbiano già raggiunto medesime osservazioni ed abbiano quindi in mano possibili veicoli di attacco che, una volta nascosti in tracce audio o video, nessun orecchio umano sarebbe in grado di identificare e distinguere.

Un potenziale attacco senza alcuna cartina di tornasole in grado di identificarlo: non basteranno normative contro questo tipo di pratiche ad evitarne l'adozione e nel frattempo il proliferare dei mezzi di comunicazione 1-to-1 impedirà anche ogni qualsivoglia forma di controllo. Da una parte è possibile immaginare nuove forme di filtro contro la divulgazione di messaggi similari, ma dall'altra è da ipotizzare un'evoluzione sollecita degli speaker affinché la ricezione audio e la successiva interpretazione siano in grado di evitare scenari apocalittici come quello di un attacco globale tramite un file audio divulgato con chissà quale mezzo. E tutto ciò semplicemente grazie ad una gestione digitale del file stesso, dialogando con gli speaker casalinghi attraverso la gestione discreta della campionatura.

Tutta roba che l'orecchio umano non può avvertire, quindi la mente umana non può identificare: l'hacking è sulla forma d'onda, aggirando così le barriere di cui la natura ha dotato l'uomo per difendersi dalle minacce del mondo esterno: basta questo per dipingere quadri apocalittici che nessuno vorrebbe doversi trovare di fronte.

Nessun commento:

Posta un commento