Fonte: Punto Informatico venerdì 11 maggio 2018 di la redazione
Come
nelle peggiori fantasie degli anni '80, quando leggende metropolitane
indicavano la presenza di messaggi satanici subliminali in musiche
riprodotte al contrario o tra i frame di film e cartoon per bambini:
cosa succederebbe se un orizzonte simile venisse proiettato sul mondo
degli speaker per la casa e sui sistemi di intelligenza artificiale che controllano?
Oggi,
lontani dal poter definire tutto ciò come una leggenda metropolitana,
alcuni gruppi di ricerca di università americane hanno dimostrato come i peggiori timori possano facilmente diventare realtà semplicemente tramite un lavoro di hacking del suono.
Tale lavori si basa sulla possibilità di cancellare alcune parti di
una traccia audio, togliendo pezzetti sufficienti a modificare la
percezione della traccia stessa da parte dello speaker in ascolto e
trasformando così il significato veicolato dal messaggio. In pratica
mentre l'orecchio umano e lo speaker sentono lo stesso identico suono, la mente umana e l'intelligenza artificiale interpretano in modo differente la medesima traccia elaborando pertanto due messaggi differenti.
L'esito è quello per cui, nascondendo un messaggio all'interno di una traccia audio
che si riesce a portare vicino allo speaker (ad esempio tramite un
video YouTube ascoltato su un telefonino o una traccia musicale
riprodotta in casa) si potrebbe riuscire ad impartire ordini specifici
al sistema in ascolto. Le conseguenze potrebbero essere variegate: dalla
semplice luce che si spegne ad un invio di un messaggio, dalla
disattivazione di un sistema antifurto ad una modifica sul termostato di
casa, fino ad immaginare scenari ancor più complessi e pericolosi.
Quella
che potrebbe sembrare una canzone, o un suono disordinato, o una
semplice voce umana, potrebbe invece nascondere una sorta di attacco
informatico che, sfruttando il mezzo analogico della trasmissione del
suono, è in grado di ingannare un sistema intelligente in ascolto.
Nessuno escluso: da Siri ad Alexa, passando per Google Assistant,
la vulnerabilità è nel sistema stesso di ascolto e interpretazione del
messaggio. L'Università di Berkeley lancia quindi l'allarme: così come
nei laboratori del campus è stato possibile verificare e riprodurre
casi di questo tipo, è possibile che altri abbiano già raggiunto
medesime osservazioni ed abbiano quindi in mano possibili veicoli di
attacco che, una volta nascosti in tracce audio o video, nessun
orecchio umano sarebbe in grado di identificare e distinguere.
Un
potenziale attacco senza alcuna cartina di tornasole in grado di
identificarlo: non basteranno normative contro questo tipo di pratiche
ad evitarne l'adozione e nel frattempo il proliferare dei mezzi di
comunicazione 1-to-1 impedirà anche ogni qualsivoglia forma di
controllo. Da una parte è possibile immaginare nuove forme di filtro
contro la divulgazione di messaggi similari, ma dall'altra è da
ipotizzare un'evoluzione sollecita degli speaker affinché la ricezione
audio e la successiva interpretazione siano in grado di evitare scenari
apocalittici come quello di un attacco globale tramite un file audio
divulgato con chissà quale mezzo. E tutto ciò semplicemente grazie ad
una gestione digitale del file stesso, dialogando con gli speaker
casalinghi attraverso la gestione discreta della campionatura.
Tutta
roba che l'orecchio umano non può avvertire, quindi la mente umana non
può identificare: l'hacking è sulla forma d'onda, aggirando così le
barriere di cui la natura ha dotato l'uomo per difendersi dalle minacce
del mondo esterno: basta questo per dipingere quadri apocalittici che
nessuno vorrebbe doversi trovare di fronte.
Nessun commento:
Posta un commento