tecnologia

L'intelligenza artificiale si sta dirigendo verso lo spionaggio

L'intelligenza artificiale si sta dirigendo verso lo spionaggio

L'intelligenza artificiale si sta dirigendo verso lo spionaggio

Un nuovo studio condotto da un gruppo di ricercatori britannici ha rivelato che i modelli di intelligenza artificiale possono determinare ciò che gli utenti digitano nei loro computer - come le password - con altissima precisione ascoltando e analizzando i suoni della digitazione sulla tastiera.

Lo studio, pubblicato durante il simposio sulla sicurezza e la privacy dell'IEEE European (Institute of Electrical and Electronics Engineers), ha avvertito che questa tecnologia rappresenta una grave minaccia per la sicurezza degli utenti, perché può rubare dati attraverso i microfoni integrati nell'elettronica dispositivi che usiamo durante la giornata.

Ma come funziona questa tecnologia? E quali sono i rischi previsti? Come può essere ridotto?

I ricercatori hanno creato un modello di intelligenza artificiale in grado di riconoscere i suoni di battitura sulla tastiera del computer Apple MacBook Pro e, dopo aver addestrato questo modello sui tasti registrati da un telefono vicino, è in grado di determinare quale tasto viene premuto con una precisione fino a 95%.%, basato solo sul suono del tasto premuto.

I ricercatori hanno sottolineato che quando si utilizzano le voci raccolte dal computer durante le conversazioni Zoom per addestrare l'algoritmo di classificazione vocale, l'accuratezza della previsione è scesa al 93%, che è una percentuale alta e allarmante, ed è considerata un record per questo metodo.

I ricercatori hanno raccolto dati di allenamento premendo 36 tasti sulla tastiera del computer “MacBook Pro” 25 volte per ogni tasto utilizzando dita diverse e con diversi gradi di pressione, quindi hanno registrato il suono risultante da ogni pressione attraverso uno smartphone situato vicino alla tastiera, oppure attraverso una chiamata Lo zoom viene condotto su un computer.

Quindi hanno prodotto forme d'onda e immagini spettrali dalle registrazioni che mostrano le differenze distinte per ciascun tasto e hanno eseguito fasi di elaborazione dei dati per aumentare i segnali che potrebbero essere utilizzati per determinare il suono dei tasti.

Dopo aver testato il modello su questi dati, hanno scoperto che era in grado di identificare la chiave corretta dalle registrazioni dello smartphone nel 95%, dalle registrazioni delle chiamate Zoom nel 93% e dalle registrazioni delle chiamate Skype nel 91.7%, che è inferiore ma comunque molto alto, e preoccupante.

I ricercatori affermano che con il crescente utilizzo di strumenti di videoconferenza come: Zoom, la proliferazione di dispositivi con microfoni incorporati ovunque e il rapido sviluppo delle tecnologie di intelligenza artificiale, questi attacchi possono raccogliere una grande quantità di dati degli utenti, come password È possibile accedere facilmente a , discussioni e messaggi e ad altre informazioni sensibili.

A differenza di altri attacchi di canale laterale che richiedono condizioni speciali e sono soggetti a velocità dati e vincoli di distanza, gli attacchi che utilizzano la voce sono diventati molto più semplici grazie all'abbondanza di dispositivi dotati di microfoni e in grado di effettuare registrazioni audio di alta qualità, in particolare con il rapido sviluppo di apprendimento automatico.

Certamente, questo non è il primo studio sugli attacchi informatici basati sulla voce, poiché ci sono molti studi che hanno mostrato come le vulnerabilità nei microfoni di dispositivi intelligenti e assistenti vocali, come: Alexa, Siri e (Google Assistant) Google Assistant, possono essere sfruttato negli attacchi informatici, ma il vero pericolo qui è quanto siano accurati i modelli di intelligenza artificiale.

I ricercatori affermano che nel loro studio hanno utilizzato i metodi più avanzati, i modelli di intelligenza artificiale e hanno raggiunto la massima precisione finora, e questi attacchi e questi modelli diventeranno più accurati nel tempo.

Il dottor Ihsan Tureni, che è stato coinvolto nello studio presso l'Università del Surrey, ha dichiarato: "Questi attacchi e questi modelli diventeranno più accurati nel tempo e poiché i dispositivi intelligenti con microfoni diventano più comuni nelle case, c'è un urgente bisogno di discussioni pubbliche su come organizzare gli attacchi. intelligenza artificiale".

I ricercatori hanno consigliato agli utenti, preoccupati per questi attacchi, di modificare il modello di scrittura della password come: utilizzare il tasto Maiusc per creare una combinazione di lettere maiuscole e minuscole con numeri e simboli per evitare di conoscere l'intera password.

Raccomandano inoltre di utilizzare l'autenticazione biometrica o di utilizzare app di gestione delle password, quindi non è necessario inserire manualmente informazioni sensibili.

Altre potenziali misure di difesa includono l'utilizzo di software per riprodurre i suoni delle sequenze di tasti o il rumore bianco per distorcere il suono dei pulsanti della tastiera premuti.

Oltre ai meccanismi proposti dai ricercatori; Un portavoce di Zoom ha pubblicato un commento su questo studio a BleepingComputer consigliando agli utenti di regolare manualmente la funzione di isolamento del rumore di fondo nell'app Zoom per ridurne l'intensità, disattivare il microfono per impostazione predefinita quando si partecipa a una riunione e disattivare il microfono durante la digitazione durante una riunione per aiutare a proteggere e proteggere le loro informazioni da tali attacchi.

Le previsioni dell'oroscopo di Maguy Farah per l'anno 2023

Ryan Sheikh Mohammed

Vicedirettore capo e capo del dipartimento relazioni, laurea in ingegneria civile - dipartimento di topografia - università di Tishreen Formato in autosviluppo

Articoli correlati

Vai al pulsante in alto
Iscriviti ora gratuitamente con Ana Salwa Riceverai prima le nostre notizie e ti invieremo una notifica di ogni nuova لا نعم
Social Media Auto Pubblica Powered By: XYZScripts.com