FYI.

This story is over 5 years old.

Tecnologia

Questo malware ti infetta di nascosto solo se riconosce il tuo volto

Semplici algoritmi di riconoscimento facciale possono trasformare un malware in un’arma impossibile da individuare.
Riccardo Coluccini
Macerata, IT
Immagine: Pixabay

Lo scorso 9 agosto, alla conferenza sulla sicurezza informatica Black Hat tenuta a Las Vegas, tre ricercatori di IBM hanno introdotto il mondo intero a una nuova classe di malware che sfrutta l’intelligenza artificiale per infettare di nascosto i dispositivi delle vittime.

Già lo scorso febbraio, nel report The Malicious Use of Artificial Intelligence si era parlato dei pericoli per la sicurezza digitale dovuti all’utilizzo di algoritmi di intelligenza artificiale, ma ora abbiamo effettivamente un esempio concreto fra le mani.

Pubblicità

Solo quando la vittima viene identificata dalla rete neurale attraverso il riconoscimento facciale, DeepLocker rilascia l’effettivo payload, infettando il dispositivo della vittima.

DeepLocker è il prototipo (proof-of-concept) presentato da Dhilung Kirat, Jiyong Jang e Marc Ph. Stoecklin, un malware in grado di nascondersi agli antivirus e infettare solamente un target predefinito riconoscendone il volto. Tutto questo è possibile grazie a una rete neurale che offusca la vera natura malevola del software.

Solo quando la vittima viene identificata dalla rete neurale attraverso il riconoscimento facciale — o anche attraverso il riconoscimento vocale, la geolocalizzazione o l’analisi di altri valori del sistema — DeepLocker rilascia l’effettivo payload, infettando il dispositivo della vittima.

I ricercatori hanno mostrato che è possibile nascondere questo malware all’interno di comuni applicazioni, come ad esempio quelle per videoconferenze, e distribuirlo così a utenti ignari. L’applicazione si comporterà normalmente fino a quando non si trova in presenza dell’obiettivo specifico.

Questa particolare tecnica rende più difficili le analisi da parte dei ricercatori informatici perché non possono accedere direttamente al codice del malware, decifrabile solo grazie alla chiave che viene prodotta da DeepLocker una volta che riconosce la vittima. In questo modo, le tecniche di analisi dei malware utilizzate fino ad ora dagli esperti di sicurezza informatica, come ad esempio eseguire un codice sospetto all’interno di un ambiente di test virtualizzato, sono vane: non c’è modo di far attivare il codice del malware se non si è la persona designata.

Come sottolineano i ricercatori di IBM, per ottenere DeepLocker è bastato unire il software open-source per applicazioni di intelligenza artificiale — già a disposizione di tutti — con le classiche tecniche per la produzione di malware. Questo, quindi, ci deve spingere a riflettere ulteriormente sull’approccio da adottare nei confronti di alcune applicazioni dell’intelligenza artificiale che rischiano di essere trasformate facilmente in veri e propri strumenti d’attacco.

Al momento, fortunatamente, i ricercatori di IBM sottolineano che malware simili a DeepLocker non sono stati ancora avvistati in casi reali, ma i ricercatori di sicurezza informatica devono già cominciare a pensare a come individuare questa nuova classe di malware.

Segui Riccardo su Twitter: @ORARiccardo