Intelligenza artificiale e terrorismo, quando l’IA diventa pericolosa

Si chiama MUIA, ed è l'intelligenza artificiale nociva.

di , pubblicato il
intelligenza artificiale nociva e terrorismo sul web

Una nuova problematica sta tenendo banco di recente nel mondo della tecnologia, ovvero l’utilizzo nocivo dell’intelligenza artificiale (IA) al fine di creare malware che siano capaci di assoggettare la vittima ai propri scopi.

Intelligenza artificiale, i rischi

L’IA ha fatto passi da gigante negli ultimi anni, dal machine learn al brain reading. Pensiamo ad esempio alle capacità degli algoritmi informatici di leggere e interpretare i nostri gusti, le nostre preferenze. Ormai il web si muove in questa direzione, continuando a cercare informazioni atte a scandagliare i nostri interessi al fine di venderci un prodotto che sia il più vicino possibile alle nostre preferenze. Purtroppo però anche i cybercriminali si stanno muovendo nella medesima direzione, ossia creare un Big Data che sia capace di immagazzinare le nostre paure, al fine di usarle contro di noi.

La situazione pandemica che stiamo vivendo si sta rivelando essere un terreno fertile per questo tipo di pratica. Quante volte veniamo tempestati da notizie relative al Coronavirus? Queste notizie non fanno altro che alimentare i nostri timori, ma paradossalmente più siamo spaventati e più abbiamo interesse a conoscere e leggere notizie inerenti tale tipo di informazione. Una sorta di vero e proprio spam indotto. Se lo spam fine a sé stesso, per quanto fastidioso, è tutto sommato innocuo, non possiamo dire altrettanto se alla pratica dello spam si accompagna anche quella del phishing.

Intelligenza artificiale e terrorismo sul web

È in questo scenario che si presenta quindi il rischio di un vero e proprio terrorismo psicologico che rischia di dettare legge sul web creando un vero e proprio universo digitale dispotico in cui malware e virus diventano sempre più intelligenti, sfruttando le medesime tecniche di apprendimento dell’intelligenza artificiale “buona” per scatenare la nostra vulnerabilità e approfittarsene.

Per fortuna sono già sorti studi approfonditi in materia, al fine di cogliere tutte le sfaccettature del problema.

Il cosiddetto utilizzo nocivo dell’intelligenza artificiale, al quale è stato già dato un nuovo acronimo, MUIA, è già fenomeno di dibattito tra esperti e intellettuali che cercano di comprendere tutte le sfaccettature di un fenomeno che stiamo già vivendo in tutto il suo terrore. Del resto, gli obiettivi presi di mira dagli hacker non sono certo cosa da poco, i conti correnti dei singoli cittadini e la sicurezza delle strutture nevralgiche dello Stato rappresentano il fulcro della civiltà tecnologica come l’abbiamo concepita e messa in pratica negli anni 2000. Tempi duri all’orizzonte, con l’alleato che diventa anche nemico, parafrasando in una nuova versione 2.0 il vecchio detto: combatti la tecnologia con la tecnologia.

Potrebbe interessarti anche Blockchain con The Sandbox, il videogame di compravendita di terreni digitali

Argomenti: ,