5 tecnologie di intelligenza artificiale che gli hacker possono utilizzare in terribili nuovi modi

0
85

Primo piano della tastiera Vissles LP85 con retroilluminazione verde
Andrew Heinzman / How-To Geek

Le tecnologie di intelligenza artificiale potrebbero rivoluzionare numerosi settori, ma almeno nella maggior parte dei casi possiamo vedere come saranno più utili che dannose a lungo termine. Tuttavia, questi nuovi strumenti stanno anche aprendo molte nuove opportunità per tipi nefasti.

IA in linguaggio naturale per attacchi di phishing potenziati

Essere in grado di comprendere e produrre il linguaggio umano naturale è stato uno degli obiettivi principali della ricerca sull’IA fin dai primi giorni. Oggi disponiamo di produzione vocale sintetica, chatbot altamente sofisticati, generatori di testo in linguaggio naturale e molte altre tecnologie correlate basate sull’intelligenza artificiale.

Queste applicazioni sono perfette per gli attacchi di phishing, in cui gli hacker si atteggiano a entità legittime e i loro rappresentanti come un modo per ottenere informazioni sensibili dalle persone. Con queste nuove tecnologie, potresti avere agenti di intelligenza artificiale che impersonano le persone in massa tramite e-mail, telefonate, messaggistica istantanea o ovunque gli esseri umani parlino tra loro attraverso un sistema informatico.

A differenza del phishing che conosciamo, questo sarebbe come il phishing “spear” turbo, in cui i tentativi sono mirati contro individui specifici con informazioni su di loro in particolare per rendere la truffa più efficace. Ad esempio, il software di intelligenza artificiale potrebbe fingere di essere il capo di qualcuno e chiedere di versare denaro su un conto in una variante del phishing nota come frode del CEO.

Ingegneria sociale deepfaked

L’ingegneria sociale è una pratica all’interno dell’hacking che prende di mira le debolezze della psicologia e del comportamento umano per aggirare le rigide misure di sicurezza tecnologica. Ad esempio, un hacker potrebbe telefonare alla segretaria di una persona importante fingendosi un addetto ai servizi igienico-sanitari, chiedendogli dove viene attualmente buttata la spazzatura. Quindi il criminale si dirige in quel luogo per cercare documenti scartati o altri indizi che possono essere messi insieme per creare exploit.

I sistemi di deep learning in grado di replicare volti e voci (noti come deepfake) sono avanzati al punto da poter essere utilizzati in tempo reale. Ci sono servizi in cui puoi inviare campioni della tua voce e quindi avere sintesi vocale che suona proprio come te. In linea di principio, una tecnologia come questa potrebbe essere utilizzata per clonare la voce di chiunque. Quindi tutto ciò che dovresti fare è telefonare o videochiamare qualcuno che impersona chiunque tu voglia, con i personaggi pubblici che sono il bersaglio più facile di tutti.

Ad esempio, Podcastle Revoice è uno di questi servizi che promette di “creare una copia digitale della tua voce” in base ai campioni vocali che invii. Podcastle ci ha trasmesso una dichiarazione su come affronta queste preoccupazioni:

Il potenziale per i deepfake e l’ingegneria sociale che utilizzano la clonazione vocale è serio, ed è per questo che è essenziale che le aziende riducano la possibilità di abusi. La tecnologia Revoice di Podcastle può essere utilizzata per creare una copia digitale della tua voce e come tale abbiamo linee guida chiare su come creare le voci, oltre a controlli per prevenire l’uso improprio. Per generare una voce digitale sulla nostra piattaforma, un utente deve inviare un file registrazione vocale dal vivo di 70 frasi distinte (cioè determinate da Podcastle), il che significa che un utente non può semplicemente utilizzare una pre-registrazione della voce di qualcun altro. Queste 70 registrazioni vengono quindi controllate manualmente dal nostro team per garantire l’accuratezza di una singola voce, quindi le registrazioni vengono elaborate tramite il nostro modello AI.

Cracking del codice più intelligente e rilevamento automatizzato delle vulnerabilità

Gli umani impiegano ore e ore per setacciare righe di codice alla ricerca di vulnerabilità, per risolverle o sfruttarle. Ora abbiamo visto che i modelli di apprendimento automatico come ChatGPT possono sia scrivere codice che riconoscere le vulnerabilità nel codice inviato, il che apre la possibilità che l’intelligenza artificiale possa scrivere malware prima piuttosto che dopo.

Malware che impara e si adatta attraverso l’apprendimento automatico

Il punto di forza dell’apprendimento automatico è il modo in cui può prendere enormi quantità di dati ed estrarne regole e approfondimenti utili. È ragionevole aspettarsi che il malware futuro possa trarre vantaggio da questo concetto generale per adattarsi rapidamente alle contromisure.

Ciò può portare a una situazione in cui sia il malware che i sistemi antimalware diventano effettivamente sistemi di apprendimento automatico in guerra che si guidano rapidamente a vicenda verso livelli più elevati di sofisticazione.

AI generativa per creare dati falsi

Le tecnologie AI ora possono generare immagini, video, testo e audio apparentemente dal nulla. Queste tecnologie hanno raggiunto il punto in cui gli esperti non possono dire che sono false (almeno non a prima vista). Ciò significa che in futuro puoi aspettarti un’ondata di dati falsi su Internet.

Ad esempio, i falsi profili dei social media in questo momento possono essere abbastanza facili da individuare, quindi evitare truffe di catfishing o semplici campagne di bot per seminare disinformazione non è stato così difficile per il pubblico informato. Tuttavia, queste nuove tecnologie di intelligenza artificiale potrebbero generare profili falsi indistinguibili da quelli reali.

“Persone” con volti unici con foto generate di tutte le loro vite false, informazioni di profilo uniche e coerenti e intere reti di amici e familiari costituite da altre persone false. Tutti conversano tra loro proprio come persone reali. Con reti di falsi agenti online come questi, gli attori malintenzionati potrebbero portare a termine varie truffe e campagne di disinformazione.

IMPARENTATO: 5 tecnologie che significano che non puoi mai più credere a nulla su Internet

L’intelligenza artificiale è sia la cura che la malattia?

È inevitabile che alcune persone provino a utilizzare qualsiasi nuova tecnologia per motivi dannosi. Ciò che rende diversa questa nuova generazione di tecnologia IA è il modo in cui sta andando rapidamente oltre la capacità umana di rilevarla.

Ciò significa, in qualche modo ironicamente, che la nostra migliore difesa contro queste vie di attacco potenziate dall’intelligenza artificiale saranno altre tecnologie di intelligenza artificiale che combattono il fuoco con il fuoco. Questo sembrerebbe non lasciarti altra scelta che vederli litigare e sperare che i “bravi ragazzi” abbiano la meglio. Tuttavia, ci sono diverse cose che puoi fare per rimanere protetto online, evitare ransomware e individuare truffe su piattaforme popolari come Facebook, Facebook Marketplace, PayPal e LinkedIn.

Il miglior software antivirus del 2023


Bitdefender Internet Security
Miglior software antivirus in assoluto
Bitdefender Internet Security

Sicurezza gratuita Avira
Miglior software antivirus gratuito
Sicurezza gratuita Avira

Malwarebyte Premium
Miglior software antivirus per Windows
Malwarebyte Premium

Intego Mac Internet Security X9
Miglior software antivirus per Mac
Intego Mac Internet Security X9

Sicurezza mobile di Bitdefender
Miglior software antivirus per Android
Sicurezza mobile di Bitdefender