Categorie
News

Il NIST identifica attacchi informatici che manipolano l’IA

Il NIST ha pubblicato uno studio sui tipi di attacchi informatici che manipolano il comportamento dei sistemi di intelligenza artificiale e ha creato delle strategie per mitigarli.

Il National Institute of Standards and Technology (NIST) ha pubblicato un rapporto che illustra nel dettaglio le tipologie di attacchi informatici che potrebbero essere mirati ai sistemi di intelligenza artificiale e le possibili difese contro di essi.

L’agenzia ritiene che tale studio sia fondamentale perché le attuali difese contro gli attacchi informatici ai sistemi di intelligenza artificiale e ai dati con cui vengono “educate” sono scarse, in un momento in cui l’intelligenza artificiale pervade sempre più tutti gli aspetti della vita e del lavoro.

Intitolato “Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations”, il rapporto inizia sviluppando una tassonomia e una terminologia dell’adversarial machine learning. Il rapporto copre due grandi tipologie di IA: l’IA predittiva e l’IA generativa. Questi sistemi sono addestrati su grandi quantità di dati, che i malintenzionati possono corrompere, perché questi set di dati sono troppo grandi per essere monitorati e filtrati.

Rischi dell'IA

Gli avversari possono deliberatamente confondere o addirittura “avvelenare” i sistemi di intelligenza artificiale per farli funzionare male, e non esiste una difesa infallibile contro la compromissione dei dati immessi nelle IA.

Il NIST ha, quindi, ritenuto necessario identificare le vulnerabilità dell’intelligenza artificiale e dell’apprendimento automatico.

Il loro lavoro (NIST.AI.100-2), fa parte di uno sforzo più ampio del NIST per supportare lo sviluppo di un’intelligenza artificiale affidabile e può aiutare a mettere a punto il quadro di gestione del rischio AI del NIST. La pubblicazione, frutto di una collaborazione tra governo, mondo accademico e industria, ha lo scopo di aiutare gli sviluppatori e gli utenti a comprendere i tipi di attacchi che potrebbero aspettarsi insieme agli approcci per mitigarli.

Machine learning contraddittorio

I sistemi di intelligenza artificiale hanno permeato la società moderna, lavorando con capacità che vanno dalla guida di veicoli, alla diagnostica, all’interazione con i clienti. Per imparare a svolgere questi compiti, vengono addestrati su grandi quantità di dati: a un veicolo autonomo potrebbero essere mostrate immagini di autostrade e strade con segnali stradali, ad esempio, mentre un chatbot basato su un modello linguistico di grandi dimensioni (LLM) potrebbe essere esposto a registrazioni di conversazioni online. Questi dati aiutano l’intelligenza artificiale a prevedere come rispondere in una determinata situazione.

Uno dei problemi principali è che i dati stessi potrebbero non essere affidabili. Le fonti possono essere siti web e interazioni con il pubblico. Esistono molte opportunità per i malintenzionati di corrompere questi dati, sia durante il periodo di addestramento di un sistema di intelligenza artificiale che successivamente, mentre l’intelligenza artificiale continua a perfezionare i suoi comportamenti interagendo con il mondo fisico.

Per assistere la comunità degli sviluppatori e dei system integrator, il nuovo rapporto offre una panoramica dei tipi di attacchi e i corrispondenti approcci per ridurre i danni.

Il rapporto considera i quattro principali tipi di attacchi: evasione, avvelenamento, attacchi alla privacy e abusi. Li classifica, inoltre, in base a molteplici criteri come gli scopi e gli obiettivi, le capacità e le conoscenze dei cyber criminali.

Evasion attacks

Si verificano dopo l’implementazione di un sistema di intelligenza artificiale, tentano di alterare un input per cambiare il modo in cui il sistema risponde ad esso. Gli esempi includono l’aggiunta di segnaletica orizzontale ai segnali di stop per fare in modo che un veicolo autonomo li interpreti erroneamente come segnali di limite di velocità o la creazione di segnaletiche di corsia confuse per far deviare il veicolo fuori strada, ecc…

Poisoning attacks

Gli attacchi di avvelenamento avvengono nella fase di addestramento introducendo dati corrotti. Per esempio un hacker può inserire numerosi esempi di linguaggio inappropriato nei registri delle conversazioni, in modo che un chatbot interpreti questi esempi come un linguaggio abbastanza comune da poter essere utilizzato nelle proprie interazioni con i clienti. O, ancora, potrebbe inserire consigli errati e pericolosi a precisi argomenti rendendo il sistema IA un sistema di social engineering!

Privacy attacks

Gli attacchi alla privacy si verificano durante la distribuzione, sono tentativi di apprendere informazioni sensibili sull’IA o sui dati su cui è stata addestrata per abusarne. Un avversario può porre a un chatbot numerose domande legittime e quindi utilizzare le risposte per decodificare il modello in modo da trovarne i punti deboli o indovinarne le fonti. Aggiungere esempi indesiderati a quelle fonti online potrebbe far sì che l’intelligenza artificiale si comporti in modo inappropriato, spinga l’utente a rivelare ulteriori informazioni, ecc… ed è difficile, poi, eradicare un comportamento appreso.

Abuse attacks

Questi comportano l’inserimento di informazioni errate in una fonte, come una pagina web o un documento online, che un’intelligenza artificiale poi assorbe. A differenza degli attacchi di avvelenamento sopra menzionati, gli attacchi di abuso tentano di fornire all’IA informazioni errate da una fonte legittima ma compromessa in maniera da potarla modificare al modificarsi del proprio target o scopo.

AI Security

NIST Mitigation Framework

Le misure difensive da adottare includono l’aumento dei dati di input con esempi contraddittori durante l’addestramento dell’IA utilizzando etichette corrette, il monitoraggio delle metriche prestazionali standard dei modelli ML, l’utilizzo di tecniche di monitoraggio dei dati, tecniche di rilevamento, soluzioni protezione e backup multilivello, la collaborazione con esperti di cyber security e l’awareness per gli utilizzatori finali.

Scopri il nostro Security Operations center:
scopri le nostre soluzioni per la sicurezza informatica:
Post vacanze: adeguamento alla Direttiva NIS 2 entro Ottobre 2024!
Blog News

Post vacanze: adeguamento alla Direttiva NIS 2 entro Ottobre 2024!

Prepararsi per l'adeguamento alla Direttiva NIS 2: il nostro impegno per la conformità aziendale Con l'approssimarsi delle vacanze estive, è essenziale guardare avanti e prepararsi al rientro. In particolare, sarà necessario attrezzarsi per...
Leggi tutto
Pinnacle Award a Cisco EVE: sicurezza e visibilità nel traffico criptato
Blog News

Pinnacle Award a Cisco EVE: sicurezza e visibilità nel traffico criptato

Nel settore della cybersecurity, la visibilità del traffico di rete è cruciale. Tuttavia, il traffico crittografato rappresenta una sfida significativa: come garantire la sicurezza senza compromettere la privacy? Cisco ha risolto questo dilemma...
Leggi tutto
Ransomware: perdite in crescita del 500% a causa dell’autenticazione obsoleta
Case Studies News

Ransomware: perdite in crescita del 500% a causa dell’autenticazione obsoleta

Introduzione: Prima di introdurre le nuove soluzioni di autenticazione multi-fattore illustriamo i metodi obsoleti di autenticazione, come: Autenticazione basata sulla conoscenza - KBA (es. domande di sicurezza) Token Hardware (dispositivi fisici che generano...
Leggi tutto
CISCO Cyber Vision per l’Operational Technology
Blog

CISCO Cyber Vision per l’Operational Technology

La Tecnologia Operativa (Operational Technology) include l'hardware e il software dedicati alla modifica, al monitoraggio o alla gestione dei dispositivi fisici e dei processi produttivi di un'azienda. Questi sistemi, a differenza delle tradizionali...
Leggi tutto
Apulia Cybersecurity Summit, Next-Gen Solutions – Bari, 7 Giugno 2024
Eventi

Apulia Cybersecurity Summit, Next-Gen Solutions – Bari, 7 Giugno 2024

Venerdì 7 giugno 2024, presso l'esclusivo UNAHOTELS Regina di Bari, si è tenuto con successo l'Apulia Cybersecurity Summit - Next-Gen Solutions, organizzato da Security Architect srl con il patrocinio di Ingram Micro e...
Leggi tutto
Leave this field blank
Per saperne di piÙ

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *