Categorie
Blog

Come proteggere i tuoi dati dall’esposizione in ChatGPT

ChatGPT e gli altri strumenti che sfruttano L’IA stanno trasformando il modo in cui pensiamo nuovi contenuti o manipoliamo le informazioni, il che può potenzialmente comportare un salto di qualità in termini di produttività. Tuttavia, l’innovazione dell’intelligenza artificiale generativa introduce anche una nuova dimensione del rischio di esposizione dei dati, quando i dipendenti digitano o incollano inavvertitamente dati aziendali sensibili in ChatGPT o applicazioni simili. Le soluzioni DLP (Data Loss Prevention), non sono ancora del tutto attrezzate per gestire queste sfide, poiché si concentrano sulla protezione dei dati basata su file.

Un nuovo rapporto del Garante della privacy “Intelligenza artificiale: il Garante blocca ChatGPT. Raccolta illecita di dati personali. Assenza di sistemi per la verifica dell’età dei minori“, fa luce sulle sfide e sui rischi dell’utilizzo non governato di ChatGPT. Dipinge un quadro completo dei potenziali pericoli per le aziende e per i singoli individui.

La soluzione? Piattaforme di sicurezza del browser. Tali piattaforme forniscono monitoraggio e governance in tempo reale sulle sessioni web, salvaguardando efficacemente i dati sensibili.

Esposizione dei dati su ChatGPT

Diamo un po’ di numeri:

  • L’utilizzo delle app GenAI da parte dei dipendenti è aumentato del 44% negli ultimi tre mesi.
  • Si accede alle app GenAI, inclusa ChatGPT, 131 volte al giorno ogni 1.000 dipendenti.
  • Il 6% dei dipendenti ha incollato dati sensibili nelle app GenAI.
Tipi di dati a rischio
  • Informazioni sensibili/interne aziendali: informazioni su conti bancari, investimenti, prestiti, indirizzi, stipendi, date di transazioni, informazioni su prodotti e servizi,  password, codici PIN, App di token, indirizzi mail, porzioni di conversazioni, documentazione legale, brevetti, ecc.
  • Codice sorgente
  • Dati dei clienti
  • PII regolamentati
  • File di pianificazione dei progetti.
Scenari di esposizione dei dati
  • Esposizione involontaria: i dipendenti potrebbero inavvertitamente incollare dati sensibili in ChatGPT.
  • Insider dannoso: un dipendente disonesto potrebbe sfruttare ChatGPT per esfiltrare dati.
  • Attacchi mirati: gli avversari esterni potrebbero compromettere gli endpoint e condurre ricognizioni orientate a ChatGPT.
Perché le soluzioni DLP sono inadeguate

Le soluzioni DLP tradizionali sono progettate per proteggere i dati archiviati nei file, non i dati inseriti nelle sessioni web. Sono, quindi, inefficaci contro i rischi posti da software che sfruttano l’IA.

3 approcci per mitigare i rischi di esposizione dei dati
  • Blocco dell’accesso: efficace ma sostenibile solo da alcune aziende, o alcuni dipartimenti aziendali.
  • Formazione dei dipendenti: affronta l’esposizione involontaria e lo human error, efficace ma non copre tutti i rischi.
  • Piattaforma di sicurezza: monitora e governa l’attività degli utenti (data input, log, action governance), mitigando efficacemente i rischi senza compromettere la produttività.

Tramite i nostri corsi di Security Awareness e un’azione combinata di phishing campaign simulate si potrà valutare il grado di suscettibilità dei dipendenti e renderli consapevoli e informati sui rischi.

Security Architect srl è un provider SOC as a Service e tramite strumenti e piattaforme SIEM (Security Information and Event Management) offre visibilità in tempo reale dello User Behaviour e funzionalità di applicazione di norme a seconda dei privilegi dell’account utente.

Protezione e abilitazione dall’IA

Gli strumenti di monitoraggio continuo sono, ad oggi, l’unica soluzione in grado di proteggere efficacemente dai rischi di esposizione dei dati in ChatGPT, consentendo alle organizzazioni di sfruttare il potenziale dei generatori basati sull’intelligenza artificiale senza compromettere la sicurezza dei dati. Come è ovvio, anche i sistemi di cyber security seguono lo sviluppo dell’IA.

scopri i nostri servizi:
Security Architect Weekly: minacce attive, compromissioni SaaS e scadenze NIS2
News

Security Architect Weekly: minacce attive, compromissioni SaaS e scadenze NIS2

Questa settimana il panorama cyber ha mostrato ancora una volta quanto sia fragile l’equilibrio tra continuità operativa e cybersicurezza delle aziende. Vulnerabilità 0-day sfruttate in tempo reale, supply chain compromesse, servizi SaaS violati...
Leggi tutto
Security Architect Weekly: Italia nel mirino mentre il cybercrime evolve
News

Security Architect Weekly: Italia nel mirino mentre il cybercrime evolve

Gli attacchi informatici in Italia continuano a crescere e si inseriscono in un quadro globale sempre più complesso. Le minacce informatiche, infatti, non hanno dato tregua la scorsa settimana: i gruppi criminali stanno...
Leggi tutto
Security Architect weekly: tra minacce globali e sistemi aziendali fragili
News

Security Architect weekly: tra minacce globali e sistemi aziendali fragili

Gli attacchi informatici diventano sempre più intelligenti e difficili da fermare. In questa analisi sulle minacce informatiche della settimana vediamo come i threat actor hanno usato strumenti subdoli, ingannato sistemi ritenuti affidabili e...
Leggi tutto
Security Architect Weekly: dalla legge sull’IA alle vulnerabilità in rete
News

Security Architect Weekly: dalla legge sull’IA alle vulnerabilità in rete

Sicurezza, fiducia e stabilità sono i valori che per anni sono stati alla base del nostro mondo digitale e della difesa dalle minacce informatiche. Oggi questi valori, se dati per scontati, diventano leve...
Leggi tutto
Load More
Per saperne di piÙ

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *