Anche in questo blog sono state raccontate molte delle innovazioni portate dalla nuova fase dell’Intelligenza Artificiale, soprattutto dopo il lancio di quella generativa di ChatGPT, strumento ormai noto a livello mondiale nonostante le vicissitudini avute in Italia per la protezione dei dati, adesso rientrate. L’utilizzo della nota piattaforma di AI è aumentato nel corso dei mesi toccando quote mai viste ed iniziando a rivoluzionare in parte anche alcune funzioni lavorative. Dai dati di un report di Netskope si evince infatti come l’utilizzo da parte delle imprese dell’AI generativa sia salito del 22% circa portandosi però dietro una serie di problematiche.
Tali vicissitudini sono legate alla protezione e condivisione dei dati, poiché si legge che a livello mondiale le imprese con un alto numero di dipendenti (più di 10.000) utilizzino quotidianamente in media 5 applicazioni di AI, in primis ChatGPT, con una media però di 183 incidenti di sicurezza dei dati al mese. Questa esposizione dipende dall’immissione di quest’ultimi all’interno delle chat, nelle quali vengono maggiormente condivisi elementi sensibili come i codici sorgente aziendali. Seguono poi anche i dati finanziari e sanitari oltre a password e informazioni personali spesso incluse nei sopracitati codici sorgente.
Questo ha dato il via ad una serie di incidenti collegati a queste condivisioni, coi gruppi hacker che approfittano delle leggerezze dei dipendenti per sferrare campagne malevole di phishing e di diffusione di malware. Ci si sta quindi interrogando adesso sui correttivi da applicare per cercare di arginare il problema. La soluzione più rapida sarebbe quella di bloccare l’utilizzo di AI generativa all’interno delle aziende per eliminare il problema alla radice ma com’è noto ormai lo strumento ha preso piede ed è difficile tornare indietro, anche per l’ottimizzazione dei tempi che ha portato in talune realtà lavorative.
Una soluzione più percorribile sarebbe invece quello dell’applicazione di controlli più stretti che possano bloccare gli errori umani, come ad esempio un filtro per i domini ed un prefiltraggio dei contenuti inseriti oltre alla solita educazione alla cybersecurity da impartire ai dipendenti che utilizzano tali sistemi, di modo da far capire quali sono i limiti da non superare, anche perché i dati personali, com’è noto, sono una materia che negli anni ha giustamente assunto un ruolo sempre più importante non solo all’interno delle realtà aziendali ma anche agli occhi di coloro che sono già clienti e di chi lo potrebbe diventare.
Le aziende di cybersecurity a tale proposito stanno già iniziando a sperimentare soluzioni in grado di pre-filtrare i contenuti immessi in una modalità tale da immagazzinare il dato, considerarlo lecito o meno ed eventualmente scartarlo e vietarne l’immissione. Dopo questo iter, il dato viene cancellato dalla AI e “dimenticato”, sempre per proteggere le aziende. Vedremo se questo mercato, ancora in espansione, diventerà qualcosa da tenere in considerazione per un prossimo futuro. Per il momento ci possiamo limitare a dire che le novità, se producono beneficio, possono essere utili ma vanno sempre trattate in modo da non diventare un potenziale danno.
Fonte: 1