Ha fatto scalpore, qualche giorno fa, la decisione del garante italiano per la privacy di porre uno stop al servizio di Intelligenza Artificiale ormai noto in tutto il mondo ChatGPT, che utilizza appunto la AI in un modo del tutto innovativo, come abbiamo visto anche in un vecchio articolo sulla cybersecurity. In realtà la sanzione del garante, che ha colpito OpenAI intorno a fine marzo, consisteva in 20 giorni di stop oltre che una limitazione di utilizzo del tool ChatGPT, cosa che ha fatto sì che la stessa società di sviluppo lo bloccasse direttamente.
La cosa ha suscitato un grosso dibattito poiché nessun paese occidentale aveva operato tale blocco di questo strumento, mentre ciò è avvenuto in alcuni paesi asiatici come Cina e Russia. Tale argomentazione è stata usata da molti critici della scelta del garante, mentre chi difende quest’ultimo obietta all’Intelligenza Artificiale di stare assorbendo una quantità gigante di dati personali in modo incontrollato. I motivi che hanno spinto il garante a bloccare la piattaforma sono principalmente quattro, ovvero l’informativa inidonea per la raccolta dati, la mancanza di norme che gestiscano le modalità di raccolta di tali dati, un trattamento inidoneo di quest’ultimi da parte di ChatGPT ed infine il mancato controllo dell’età degli utenti iscritti.
A guarnire il tutto si è aggiunta sicuramente la perdita di dati subita dalla piattaforma intorno al 20 marzo, quando sono stati rubate informazioni sugli account, sui pagamenti e le conversazioni. Oltretutto, come visto tante volte anche per i più noti social network, anche le banche dati di ChatGPT si trovano in data center americani, quindi il giudizio del garante si è mosso anche con maggiore scrupolo. Non è presente infatti nessuna indicazione di trattamento di dati come nome, cognome ed età di chi si registra all’interno della chat, dei quali possono far parte anche le credenziali utilizzate per i social, che poi ChatGPT usa per l’algoritmo. Per questa pratica attualmente, in UE, c’è un vuoto normativo, altra ragione per la quale si è dovuto cercare di mettere un freno.
C’è poi un problema abbastanza importante, ovvero la non conoscenza della fine che fanno i dati che vengono recuperati da ChatGPT quando gli si chiede di formulare un testo su una persona. L’algoritmo infatti cercherà tutte le informazioni in rete, che se poi si riveleranno sbagliate costituiranno un potenziale danno alla persona stessa, perché chi ricercherà quest’ultima riceverà sempre informazioni errate ormai entrate nell’algoritmo e prese come buone. Adesso, in base a queste osservazioni del garante bisognerà aspettare i 20 giorni di stop totale per capire come agirà OpenAI per modificare e sanare tutti i punti messi in discussione. Questa decisione italiana però si scosta da quelle prese da altri stati, smentendo di fatto le voci che ci vorrebbero simili a Cina e Russia, poiché ChatGPT in Italia è stato bloccato per via di pratiche nebulose di raccolta dati, mentre negli altri paesi è stata sufficiente la paternità statunitense della piattaforma. Ciò che è certo è che OpenAI rivendica con forza il diritto a sviluppare liberamente e senza paletti le piattaforme di Intelligenza Artificiale.
Fonte: 1