ChatGPT di OpenAI è stato ampiamente elogiato: non c’è quasi nessuna domanda a cui non abbiamo visto rispondere. Tuttavia, l’autorità italiana che applica il Regolamento generale sulla protezione dei dati (GDPR) dell’UE ha posto un embargo immediato e temporaneo sull’uso di ChatGPT in Italia.
Ciò significa che se sei in Italia, ora non sarai in grado di utilizzare il chatbot AI. Ecco perché.
Perché l’Italia ha vietato ChatGPT?
Il 30 marzo 2023, l’Autorità italiana per la protezione dei dati personali, Garante per la Protezione dei Dati Personali (GPDP), ha annunciato ufficialmente un divieto di ChatGPT, con effetto immediato, che sarebbe durato fino a quando ChatGPT non si fosse conformato al GDPR dell’UE.
Il regolatore italiano dei dati ha dichiarato che ChatGPT di OpenAI poneva diversi problemi e violava la legge sulla privacy dell’UE. Le preoccupazioni sulla privacy del GDPR possono essere suddivise in cinque aree chiave:
Violazione delle leggi sulla privacy
La principale preoccupazione del GDPR è che ChatGPT continui a elaborare i dati personali in violazione delle sue leggi sulla privacy. Sebbene il modo in cui ChatGPT funzioni è che è stato addestrato prima della distribuzione, il chatbot raccoglie ed elabora comunque i dati dagli utenti per fornire risposte pertinenti.
Il regolatore italiano garantisce che i responsabili del trattamento dei dati seguano gli obblighi generali delineati nella legge sulla privacy dell’UE e OpenAI non è all’altezza.
Raccolta ingiustificata di dati personali
A parte la violazione delle sue leggi sulla privacy, il GDPR afferma che non vi è alcuna giustificazione legale per la massiccia raccolta ed elaborazione di dati personali da parte di OpenAI per addestrare gli algoritmi di ChatGPT. Secondo il regolatore italiano, le informazioni di ChatGPT non sempre corrispondono a circostanze fattuali, quindi OpenAI può utilizzare dati personali falsificati.
Mancanza di informazioni facilmente accessibili e trasparenti
Inoltre, il regolatore italiano ha sottolineato che OpenAI non informa gli utenti di cui raccoglie i dati. Questa è un’altra chiara violazione delle leggi sulla privacy dell’UE.
Mancanza di sistemi di verifica dell’età
Il GDPR ha annunciato che ChatGPT espone informazioni inappropriate agli utenti sotto i 13 anni perché non dispone di adeguati meccanismi di rilevamento dell’età. Questa esposizione di minorenni viola il GDPR dell’UE, che afferma che le persone devono acconsentire chiaramente al trattamento dei propri dati personali. In quanto minorenni, non devono acconsentire per loro conto.
Rischio di violazione dei dati
Pur citando una violazione dei dati segnalata il 20 marzo 2023, il regolatore italiano ha espresso preoccupazione per il rischio di violazione dei dati del chatbot. L’annuncio di Europol del potenziale dei criminali che utilizzano ChatGPT per commettere frodi e crimini informatici probabilmente ha alimentato queste preoccupazioni.
Le violazioni dei dati violano anche le leggi sulla privacy del paese: tutti i responsabili del trattamento dei dati devono implementare misure di sicurezza adeguate.

Salve mi chiamo David Rossi esperto e appassionato informatico. Mi piace tenermi sempre informato sulle ultime novità tecnologiche e per questo ho creato il sito www.soluzionecomputer.it.