Per l’Italia, il popolare bot AI ChatGPT non è conforme alle norme europee sulla privacy. L'autorità locale per la tutela della privacy ha dato l'annuncio dopo un'indagine in corso dal marzo dello scorso anno. L’Italia ha deciso di vietare temporaneamente un popolare strumento di intelligenza artificiale (AI) per aver violato le norme sulla raccolta dei dati personali.
Dopo le promesse dello sviluppatore americano OpenAI, l'app torna online dopo quasi un mese.
L’anno scorso, il Garante per la Protezione dei Dati Personali (GPDP) ha stilato un elenco di misure a cui un’azienda statunitense deve attenersi prima di essere reimpiegata in Italia. OpenAI, ad esempio, dovrebbe garantire che i bambini non possano più utilizzare un sistema di intelligenza artificiale e che gli adolescenti siano esclusi senza il consenso dei genitori.
L'azienda doveva anche dare la possibilità ai non utenti di opporsi al trattamento dei propri dati. Appare ormai insufficiente per conformarsi a norme europee adeguate.
ChatGPT non è conforme all'Informativa sulla privacy
La GPDP ha ora notificato a OpenAI “violazioni della normativa europea in materia di protezione dei dati personali”. L'azienda ha 90 giorni per rispondere.
Anche l'autorità di controllo olandese, l'Autorità olandese per la protezione dei dati (AP), aveva precedentemente affermato di essere preoccupata per il trattamento dei dati personali da parte di ChatGPT. Un'indagine congiunta con altri regolatori europei è ancora in corso, ha detto un portavoce.
L’anno scorso, l’Unione Europea è stata la prima a introdurre una legislazione per regolamentare parzialmente l’IA. Inoltre, l’Unione Europea ha adottato già da tempo una rigorosa legislazione sulla privacy.
Leggi anche: OpenAI, creatore di ChatGPT, ha il proprio app store, con bot che possono aiutare con lo stipendio o con i calcoli
“Praticante di musica amatoriale. Imprenditore da una vita. Esploratore. Appassionato di viaggi. Studioso di tv impenitente.”