Dati personali a rischio, stop del Garante a ChatGpt

Il software di intelligenza artificiale usa massicciamente i dati raccolti per "addestrare" gli algoritmi e manca di sistemi di verifica dell’età degli utenti. OpenAi ha 20 giorni per rispondere e una multa fino a 20 milioni di euro.

27

Stop a ChatGpt finché non rispetterà le normative italiane in materia di privacy. Il Garante per la protezione dei dati personali ha disposto  la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAi, la società Usa che ha sviluppato e gestisce la piattaforma. L’Autorità ha aperto anche un procedimento istruttorio. Il Garante della privacy ha rilevato la mancanza di un’informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAi e l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali che fanno funzionare gli algoritmi della piattaforma. Inoltre, “le informazioni fornite da ChatGpt non sempre corrispondono al dato reale”, denuncia l’Autorità, determinando quindi un trattamento di dati personali inesatto, e prescrivendo che il servizio sia rivolto ai maggiori di 13 anni. Il Garante evidenzia come l’assenza di filtri per la verifica dell’età degli utenti “esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”. Ora OpenAi deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

Print Friendly, PDF & Email