L'Italia blocca l'uso dell'intelligenza artificiale ChatGPT

Le autorità italiane hanno annunciato venerdì la loro decisione di bloccare il chatbot ChatGPT, accusato di non rispettare la normativa sui dati personali e di non avere un sistema per verificare l'età degli utenti minorenni.

ANNUNCIO



Questo è il primo nel mondo occidentale. L'Italia ha bloccato l'intelligenza artificiale ChatGPT venerdì (31 marzo ) per problemi di utilizzo dei dati, due mesi dopo aver vietato un altro programma commercializzato come "amico virtuale".

In un comunicato, il Garante per la protezione dei dati personali italiano avverte che la sua decisione ha "effetto immediato" e accusa il chatbot di non rispettare le normative europee e di non verificare l'età degli utenti minorenni.


Questa decisione comporterà "la limitazione temporanea del trattamento dei dati degli utenti italiani nei confronti di OpenAI", la società dietro l'applicazione, secondo il documento.


ChatGPT è apparso a novembre ed è stato rapidamente rilevato dagli utenti colpiti dalla sua capacità di rispondere chiaramente a domande difficili, scrivere sonetti o scrivere codice per computer. Finanziato dal colosso informatico Microsoft, che lo ha aggiunto a molti dei suoi servizi, a volte viene presentato come un potenziale concorrente del motore di ricerca Google.

Perdita di dati
L'ente italiano sottolinea che ChatGPT "ha subito il 20 marzo una perdita di dati riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento".

Dopo le segnalazioni iniziali, OpenAI ha interrotto brevemente il servizio, quindi ha riconosciuto un bug in uno strumento di terze parti ora risolto che interessava l'1,2 % dei suoi abbonati e un numero indefinito di utenti gratuiti.

L'autorità gli contesta anche "l'assenza di una nota informativa per gli utenti, i cui dati sono raccolti da OpenAI, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiva dei dati personali, al fine di "formare" il algoritmi che eseguono la piattaforma".



Inoltre, mentre il bot è rivolto a persone di età superiore ai 13 anni, "sottolinea che la mancanza di qualsiasi filtro per verificare l'età degli utenti espone i minori a risposte assolutamente non conformi rispetto al loro livello di sviluppo.

Il Cnil, il poliziotto francese per i dati personali, "non ha ricevuto una denuncia e non ha alcuna procedura simile in corso", ha indicato in una reazione ad AFP.

Tuttavia, ha contattato il suo omologo italiano "per discutere le conclusioni che sono state fatte" e mira a "chiarire il quadro normativo nei prossimi mesi".

App Replika bandita
L'ente italiano aveva bloccato a inizio febbraio per motivi analoghi l'applicazione Replika, che offre di chattare con un avatar su misura. Alcuni utenti si erano lamentati di aver ricevuto messaggi e immagini troppo ardite, vicine alle molestie sessuali.

Anche questa volta l'Autorità chiede a OpenAI di "comunicare entro 20 giorni le misure adottate" per porre rimedio a questa situazione, "pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato mondiale annuo", il massimo previsto dal Regolamento Europeo sui dati personali (GDPR).
Questo caso dimostra che il GDPR, che ha già comportato miliardi di dollari di multe per i giganti della tecnologia, potrebbe anche diventare il nemico delle nuove IA che generano contenuti.
Secondo Nello Cristianini, professore all'Università di Bath (Uk), "le considerazioni più importanti" sono "l'uso senza un'adeguata base giuridica dei dati personali per i modelli di formazione e la crescente possibilità di vedere questi dati riprodotti in modo inesatto".
L'intelligenza artificiale alimenta anche paure molto più profonde rispetto al mero sfruttamento dei dati personali e l'Unione europea sta attualmente preparando una bozza di regolamento che potrebbe essere finalizzata entro l'inizio del 2024, per essere applicata qualche anno dopo.
ChatGPT è stato anche bloccato subito dopo il suo rilascio in diverse scuole o università in tutto il mondo, dopo i timori di barare agli esami, e le aziende hanno consigliato ai propri dipendenti di non utilizzare l'applicazione.
"Abbiamo visto dipendenti fornire a ChatGPT i piani strategici della loro azienda per chiederle di fare una presentazione tramite slide (materiali di presentazione ndr). Idioti! Perché tutti i dati vanno in ChatGPT che può rigurgitarli se un concorrente glielo chiede la strategia di questa azienda", ha spiegato Françoise Soulie Fogelman, consigliere dell'Hub FranceIA, durante un simposio.
Mercoledì, il miliardario Elon Musk – uno dei fondatori di OpenAI di cui ha poi lasciato il consiglio – e centinaia di esperti globali hanno chiesto una pausa di sei mesi dalla ricerca sulle IA più potenti di GPT-4., l'ultima versione del software su su cui si basa ChatGPT, lanciato a metà marzo, citando "grandi rischi per l'umanità".