– L’autorità norvegese per la protezione dei dati riceve un buon numero di richieste relative a ChatGPT. Vediamo che c’è un grande interesse per lo strumento in tutta Europa, afferma Tobias Judin, capo della sezione internazionale dell’autorità danese per la protezione dei dati.
Diversi paesi europei hanno intentato causa contro ChatGPT, tra cui il Garante per la protezione dei dati personali italiano. Hanno avviato una procedura di sorveglianza e imposto un divieto temporaneo a ChatGPT di poter trattare i dati personali degli utenti in Italia. Lo sfondo è che i dati utilizzati per formare ChatGPT contengono dati personali. Queste informazioni personali vengono raccolte da varie fonti su Internet e dalle conversazioni tra gli utenti e ChatGPT. L’autorità italiana per la protezione dei dati personali non sa se queste informazioni personali siano state ottenute legalmente. Inoltre, non sanno se le informazioni fornite agli utenti sono state sufficientemente buone.
– Tuttavia, il divieto stesso verrà ora revocato, a condizione che ChatGPT continui a collaborare con l’Autorità italiana per la protezione dei dati personali, afferma Judin.
Gruppo di lavoro ridotto
Il Comitato per la protezione personale dell’UE (EDPB) è coinvolto in questo caso e ha, tra l’altro, istituito un gruppo di lavoro (europa.edpb.eu) per approfondire le questioni.
– Pensiamo che il grande coinvolgimento nel caso sia molto positivo. Molte delle nostre organizzazioni sorelle hanno casi aperti contro ChatGPT e questo gruppo di lavoro ci offre l’opportunità di coordinare questo lavoro in modo da avere un approccio europeo comune, spiega Judin.
Poiché diverse altre autorità europee per la privacy stanno già esaminando ChatGPT, l’autorità di vigilanza norvegese ha scelto di non aprire un proprio caso.
– È importante che la raccolta e l’utilizzo dei dati di addestramento per l’intelligenza artificiale rispettino i principi di riservatezza. Stiamo quindi seguendo da vicino quanto sta accadendo nello sviluppo di ChatGTP e di altre soluzioni, sottolinea Judin.
D’autres questions soulevées dans les enquêtes sur ChatGPT et leur utilisation des données personnelles sont de savoir si le principe d’exactitude a été respecté, si la sécurité des informations est suffisamment bonne et comment le service traite les données personnelles sur les enfants et les gioventù.
Suggerimenti per aziende e residenti norvegesi
È molto importante che le aziende che sviluppano o adottano soluzioni basate sull’intelligenza artificiale si concentrino sulla privacy integrata. La privacy deve essere integrata nella soluzione fin dall’inizio e queste aziende devono, ad esempio, garantire che la raccolta e l’utilizzo dei dati sulla formazione avvengano in modo legale e trasparente.
– Altrimenti rischiano, nel peggiore dei casi, di ritrovarsi con un modello il cui uso non è autorizzato, spiega Tobias Judin.
Come individuo, è importante che tu sappia che le soluzioni basate sull’intelligenza artificiale spesso utilizzano ciò che scrivi o carichi per migliorare il servizio. In altre parole, questi dati personali possono essere memorizzati e utilizzati successivamente.
– Sii consapevole di come interagisci con questi servizi e quali informazioni fornisci – e ricorda che hai diritti sulla privacy che puoi utilizzare, conclude il responsabile della sezione.
Abbiamo una panoramica completa di tutti i diritti che hai ai sensi delle politiche sulla privacy sui nostri siti web.
Sii consapevole di ciò se utilizzi servizi basati su GPT
Ricorda che le richieste inviate al servizio possono contenere informazioni personali, incluse informazioni personali sensibili.
Ricorda inoltre che la tecnologia può:
- dare risposte apparentemente buone, ma anche dare risposte fuorvianti e errate
- contengono pregiudizi e stereotipi incorporati che non sono immediatamente evidenti
- hanno diversi livelli di qualità a seconda delle lingue e degli eventuali dialetti utilizzati
Le aziende devono essere particolarmente attente
- che l’installazione e la configurazione dei servizi aziendali richiedono competenze tecniche per evitare di creare vulnerabilità (simile ai servizi cloud più in generale)
- che l’implementazione e l’integrazione dei servizi GPT richiedono misure per la sicurezza delle informazioni e la sicurezza dei dati personali (oltre alle misure specifiche del servizio)
- essere consapevoli del fatto che le richieste inviate e con risposta possono essere archiviate nella cronologia del fornitore di servizi o utilizzate dal fornitore di servizi per “ulteriori scopi di sviluppo”.