L’uso di ChatGPT influenzerà la legge sull’IA
La prossima legge influenzerà anche l’uso di ChatGPT. Ciò che questo significa per l’uso dipenderà da come viene classificato ChatGPT. E ciò dipenderà ancora una volta da come verrà utilizzata la tecnologia e per quali scopi.
– Presumibilmente, ChatGPT può essere classificato come un sistema di intelligenza artificiale ad alto rischio, se utilizzato per scopi che possono avere un impatto significativo sulla vita, la salute, la sicurezza, i diritti o la democrazia delle persone. Ciò potrebbe accadere, ad esempio, se ChatGPT viene utilizzato per influenzare le elezioni politiche, per manipolare, disinformare o per esercitare potere o controllo sulle persone. In tali casi, ChatGPT dovrà soddisfare severi requisiti di qualità, affidabilità, trasparenza, supervisione umana, responsabilità, nonché sottoporsi a valutazione e certificazione preventiva da parte di organismi indipendenti. Qualità, valutazioni e requisiti di processo possono anche significare che ChatGPT non può essere utilizzato completamente come previsto, afferma Tellefsen.
Se, d’altra parte, ChatGPT viene utilizzato per scopi più innocenti o divertenti, come giocare, scrivere poesie o fare una chiacchierata amichevole, la legge probabilmente non limiterà l’uso di ChatGPT.
Vale anche la pena notare che l’European Privacy Board (EDPB) ha creato un gruppo di esperti per ChatGPT, dove esamineranno più da vicino la tecnologia e il suo impatto sulla privacy. Questo è stato pubblicato su sito web del GEPD il 13 aprile, a seguito del divieto imposto da OpenAI al trattamento dei dati personali dei cittadini italiani da parte del Garante per la protezione dei dati personali. Le valutazioni di questa selezione possono influenzare il modo in cui le aziende europee utilizzano ChatGPT.