La società di intelligenza artificiale OpenAI ha adottato misure drastiche per trovare vulnerabilità nei suoi sistemi tecnologici.
Ora offriranno fino a $ 20.000, l’equivalente di 210.000 corone, alle persone che segnalano “bug”, scrive Reuters. La società è dietro il popolare bot di testo ChatGPT.
“La sicurezza è fondamentale per la missione di OpenAI. Apprezziamo i contributi degli hacker etici che ci aiutano a mantenere elevati standard di privacy e sicurezza per i nostri utenti e la nostra tecnologia.” scrive la società quando hanno avviato il progetto, che chiamano Bugcrowd.
Bloccato in Italia
Poco meno di due settimane fa, le autorità italiane hanno bloccato ChatGPT per quella che ritengono essere una violazione delle norme sulla privacy dell’UE. Ritengono inoltre che il robot non verifichi l’età degli utenti.
Da allora altri paesi hanno lanciato i propri sondaggi per verificare se ChatGPT rispetta le regole sulla privacy.
OpenAI scrive di aver anche invitato i ricercatori a esaminare alcune funzioni del robot basato su testo, nonché a esaminare la struttura di comunicazione dei sistemi e la condivisione dei dati con applicazioni di terze parti.
14 punti deboli trovati
La quantità di errori varia a seconda della gravità. Il pagamento minimo è di $ 200 per errore rilevato.
Finora sono state scoperte 14 vulnerabilità secondo OpenAI, che ha pagato una media di $ 1.287,50 per ognuna.
Tuttavia, la piattaforma AI chiarisce che non premia le persone che chiedono al bot di fornire informazioni errate o dire cose malevole. Inoltre, non ottieni alcun profitto per il jailbreak, ovvero la rimozione delle restrizioni, ad esempio, che Apple ha impostato per il suo sistema operativo.
Amante di Twitter. Studioso di alcolici pluripremiato. Specialista di musica. Organizzatore sottilmente affascinante