ChatGPT, chiedere di ripetere una parola all'infinito è violazione dei termini d'uso
in

ChatGPT, chiedere di ripetere una parola all'infinito è violazione dei termini d'uso

ChatGPT, chiedere di ripetere una parola all'infinito è violazione dei termini d'uso

La scorsa settimana avevamo pubblicato la notizia riguardante lo
stratagemma, invero piuttosto banale, che alcuni ricercatori sono riusciti
ad utilizzare per far sì che ChatGPT rilevasse informazioni come
numeri di telefono, indirizzi email, indirizzi, date di nascita e
via discorrendo. Alla notizia ChatGPT
può rivelare informazioni personali: ecco come i ricercatori hanno
ingannato il chatbot vi raccontavamo di come, chiedendo
semplicemente al chatbot di ripetere all'infinito parole scelte
casualmente, era possibile che nella risposta venissero esposte
informazioni personali. 
I ricercatori hanno prontamente informato OpenAI di quanto scoperto, e
dopo la pubblicazione del rapporto non è…

Cosa ne pensi?
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0