Avvelenare l’IA è l’ultima frontiera degli hacker.
Un recente studio congiunto dello UK AI Security Institute, dell’Alan Turing Institute e della società Anthropic ha dimostrato che bastano 250 file manipolati all’interno dei milioni usati per istruire un modello linguistico come ChatGPT e comprometterlo in modo invisibile spingendolo ad apprendere nozioni sbagliate o a comportarsi contro la sua stessa logica.
You must log in or register to comment.
@Grub_09 @sicurezza molto interessante. Grazie


