L’empoisonnement des IA est encore plus facile que l’on croyait
Une équipe d’universitaires et d’experts de chez Anthropic a découvert qu’un nombre fixe de mauvaises données d’entrainement suffisait à perturber les performances d’un LLM, sans considération de sa taille ni de son corpus d’apprentissage.