Une étude réalisée par Anthropic (créateur du bot Claude), l’Alan Turing Institute et le UK AI Security Institute a démontré qu’il suffit d’environ 250 documents empoisonnés pour altérer un modèle — qu’il compte 600 millions ou 13 milliards de paramètres. L’idée reçue selon laquelle un attaquant doit contrôler un certain pourcentage du corpus d’apprentissage est donc battue en brèche.
https://www.01net.com/actualites/il-suffit-de-250-contenus-malveillants-pour-empoisonner-une-ia.html

Laisser un commentaire