direkt.fr, Votre revue de presse des actualités de la tech et de la science.

Il suffit de 250 contenus malveillants pour empoisonner une IA

Une étude réalisée par Anthropic (créateur du bot Claude), l’Alan Turing Institute et le UK AI Security Institute a démontré qu’il suffit d’environ 250 documents empoisonnés pour altérer un modèle — qu’il compte 600 millions ou 13 milliards de paramètres. L’idée reçue selon laquelle un attaquant doit contrôler un certain pourcentage du corpus d’apprentissage est donc battue en brèche.

https://www.01net.com/actualites/il-suffit-de-250-contenus-malveillants-pour-empoisonner-une-ia.html

Laisser un commentaire

Concevoir un site comme celui-ci avec WordPress.com
Commencer