Data poisoning attack - Attaque par empoisonnement

  • Mise à jour le 25 septembre 2024
  • 1 min. à lire

Une attaque par empoisonnement de données (data poisoning attack) est une technique malveillante visant à compromettre l'intégrité et la fiabilité des modèles d'apprentissage automatique. Cette attaque consiste à injecter des données falsifiées ou trompeuses dans l'ensemble d'entraînement d'un modèle, dans le but d'altérer son comportement ou ses prédictions.

Dans le contexte de la programmation et de l'intelligence artificielle, cette attaque cible principalement les systèmes d'apprentissage automatique et les algorithmes de machine learning. Elle peut être particulièrement dangereuse pour les modèles qui s'entraînent en continu sur de nouvelles données, comme les systèmes de recommandation ou les filtres anti-spam.

Par exemple, un attaquant pourrait injecter des données erronées dans un système de reconnaissance d'images.

Les attaques par empoisonnement de données sont liées à d'autres concepts de sécurité en IA, tels que les attaques adverses et la robustesse des modèles. Pour se protéger, les développeurs peuvent mettre en place des techniques de détection d'anomalies, de validation des données et de nettoyage des ensembles d'entraînement.

tracking-thumb