Les chercheurs démontrent qu’une centaine d’échantillons malveillants peuvent compromettre n’importe quel modèle d’IA en 2025

Les systèmes d’intelligence artificielle, bien qu’innovants, révèlent une vulnérabilité insoupçonnée : une poignée de documents malveillants suffisent à altérer leur comportement. Que cela signifie-t-il pour la sécurité des modèles utilisés dans des secteurs critiques ? Dans un rebondissement inattendu du domaine de l’intelligence artificielle, il a été récemment découvert que l’introduction de seulement 250 documents…