AdversarialRobustnessToolbox是IBM研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强AI模型被误导的防御性,让AI系统变得更加安全,目前支持TensorFlow和Keras框架,未来预计会支持更多框架。
支持以下攻击和防御的方法
DeepFool
FastGradientMethod
JacobianSaliencyMap
UniversalPerturbation
VirtualAdversarialMethod
C&WAttack
NewtonFool
防御方法
Featuresqueezing
Spatialsmoothing
Labelsmoothing
Adversarialtraining
Virtualadversarialtraining
评论