Adversarial Robustness Toolbox 检测模型及对抗攻击的工具箱​开源项目

我要开发同款
匿名用户2018年04月20日
40阅读
开发技术Python
所属分类人工智能、机器学习/深度学习
授权协议MIT

作品详情

AdversarialRobustnessToolbox是IBM研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强AI模型被误导的防御性,让AI系统变得更加安全,目前支持TensorFlow和Keras框架,未来预计会支持更多框架。

支持以下攻击和防御的方法

DeepFool

FastGradientMethod

JacobianSaliencyMap

UniversalPerturbation

VirtualAdversarialMethod

C&WAttack

NewtonFool

防御方法

Featuresqueezing

Spatialsmoothing

Labelsmoothing

Adversarialtraining

Virtualadversarialtraining

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论