安塞也说 , 有一个想法很有希望 , 那就是训练神经网络 , 通过对抗性示例包含在训练数据中来提高识别神经网络的健壮性 。 他说:“通过这种方式 , 神经网络‘学会’对对抗性示例有一定的抵抗力 。 ”
费尔南德斯说 , 在机器学习的核心发现这样的缺陷并不令人惊讶 , 因为系统通常在普及之前并不会经过良好的测试 。 “随着机器学习变得越来越普遍 , 安全研究人员会开始从对抗的角度来研究它 , 并发现其中一些可以利用的东西 , 这是很自然的 , ” 费尔南德斯如是指出 。
这不仅是一个技术缺陷 , 也是一个哲学假设 。 首先 , 当攻击者可以自由操纵数据获取优势时 , 机器学习开发人员会假定训练数据和测试数据是相似的 。 第二 , 我们往往认为神经网络像我们一样思考 , 但实际上并不是如此;神经网络用来识别玩具龟的元素与我们所寻找的不同 , 而这种差异性正是攻击的突破口 。 费尔南德斯说:“神经网络是非常粗略地模拟人类大脑 。 试图将它们视为与我们大脑类似的运作方式 , 可能并不是思考它们的最佳方式 。 ”
推荐阅读
- 外媒:中国引入人工智能技术优化居家养老服务
- 谁是钟离无盐
- 谁是重庆第一家火锅
- 外媒:AI与中国实体经济正加速融合释放巨大潜力
- 谁有关于立春的小故事呢
- 谁知道高斯定义是什么
- 谁知道叫花鸡哪里特产
- 谁知道莲子的别称还有藕的别称
- 谁知道陆游叫被后人称为什么啊
- 谁知道三角梅叶子的资料
