外媒称对抗性机器学习存漏洞 黑客攻击轻而易举( 三 )


安塞也说 , 有一个想法很有希望 , 那就是训练神经网络 , 通过对抗性示例包含在训练数据中来提高识别神经网络的健壮性 。 他说:“通过这种方式 , 神经网络‘学会’对对抗性示例有一定的抵抗力 。 ”
费尔南德斯说 , 在机器学习的核心发现这样的缺陷并不令人惊讶 , 因为系统通常在普及之前并不会经过良好的测试 。 “随着机器学习变得越来越普遍 , 安全研究人员会开始从对抗的角度来研究它 , 并发现其中一些可以利用的东西 , 这是很自然的 , ” 费尔南德斯如是指出 。
这不仅是一个技术缺陷 , 也是一个哲学假设 。 首先 , 当攻击者可以自由操纵数据获取优势时 , 机器学习开发人员会假定训练数据和测试数据是相似的 。 第二 , 我们往往认为神经网络像我们一样思考 , 但实际上并不是如此;神经网络用来识别玩具龟的元素与我们所寻找的不同 , 而这种差异性正是攻击的突破口 。 费尔南德斯说:“神经网络是非常粗略地模拟人类大脑 。 试图将它们视为与我们大脑类似的运作方式 , 可能并不是思考它们的最佳方式 。 ”

推荐阅读