面向未来:人与机器人共存的三种理想方式( 二 )


1 人类充当机器人的后援 , 在机器人达到其能力极限时接管
许多工作流程正在以这种方式进行重新设计——例如自动呼叫中心 , 其中语言理解系统尝试处理呼叫者的查询 , 仅在技术混淆时向操作员默认 。
优步事故是一个可能出错的极端例子 。 根据斯坦福大学的研究显示 , 人类驾驶员至少需要6秒才能恢复意识并收回控制权 。 但是 , 即使有足够的时间让人们的注意力得到恢复 , 进入某种情况的人也可能看到与机器不同的东西 , 使得切换远非无缝 。
“我们需要在软件系统和人之间共同努力——这是一个非常困难的问题 , ”Sikka先生说 。 语言的使用凸显了难度 。 Sikka先生补充说 , 人类可以用很少的词来传达意义:对说话者和听者之间的语境的共同理解将这些词语用意义进行投资 。 他补充说 , 计算机科学家尚未研究如何在机器中建立共识 。
2 确保敏感任务总是依赖于人
即使在自动化系统已经完成所有准备工作并且能够完全完成任务本身的情况下 , 军事等敏感任务还是交给人类来处理 。
军事无人机 , 人类“飞行员” , 通常位于数千英里之外 , 被要求做出射击目标的决定 , 就是一个例子 。 面部识别系统——用于帮助移民官员识别可疑旅行者——是另一种 。 赫克先生说 , 两者都表明人工智能如何在不剥夺控制权的情况下使人类更有效 。
对无人机等半自动武器的一种评价是 , 将它们变成完全自治的系统没有技术障碍 。 可以快速更改当前的程序和安全措施 。
根据加州大学伯克利分校的人工智能教授斯图尔特拉塞尔的说法 , 在国家紧急情况下将人类无人机操作员从循环中移除是一个简单而容易的步骤 , 从而促成了一个机器人武器的时代 , 这个机器人武器做出了自己的决定 。 什么时候杀人 “你不能说技术本身只能以防御的方式和人为控制 。 事实并非如此 , “他说 。
3 涉及使用AI的“人在循环”系统
机器人不能完全独立地处理任务 , 而是用作人类决策的辅助 。 压缩数据并提出建议或指导下一步采取措施的人的算法正在逐渐渗透到日常生活中 。
但是 , 算法只能与他们训练的数据一样好——而且他们不善于处理新情况 。 需要信任这些系统的人通常也需要信仰这些系统 。
Schank先生指出算法在棒球中的作用 。 分析每个击球手的优势和劣势 , 为球队传统主义者所倾向的领域提供了新的方法 。 他说 , 这些计算机辅助决策的结果可能最终会比基于纯粹人类分析的决策更糟糕 。
旧金山优步司机使用的应用程序中的一个错误将它们发送到机场货运站点而不是客运站 。 “有时人们会盲目跟随机器 , 有时人们会说:'坚持下去 , 这看起来不对 。 ' 这就像许多其他技术一样 , 人们会适应 , “技术作者蒂姆奥莱利说 。
这些可能是相对无害的情况 , 其中由于被机器引入误导而几乎没有损坏 。 但是当赌注更高时会发生什么?
智能技术在发展 , 但人类能理解它的想法吗?
IBM将医疗诊断作为Watson的主要目标之一 , 该系统首先是为赢得电视游戏节目而创建的 , 然后再改造成为一种更为通用的“认知”系统 。
这样的系统旨在由专家做出最终决定 。 IBM坚持认为人类永远都有最终决定权 。 但是 , 对于医生来说 , 覆盖计算机提供的建议是多么容易 , 根据定义 , 该计算机已经分析了更多可比较的情况并且比他们拥有的数据更多?

推荐阅读