如果它有保险或其他财务后果 , 拒绝技术可能会更难 。 Nourbakhsh先生说:“医生处于一种他们觉得服从系统的位置 。 ” “简单地说他们仍然会做出决定并不能做到这一点 。 ”
类似的担忧在20世纪80年代出现 , 当时人工智能领域由“专家系统”主导 , 旨在引导人类用户通过“决策树”在任何情况下达到正确的答案 。 事实证明 , 太难以预测所有使现实世界决策复杂化的不可预见的因素 。
但是基于机器学习的最新AI看起来将被广泛采用 , 并且可能更难以进行二次猜测 。 由于他们在诸如图像识别等狭窄领域的成功 , 对这些系统的期望一直在飙升 。 他们的创作者非常乐意接受炒作 。
“我们正在失控的营销部门 , ”Schank先生说 。 他特别挑出 ?IBM , 认为该公司在谈到Watson时严重过度承诺——这是AI圈子中经常听到的批评 。
IBM研究工作的首席运营官达里奥吉尔(Dario Gil)捍卫了近八年前围绕沃森(Watson)发起一项大型计划的决定 , 他认为当时没有其他科技公司能够在人工智能方面发挥核心作用 。 但是 , 他补充说:“我们对一般情况之间的差异不够清楚 。 “
评估人工智能系统的质量建议会带来其他挑战 , 非专家可能不愿意猜测他们不理解的工作机器 。
这不是一个新的困境 。 30多年前 , 一台名为Therac-25的放射治疗机的软件故障导致一些患者大量服用过量 。 Nourbakhsh先生说 , 技术人员无法识别缺陷 , 因此机器的使用时间更长 。
一些计算机科学专家表示 , 他们希望人与机器之间能拥有更具创造性的关系
最先进的机器学习系统中使用的技术 , 即神经网络 , 带来了额外的挑战 。 它们模仿人类大脑如何运作的理论 , 通过人工神经元层传递数据 , 直到出现可识别的模式 。 与传统软件程序中使用的逻辑电路不同 , 无法跟踪此过程以确定计算机为什么会提出特定答案 。 这是采用神经网络的一大障碍 。
“这是人工智能的奇特讽刺——最好的系统碰巧是今天最不易解释的系统 , ”Nourbakhsh先生说 。
然而 , 一些专家表示正在取得进展 , 并且不久之后机器学习系统能够指出导致他们做出特定决定的因素 。 “这并非不可能——你可以向内看 , 看看它正在发出什么信号 , ”赫克先生说 。
【面向未来:人与机器人共存的三种理想方式】像许多在该领域工作的人一样 , 他表达了乐观的态度 , 即人类和机器一起工作 , 所取得的成就远远超过任何一个人能够独自完成的任务 。 但是 , 在美好的未来到来之前 , 还是有很多严峻的设计挑战等待人类解决 。
推荐阅读
- 出故障何需外力,未来机器人能自我修复
- 科学家训练AI写诗 未来将能与莎士比亚较量?
- 这些鼓励的话让孩子未来充满智慧,你说过吗
- 揭秘新加坡的未来机场:不需要任何人类工作者
- 未来没来,但中国已成为机器人的试验场
- 人与世界的关系
- 未来,你的快递是这样被送到的……
- 初见未来婆婆,这几件事要忌讳
- 孩子的这些小爱好对未来学习有帮助吗
- AI论坛共话中美人工智能的未来
