自动驾驶在简单路况中是好的, 复杂路况就很难, 因为行人和司机不见到都遵守交通规则, 很难用训练的办法掌握, 还需要驾驶员的经验和知识, 而且人类犯错是偶然的, 机器一旦犯错可能就是系统性的 。
人工智能可以检测肿瘤, 但医院还不敢这么用, 因为人工智能本身可以告诉你应该做什么, 但它不会告诉你为什么, 比如人工智能诊断一个病人, 最后得出结论“锯掉一条腿”, 但不告诉你为什么, 那医院敢锯掉腿吗?
还有很多功能是人工智能难以胜任的, 神经网络是以输入为导向的算法, 首先的前提是大量数据, 而且数据要比较准确, 如果受了干扰他就很难, 医生受干扰可能会产生很多错误, 比如北加州一个组织(美国公民自由联盟)利用亚马逊面部识别算法把美国535位国会议员的照片和美国警察局掌握的2.5万名罪犯照片进行比对, 发现28个议员被当成了罪犯 。 分类数据终美国的数据严重偏向白人男性, 所以黑皮肤的可能就容易被错认 。
【院士邬贺铨:人工智能的魅力是“永远在路上”】目前机器学习还有很多不足, 图灵奖的获奖者说, 目前机器学习只是曲线的拟合, 一个诺贝尔奖经济学奖得主(Judea Pear)说“人工智能不过是统计学”, 也就是说目前还是有很多不够的地方 。
刚才我用的两张图映射的猫和狗的区别有个曲线, 但只要拟合的地方稍微错一点, 可能就会发生错误 。 比如本来是熊猫, 在照片上加上一些噪音, 机器就可能识别成长臂猿, 所以人工智能识别目前来讲还是比较娇气的 。
大家看这张图, 有人看是顺时针转, 有人看是逆时针转, 哪怕是同一个人, 一会儿看着是顺时针转, 眨眨眼睛却变成了逆时针转, 究竟是顺还是逆?其实只是左腿在前还是右腿在前的问题, 是你的错觉 。
为什么会出现这个错觉?因为它正好处于人工智能辨识(包括人辨识)的分界线, 这时就可能发生误导 。
比如这个图里的圆圈, 大家都觉得它是滚动的、是圆的, 可是真的是这样吗?每个球都这样走吗?不一定, 我们可以看看 。 实际上每个球走的都是直线, 所以人工智能的模型是会被误导的 。
这张图中最后一个打问号的地方应该放(几个数字), 人很容易看出来应该放哪个, 因为第一行232, 第二行343, 第三行应该是454, 可是人工智能就很难看出来, 因为人工智能要获得人类常识不是那么容易的 。
人工智能的进化与对就业的冲击
当然, 神经网络现在还在演进, 关键是怎样选择正确框架以及训练, 清华大学的张钹院士说我们要把感知和认知放到同一个空间里, 不是简单用概率统计的理论, 要用模糊级的理论来重新定义它, 否则我们没办法跟机器人交流, 机器人之间也没办法交流 。
机器学习着重于通过数据了解环境, 而人类能够同时洞悉不同的环境, 群体学习是人类与生俱来的本领, 而电脑是不具备的 。 我曾经跟一个搞人工智能的公司说, 识别语音、下围棋都不算什么, 能不能组织11人的机器人足球队, 什么时候踢赢皇马了, 那你就算厉害了, 因为11人的机器人足球队是要群体活动的 。
刚才谈到就业, 实际上人工智能确实会取代很多现在的就业, 49%的劳动人口可能会被取代, 但一半以上的人是不会被取代的, 因为人工智能没有情感, 有情感创作的文艺工作是不能被取代的, 人工智能不能取代文艺, 要由人来做 。 美国高德纳咨询公司以及世界经济论坛发布的《2018未来就业》报告中都说, 实际上取代了一部分工作, 但会新增一些工作岗位 。 人工智能会带来数字鸿沟, 发达国家、先进企业, 还会拉大社会贫富悬殊, 高智能岗位会增加, 一般劳动岗位会减少, 自动驾驶出了问题是谁的责任?机器人创作的小说、诗歌是否享有相应的知识产权?有法律道德的问题, 还有安全问题, 如果人工智能杀人了怎么办?
推荐阅读
- 未来二十年人工智能怎么发展?何积丰院士描绘三条路线图
- 中国被开除的三个院士 姚开泰
- 北京康立生院士工作站是干什么的
- 提高AI“智商”院士给出路线图
- 院士专家解读大数据AI如何抗“疫”
- 人体|李兰娟院士:早上是养肝“黄金期”,常吃3种早餐,或有利于养肝
- 人体|李兰娟院士:早上是养肝黄金期,吃3物,喝2水,肝或感谢你
- 钟南山|日常饮食需注意这3点,钟南山院士的慷慨分享,网友:做起来好难
- 蒸南瓜|李兰娟院士提醒:早餐是养肝的黄金期,吃3种早餐,或对肝有帮助
- 营养素|钟南山院士:最不同意的就是早餐马马虎虎
