“暗黑版”AI现身引忧虑 我们需要怎样的人工智能?( 二 )


偏见、刻板印象、歧视都是人类社会的痼疾 , 有些流于表面 , 有些深入社会肌理 , 无法轻易剥离 。 在这样的语境中产生的数据 , 携带着大量复杂、难以界定、泥沙俱下的观点 。 如果研究者没有意识到或着手处理这一问题 , 机器学习的偏见几乎无解 。 真正的“公正算法”或许是不存在的 。
据有关媒体报道 , 在谷歌研究自然语言处理的科学家 Daphne Luong 表示 , 正确地校准标签对机器学习来说非常关键 , 有些数据集其实并不平衡 , 像维基百科上的数据 , “他”(He)出现的次数远比“她”(She)要多 。
王金桥也着重强调了“数据的均衡” 。 就算对人来说 , 不同人秉持着不同的价值观 , 但多听多看多受教育可以让人向良好的方向改进 。 机器学习也是如此 。 “训练机器时 , 要注重数据的均衡 , 给它更多可靠的数据 。 研究团队成员具有多元的学术背景(如吸纳更多社会学、心理学等领域学者加入)、性别、年龄、价值观 , 也可以帮助机器学习更加均衡 , 减少机器出现偏见、谬误甚至失控的可能 。 ”王金桥说 。
“机器学习的模型本身也要有一定的防攻击能力 , 从技术上防止本身结构设计的漏洞被攻击 , 研究者可以使用各种数据攻击机器 , 训练机器的反攻击能力 。 ”王金桥说 。
作恶还是向善 , 是人类的选择
1942年 , 阿西莫夫在短篇小说《环舞》中首次提出著名的机器人三定律:机器人不得伤害人类 , 或因不作为使人类受到伤害;除非违背第一定律 , 机器人必须服从人类的命令;除非违背第一及第二定律 , 机器人必须保护自己 。 半个多世纪过去 , 人工智能在大数据的加持下迎来爆发式发展 。 某些专用型人工智能把人类智能甩在身后 , 人们开始担忧 , 机器伤害人类的那一天是不是不远了 。
因此有一种看法很主流——人类训练有意识、有自我觉知的人工智能是不明智的 。 开个脑洞 , 机器一旦发展出自我意识 , 要反向攻击人类 , 场面或许失控 。
前段时间 , 据路透社报道 , 韩国科学技术院的人工智能研发中心正在研发适用于作战指挥、目标追踪和无人水下交通等领域的人工智能技术 , 希望在今年年底前研发出基于人工智能的导弹、潜艇和四轴飞行器 。 此事引发学术界的巨大震动 , 抗议纷至沓来 , 并最终以院长保证无意于“杀手机器人”的研发并重申人类尊严和伦理收场 。 在美国 , 以“不作恶”为纲的谷歌也因与国防部的合作协议涉及“Maven项目”被推上风口浪尖 , 反对者普遍认为 , 识别结果完全有可能被用于军事用途 , 比如说精准打击 。 谷歌最终表示终结协议 。
相较于舆论环境的忧心忡忡 , 研究者对“技术向善”普遍乐观 。 他们认为把AI和“杀人机器”联系在一起 , 近乎“捧杀” , 夸大AI能力之余 , 也引发不明真相的公众恐慌 , 无益于人工智能的发展环境 。
“很多人提到AI总是一惊一乍 , 把AI说成超人 。 我相信人工智能是能解决问题的 , 但大家的期待也要在合理范围内 。 人和机器各有优势 , 技术会服务于特定场景 , 但也不需要把AI捧上天 。 ”接受科技日报采访人员采访时 , 思必驰北京研发院院长初敏博士忍不住“抱怨”了一下 。 看来“我们需要怎样的AI”这一题 , 大家都还没有答案 。

推荐阅读