谁才是让AI产生偏见的幕后推手?


谁才是让AI产生偏见的幕后推手?



美国麻省理工学院媒体实验室研究项目显示, 人工智能识别浅色皮肤男性的平均错误率不超过1%, 识别深色皮肤女性的平均错误率达35%……
人脸识别所导致的偏见问题一直受到广泛关注 。 近期, 一篇关于图像超分辨率的论文引发了对于产生偏见原因的新争论 。
网友利用论文中的开源代码进行了模型推理, 在使用时发现, 非白人面孔的高糊照片被还原成了一张白人面孔 。 对此, 2018年图灵奖得主、AI领军人物杨立昆(Yann LeCun)在推特上指出, 当数据有偏见时, 机器学习系统就变得有偏见 。 而这一观点, 掀起一场争论浪潮 。 有人说, 机器学习系统产生偏见不应只归咎于数据集, 这种甩锅的做法是不公平的, 还有技术、人类观念等原因 。
现在还没有100%无偏见的数据集
随着人工智能时代的到来, 人脸识别技术正被越来越广泛地应用在执法、广告及其他领域 。 然而, 这项技术在识别性别、肤色等过程中, 存在着一定偏见 。
“在美国, 人脸识别系统中白人男性的识别率最高, 而黑皮肤女性的识别率则最低;在亚洲国家的人脸识别系统中黄种人的识别率相比白种人的识别率差距就会小一些 。 ”福州大学数学与计算机科学学院、福建省新媒体行业技术开发基地副主任柯逍博士说 。
这次陷入争论中心的人脸识别偏见问题其实是一个存在很久、热度很高的话题 。
早前, 美国麻省理工学院媒体实验室主导的一项名为《Gender Shades》的研究项目在研究了各个前沿科技公司的面部识别系统后发现, 各系统在识别男性面脸与浅色面脸方面表现更佳, 浅色皮肤男性的平均识别错误率不超过1%, 浅色皮肤女性的平均识别错误率约为7%, 深色皮肤男性的平均识别错误率约为12%, 深色皮肤女性的平均识别错误率则高达35% 。
那么本次争议中, 杨立昆指出的数据集问题是如何产生偏见的?有无100%没有偏见的数据集?“不均衡的数据, 导致了系统在学习时, 更好地拟合了比重较大的数据, 而对占比小的数据的拟合则表现不佳, 这就可能最终导致了偏见的产生 。 ”柯逍介绍说, 如一个常见的人脸识别数据集LFW, 数据集中有近77%的男性, 同时超过80%是白人 。
“目前, 几乎可以肯定的是没有100%无偏见的数据集 。 ”柯逍举例说, 在收集数据时, 可以针对性地让男性与女性数目一样, 甚至也可以让各种肤色的数据数目都一样 。 但是, 其中可能大部分人是没有戴眼镜的, 这可能就对戴眼镜的人进行识别时带来了偏见 。 进一步讲, 各个年龄段的人脸也很难做到完全一致, 导致最后学习到的模型可能对戴眼镜、年长或年幼的人脸产生偏见 。 所以有时候讨论数据偏见的产生, 会发现其产生的原因是考虑问题的角度不同 。
出现偏见不能只归咎于数据
众多专家也指出, 数据可能是机器学习系统中偏见的来源, 但不是唯一的来源 。
其实, 在本次争议中, 杨立昆在推特中已经很明确地表示, 他的本意并不是说问题都出在数据集上, 只是针对这篇论文, 其算法在特定场景下, 换个数据集就能解决问题, 但并不是说所有的机器学习系统偏见都来源于数据集 。
那么, 谁才是产生偏见真正的“幕后推手”?
AI学习过程应该是架构、数据、训练算法等的相互作用 。 算法包括了特征的选择、损失函数的选择、训练方法的选择以及超参数调节等, 其本身的缺陷也是偏见产生的一个原因 。
2019年12月, 美国国家标准技术研究院进行的一项研究发现, 在大多数当前评估的人脸识别算法中, 跨人种差异确实存在广泛的准确性偏差 。

推荐阅读