随着越来越多的面部照片被发布在网络上 , 试图从这些图像中读出我们“本质”的研究不会消失 。 在过去的几年中 , 有一波新的人工智能(AI)研究试图做到这一点 。 一家科技初创企业已经开始向私营企业和政府提供面部识别服务 。 去年 , 两名计算机科学家在网上发布了一篇非同行评议的论文 , 声称他们的算法仅仅从面部图像中就能推测出人们的犯罪行为 。 最近 , 一份著名的期刊接受了一篇论文 , 这篇论文声称人工智能算法可以从一个人的面部图像中检测出其性取向 , 其准确度令人惊讶 。
然而 , 同样的问题在人工智能研究中也存在 。 后者使用强大的算法 , 可以检测两组图像之间细微但系统的差异 。 但是 , 用于训练算法的图像样本和算法本身一样重要 。 在关于犯罪的论文那篇中 , 作者提供了一些“罪犯”和“非罪犯”的图片 。 除了明显的面部表情差异外 , “罪犯”穿的是T恤衫 , 而“非罪犯”穿的则是西装 。 一个强大的算法很容易就能识别出这些差异 , 并产生一个看似准确的分类 。
在人工智能研究中 , “所有的面部图像都具有同样的代表性”这一谬论在人工智能研究中扮演着更为微妙的角色 , 尤其是当这些算法都在测量二维图像的不变面部特征时 。 相机到头部的距离 , 相机参数 , 轻微的头部倾斜 , 微妙的表情和许多其他明显的细微的差别都影响着对稳定的形态特征的测量 。 当这些差异没有被控制的时候 , 利用人工智能进行研究只是放大了我们人类的偏见 。
此外 , 使用人工智能进行“面部解读”的含义在道德上是令人厌恶的 。 那篇有关性取向的文章的第一作者声称 , 他的主要动机是提醒LGBT群体 , 这种技术有可能对他们造成伤害 , 尤其是在专制的国家 。 但是 , 尽管这项研究声称要识别同性恋者和异性恋者之间的真实形态差异 , 但它真正做到的是 , 算法仅能通过公开的同性恋者自己发布的照片识别出他们的性取向——就像普通的人类能够识别出的一样 。
【深度解读AI“相面术”:人脸识别同性恋、罪犯是伪科学】这种“科学”的主张 , 恰好能够激励那些专制的政府将人工智能算法应用于识别公民的肖像照片中 。 而什么又能阻止他们从这些图片中“解读”情报、政治取向和犯罪倾向呢?
推荐阅读
- 一大批“机器劳动者”来袭,让人想偷懒
- Google成功“造人”,令人胆寒!人类离失业还有多远?
- “暗黑版”AI现身引忧虑 我们需要怎样的人工智能?
- 如何驯养小狗
- 十二星座中最好骗的星座,巨蟹座上榜,最后一位堪比“唐僧”
- 如何理解物以稀为贵
- “冷气十足”,那些能将你逼疯的星座
- “负荆请罪”的廉颇和蔺相如 负荆请罪的主人公是谁
- 揭秘男人的“处女情结”
- 都是凭实力单的身,偏你这么“优秀”了?
