深度解读AI“相面术”:人脸识别同性恋、罪犯是伪科学( 二 )


然而, 同样的问题在人工智能研究中也存在 。 后者使用强大的算法, 可以检测两组图像之间细微但系统的差异 。 但是, 用于训练算法的图像样本和算法本身一样重要 。 在关于犯罪的论文那篇中, 作者提供了一些“罪犯”和“非罪犯”的图片 。 除了明显的面部表情差异外, “罪犯”穿的是T恤衫, 而“非罪犯”穿的则是西装 。 一个强大的算法很容易就能识别出这些差异, 并产生一个看似准确的分类 。
在人工智能研究中, “所有的面部图像都具有同样的代表性”这一谬论在人工智能研究中扮演着更为微妙的角色, 尤其是当这些算法都在测量二维图像的不变面部特征时 。 相机到头部的距离, 相机参数, 轻微的头部倾斜, 微妙的表情和许多其他明显的细微的差别都影响着对稳定的形态特征的测量 。 当这些差异没有被控制的时候, 利用人工智能进行研究只是放大了我们人类的偏见 。
【深度解读AI“相面术”:人脸识别同性恋、罪犯是伪科学】此外, 使用人工智能进行“面部解读”的含义在道德上是令人厌恶的 。 那篇有关性取向的文章的第一作者声称, 他的主要动机是提醒LGBT群体, 这种技术有可能对他们造成伤害, 尤其是在专制的国家 。 但是, 尽管这项研究声称要识别同性恋者和异性恋者之间的真实形态差异, 但它真正做到的是, 算法仅能通过公开的同性恋者自己发布的照片识别出他们的性取向——就像普通的人类能够识别出的一样 。
这种“科学”的主张, 恰好能够激励那些专制的政府将人工智能算法应用于识别公民的肖像照片中 。 而什么又能阻止他们从这些图片中“解读”情报、政治取向和犯罪倾向呢?

推荐阅读