我们调查了十几家公司,看看他们在解决这个问题上做了什么。专家说:还不够
面部识别正在成为日常生活的一部分您可能已经使用它来登录您的手机或计算机,或通过您的银行验证付款在中国,这项技术比较普遍,你的脸可以用来买快餐,或者在公共厕所领取你的卫生纸津贴更不用说世界各地的执法机构如何尝试将面部识别作为大规模监控的工具
但这项技术的广泛采用掩盖了潜在的结构性问题,尤其是偏见问题研究人员的意思是,用于面部识别,识别或分析的软件会根据其识别的人的年龄,性别和种族而有所不同
麻省理工学院媒体实验室的研究人员在 2 月发表的一项研究发现,与浅肤色男性相比,IBM,微软和 Face++ 设计的面部识别算法在检测深肤色女性性别时的错误率高达 35%通过这种方式,面部识别的偏见可能会加剧社会的偏见,不成比例地影响妇女和少数族裔,可能将她们排除在世界数字基础设施之外,或对她们做出改变生活的判断
我们需要全行业的面部识别准确性测试
这就是坏消息更糟糕的消息是,公司还没有解决这个问题的计划尽管个别公司正在解决他们自己软件中的偏见问题,但专家表示,没有任何基准可以让公众在整个行业范围内跟踪改进因此,当公司确实减少了算法中的偏见时,很难判断这有多大意义
乔治城法律隐私与技术中心的助理 Clare Garvie 告诉The Verge,许多人认为是时候引入行业范围内的偏见和准确性基准了:衡量算法在不同人口统计数据 管理它测试了数十种面部识别系统在不同场景中的准确性,例如将护照照片与站在边境口岸的人进行匹配,或者将闭路电视录像中的面孔与数据库中的面部照片进行匹配它还测试人口差异——算法如何根据性别,年龄和种族执行
可是,FRVT 完全是自愿的,提交算法的组织往往是试图向联邦政府出售其服务的企业供应商,或者是测试新的实验模型的学者NEC 和金雅拓等较小的公司提交了他们的算法,但没有一家大型商业科技公司这样做
Garvie 建议,与其为面部识别准确性创建新的测试,不如扩大 FRVT 的覆盖范围 NIST 在进行这些测试方面做得非常出色,Garvie 说 他们的资源也有限我怀疑我们需要立法或联邦资金支持来提高 NIST 测试其他公司的能力另一个挑战是,亚马逊和微软等公司部署的深度学习算法不能轻易被送去进行分析它们是大量不断更新的软件,与旧的面部识别系统非常不同,后者通常可以安装在一个拇指驱动器上
我们不做监管,我们不做政策我们只生产数字
NIST 的生物识别标准和测试负责人 Patrick Grother在接受The Verge采访时明确表示,该组织目前的角色不是监管我们不做监管,我们不做政策我们只是产生数字,格罗瑟说NIST 近 20 年来一直在测试面部识别算法的准确性,目前正在准备一份专门针对偏见主题的报告,该报告将于今年年底发布
Grother 说,尽管自 NIST 开始测试以来错误大幅减少,但不同算法的性能之间仍然存在很大差异不是每个人都可以进行面部识别,但很多人认为他们可以,他说
Grother 说,最近关于偏见的讨论经常混淆不同类型的问题他指出,虽然训练数据集缺乏多样性会产生偏见,但拍摄对象的不良照片也会产生偏见,尤其是在他们的肤色没有适当曝光的情况下同样,当应用于不同类型的任务时,不同类型的错误意味着更多任何基准或法规都需要考虑所有这些微妙之处
在中国,警方已开始使用内置面部识别功能的太阳镜来识别罪犯。非裔美国女性在一对多搜索中最常被错误识别,而亚洲人,非裔美国人,美洲原住民和太平洋岛民在一对一搜索中都被错误识别。儿童和老人被误认的也较多。。
偏见不是唯一的问题
但关于偏见的讨论引发了关于社会使用面部识别的其他问题当更大的问题是它们是否会被用于政府监视和针对少数族裔时,为什么还要担心这些工具的准确性呢
人工智能科学家乔伊·布拉姆维尼 是麻省理工学院关于性别识别算法不同准确率的研究的合著者,他通过电子邮件告诉The Verge,仅仅解决偏见并不能完全解决这些更广泛的问题开发面部分析技术然后武器化有什么好处 Buolamwini 说需要一种更全面的方法,将面部分析技术问题视为社会技术问题技术考虑不能脱离社会影响
Buolamwini 和 AI 社区的其他一些人在这些问题上采取了积极主动的立场面部识别供应商 Kairos 的首席执行官 Brian Brackeen 最近宣布,由于存在滥用的可能性,他的公司根本不会向执法部门出售面部识别系统
技术考虑不能脱离社会影响。该研究测试了“一对一”检查,用于将某人与护照或身份证进行匹配,以及“一对多”搜索,将某人与更大数据库中的单个记录进行匹配。在某些情况下,亚裔和非裔美国人被误认的次数是白人男性的100倍。准确率最高的通常是中年白人男性。
Brackeen在接受The Verge采访时表示,在面部识别的商业部署方面,市场力量将有助于消除有偏见的算法但是,他说,当政府使用这些工具时,风险要高得多这是因为联邦机构可以访问更多数据,从而增加了这些系统被用于压制性监视的可能性同样,政府使用这些算法做出的决定将对个人生活产生更大的影响
的用例不仅仅是街上的摄像头,它是身体摄像机,面部照片,阵容,Brackeen 说他说,如果偏见是这些情况下的一个因素,那么你就有更大的机会让有色人种被错误地指控犯罪
那么,关于偏见的讨论似乎只是一场更大辩论的开始正如 Buolamwini 所说,基准可以发挥作用,但还需要做更多的工作:开发这些工具的公司,研究人员和学者必须负责对他们开发的系统进行环境限制,以减轻危害
。声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。