“面部识别”属于种族偏见技术?
继Master/Slave和黑名单白名单这样的“涉黑”词汇被硅谷科技公司“自我审查”后,这场黑人抗议运动对科技业的影响只是露出了冰山一角。接下来,对”编码和算法偏见“的追究,才算进入正题。例如,面部识别技术目前在美国也面临被封禁的危险,原因倒不是因为隐私,而是因为“种族偏见”。
近日,继奥克兰和圣弗朗西斯科等城市之后,美国东海岸最大城市波士顿也宣布将禁止使用面部识别软件进行监视。马萨诸塞州议员里卡多·阿罗约(Ricardo Arroyo)称面部识别技术具有“明显的种族偏见”。
马萨诸塞州自由技术计划美国公民自由联盟(ACLU)主任卡德·克罗克福德(Kade Crockford)告诉Inverse杂志称:“警察部门使用的监控技术不公平地对待黑人和棕色人种。”“汽车牌照阅读器、监控摄像头、社交媒体监控乃至无人机只是其中的一些例子。”
算法偏见已经不是什么秘密了。就像父母将他们毫无节制和偏见的意见传给孩子一样,程序员也有“原罪“,他们会通过他们使用的数据和所作的假设将他们的偏见直接编码到这些算法中。
尽管偏差可能没有被有意地编码到算法中,但是结果仍然是有害的。在通过面部识别软件进行种族特征分析时,麻省理工学院的一项研究发现,在识别肤色较黑的人时,这些算法的错误率高达35%。该错误源于以下事实:这些算法根本没有经过训练,无法识别足够多的不同面孔的图像,已经导致了底特律的黑人Robert Williams被非法监禁。
以波士顿为例,该市警察部门目前尚未使用面部识别软件,但克罗克福德表示,滥用该技术的风险太高,无法简单地等待事件发生。
波士顿警务专员威廉·格罗斯( William Gross)说:
很长一段时间以来,包括波士顿警察局在内的警察部门都采取了‘先部署,后回答问题’的方法来获取和使用监视技术。”“但是面部监视太危险了。
相关文章
- 2条评论
- 离鸢胭话2022-05-28 07:45:11
- 给孩子一样,程序员也有“原罪“,他们会通过他们使用的数据和所作的假设将他们的偏见直接编码到这些算法中。尽管偏差可能没有被有意地编码到算法中,但是结果仍然是有害的。在通过面部识别软件进行种族特征分析时,麻省理工学院的一项研究发现,在识别肤色较黑的人时,这些算法的错误率
- 可难猫爷2022-05-28 02:19:41
- 社交媒体监控乃至无人机只是其中的一些例子。”算法偏见已经不是什么秘密了。就像父母将他们毫无节制和偏见的意见传给孩子一样,程序员也有“原罪“,他们会通过他们使用的数据和所作的假设将他们的偏见直接编码到这些算法中。尽管偏差可能没有被有