“面部识别”属于种族偏见技术?

“面部识别”属于种族偏见技术?

黑帽SEO访客2021-10-11 13:16:003702A+A-

继Master/Slave和黑名单白名单这样的“涉黑”词汇被硅谷科技公司“自我审查”后,这场黑人抗议运动对科技业的影响只是露出了冰山一角。接下来,对”编码和算法偏见“的追究,才算进入正题。例如,面部识别技术目前在美国也面临被封禁的危险,原因倒不是因为隐私,而是因为“种族偏见”。

近日,继奥克兰和圣弗朗西斯科等城市之后,美国东海岸最大城市波士顿也宣布将禁止使用面部识别软件进行监视。马萨诸塞州议员里卡多·阿罗约(Ricardo Arroyo)称面部识别技术具有“明显的种族偏见”。

马萨诸塞州自由技术计划美国公民自由联盟(ACLU)主任卡德·克罗克福德(Kade Crockford)告诉Inverse杂志称:“警察部门使用的监控技术不公平地对待黑人和棕色人种。”“汽车牌照阅读器、监控摄像头、社交媒体监控乃至无人机只是其中的一些例子。”

算法偏见已经不是什么秘密了。就像父母将他们毫无节制和偏见的意见传给孩子一样,程序员也有“原罪“,他们会通过他们使用的数据和所作的假设将他们的偏见直接编码到这些算法中。

尽管偏差可能没有被有意地编码到算法中,但是结果仍然是有害的。在通过面部识别软件进行种族特征分析时,麻省理工学院的一项研究发现,在识别肤色较黑的人时,这些算法的错误率高达35%。该错误源于以下事实:这些算法根本没有经过训练,无法识别足够多的不同面孔的图像,已经导致了底特律的黑人Robert Williams被非法监禁。

以波士顿为例,该市警察部门目前尚未使用面部识别软件,但克罗克福德表示,滥用该技术的风险太高,无法简单地等待事件发生。

波士顿警务专员威廉·格罗斯( William Gross)说:

很长一段时间以来,包括波士顿警察局在内的警察部门都采取了‘先部署,后回答问题’的方法来获取和使用监视技术。”“但是面部监视太危险了。

点击这里复制本文地址 以上内容由黑资讯整理呈现,请务必在转载分享时注明本文地址!如对内容有疑问,请联系我们,谢谢!
  • 2条评论
  • 离鸢胭话2022-05-28 07:45:11
  • 给孩子一样,程序员也有“原罪“,他们会通过他们使用的数据和所作的假设将他们的偏见直接编码到这些算法中。尽管偏差可能没有被有意地编码到算法中,但是结果仍然是有害的。在通过面部识别软件进行种族特征分析时,麻省理工学院的一项研究发现,在识别肤色较黑的人时,这些算法的错误率
  • 可难猫爷2022-05-28 02:19:41
  • 社交媒体监控乃至无人机只是其中的一些例子。”算法偏见已经不是什么秘密了。就像父母将他们毫无节制和偏见的意见传给孩子一样,程序员也有“原罪“,他们会通过他们使用的数据和所作的假设将他们的偏见直接编码到这些算法中。尽管偏差可能没有被有

支持Ctrl+Enter提交

黑资讯 © All Rights Reserved.  
Copyright Copyright 2015-2020 黑资讯
滇ICP备19002590号-1
Powered by 黑客资讯 Themes by 如有不合适之处联系我们
网站地图| 发展历程| 留言建议| 网站管理