版块导航

广播专区
广播专版
关注宁波
宁波快讯宁波爆料法律援助宁波问答微视频图新鲜
分类信息
房屋租售招聘求职同城交易用车服务生意转让本地服务
吃喝玩乐购
休闲灌水宁波美食宁波旅游体育健身开心乐园户外摄影同城活动同城商城
家庭情感
结婚交流单亲驿站情感沙龙女人世界心情日记婆媳关系
都市生活
家居装修好孕论坛健康养生汽车之家教育培训投资理财宁波房产爱心公益
城市论坛
余姚论坛慈溪论坛奉化论坛宁海论坛象山论坛舟山论坛杭州湾论坛东钱湖论坛
合作版块
微信营销欢迎洽谈
站务专区
新手报道站务中心版主交流
收起左侧

当AI是一名种族主义者

[复制链接]

升级   4%

尚未签到

59

主题

59

帖子

2

积分

新手上路

Rank: 1

分享到:
发表于 2020-11-16 13:00:04 手机频道 | 显示全部楼层 |阅读模式
<

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?立即注册 手机动态码快速登录

x
原创 姚家怡 全现在

作者 | 姚家怡

全文共 2639 字,阅读大约需要 5 分钟

人们一般会认为,基于数据和程序运行的人工智能算法,能做到不受情感因素影响,达到客观中立,可是有研究者发现,事实并非如此。

一部揭示该问题的纪录片《编码偏见》(Coded Bias)近日在美国流媒体平台上映,纪录片讲述当下广泛应用于广告、金融,甚至公共事务领域的人工智能技术,如何延续了社会固有的对于种族、阶层以及性别的歧视。《好莱坞报道者》(The Hollywood Reporter)在对该影片的介绍中写道:“现代社会正面临着两个问题:当人工智能支配着我们的自由时,这意味着什么?人工智能对我们的影响是什么?这部具有开拓性的影片能让公众理解,算法如何影响我们。”
dGG6tg5RW5EZwh3A.jpg


《编码偏见》的海报。图片来源:IMDB

美国麻省理工大学人工智能究员布兰薇妮(Joy Buolamwini)是该纪录片的主角之一,她是一名黑人女性,在研究过程中,她无意间发现,自己脸部无法被识别出来——直到她戴上一个纯白色的面具。这种情形在人工智能技术中并非孤例,它是一种“算法偏见”,因为人工智能学习的数据,主要来源自浅肤色人种和男性,换句话来说,人工智能“先天地”忽视了黑人和女性。

“你以为人工智能是很前沿的技术,但人工智能建基于数据,而数据反映的是我们的历史。”布兰薇妮说。

布兰薇妮的另一个身份,是算法正义联盟(Algorithmic Justice League)的创始人,该联盟是一个推动技术平等的倡议团体,他们鼓励公众提高对人工智能的警觉,并帮助受影响社群发声,同时鼓励技术人员和政策制定者降低人工智能的偏见。“现今世界,人工智能掌控着机会、自由和信息获取权,而它可能正在固化种族和性别等方面的歧视,并且威胁到我们的医疗和经济系统,甚至影响司法公正。”算法正义联盟的网站写道。
i442Q6tzybwQ4qyQ.jpg


布兰薇妮摘下白色面具后,她的脸无法被人工智能系统识别。图片截图自算法正义联盟影片

近年来,随着算法应用的普及,也有多起歧视性事件被曝光。据路透社2018年的报道,亚马逊公司的人工智能招聘系统被指歧视女性,简历出现的“女性”字眼会降低该名应聘者的“得分”,知情者更向路透社透露,有两所女子大学在排序上被降级,尽管他们并没有设定学校名单。

这一算法结果的解释是,人工智能学会了歧视女性应聘者,因为它的学习材料来自该公司10年来的简历数据,这10年以来,被录用的候选者大部分是男性,性别差距在软件开发等技术岗位上尤为明显。亚马逊公司回应表示,从未仅以人工智能系统来筛选应聘者,但路透社在报道中指出,招聘人员能获得人工智能系统给出的建议。此外,全球线上求职平台凯业必达(CareerBuilder)在2017年的调查中发现,约55%的美国人力资源经理表示,在未来五年内,人工智能技术将在日常招聘工作中普遍应用。

人脸识别技术的算法偏见问题是《编码偏见》中的重点部分,这一议题也已经得到相关研究的关注。在2019年12月,美国联邦机构国家标准暨技术研究院(NIST)发表报告指出,与白种人相比,黑人和黄种人的人脸识别错误率是其10倍至100倍不等,而在执法机关的人脸图片库中,识别错误率最高的是美国原住民。与此同时,女性和老人的脸部也更难以识别。这一研究的数据来源是美国签证申请和过境数据库中的1800万张人脸照片,并测试了189种人脸识别算法,研究结果能代表绝大部分商业应用算法的结果。
dGxIg3O346J3L3oB.jpg


《编码偏见》宣传片截图

人脸识别技术对黑人脸部识别水平较差,并不意味着黑人可以“躲过”人脸识别,恰恰相反的是,他们可能因为错误的识别技术而受到不公对待。在今年“黑命攸关”运动(BlackLivesMatter)的背景下,人工智能技术在警务上的应用以及其算法偏见的后果,目前最受人们关注。

今年1月,美国底特律的黑人男子威廉斯(Robert Williams)因被人脸识别技术错误识别,被关在看守所长达30小时。当地警察局通过人脸识别技术,认定他是两年前一家高级时装店失窃案的嫌疑犯,可是他上一次到该商店,已是2014年的事情了。

根据《纽约时报》报道,警察逮捕威廉斯的时候,拿出一张人脸特写照片给他辨认,他立即否认相中人是自己,并反问道:“你认为所有黑人男人都长得一样吗?”

在底特律所在的密歇根州,犯罪现场监控取得的人脸信息,会上传至该州的人脸数据库中,并以算法搜索出相似的人脸。他们所使用的算法也纳入到前述的国家标准暨技术研究院研究中,并被证明存在算法偏见——黑人人脸的识别错误率远高于白人。
o9nbDbnl9rm9ILd5.jpg


底特律市警察局的数据中心。图片来源:纽约时报

五个月后,当地检察官就威廉斯被人脸识别错认为罪犯,并遭到逮捕的遭遇而道歉。威廉斯的案件已经撤诉,他也成了公众所知的,第一个因人脸识别错误而被捕的人。不过美国乔治敦大学隐私与技术中心,长期关注政府人脸技术使用问题的律师加维(Clare Garvie)表示,她怀疑这并非第一起人脸识别错误的案件,只不过其他案件并没有被人们知晓,同时她认为算法技术有很多种,政府部门应该只采用有效的算法技术。

早在2016年,布兰薇妮就在一场演讲中提出了担忧:“当我们看到Facebook的照片标注名字出错时,我们会一笑而过,可是如果有人被错误地标注成犯罪嫌疑人,那我们就笑不出来了,这是不容忽视的公民权利问题。”
nEw4dZ77vdsdQ88a.jpg


《编码偏见》宣传片截图

人脸识别的算法偏见问题,在“黑命攸关”运动中也被提及。质疑声浪下,科技公司在为执法机构提供技术时也变得更为谨慎。今年6月,亚马逊和微软两家公司相继公开表示,将停止向执法机构出售人脸识别软件,前者的停售期为一年,后者表示,在没有相应的立法之前,都不会再给美国警方出售人脸识别软件。

而最早表态停售人脸识别技术的科技公司IBM,则在致美国国会的信中写道:“现在是时候开启一场全国对话,一起讨论国内执法机构是否使用,以及如何使用人脸识别技术的问题。”同时,IBM公司向科技媒体The Verge表示,不会再研发人脸识别技术。

与此同时,科技公司也在试图修复算法中的歧视问题。例如位于伦敦的科技公司Synthesized日前出品了一款免费工具,可以用于修复算法偏见,在其介绍中,这款应用可修复算法中的种族、性别、年龄、性取向等方面的歧视问题。

《编码偏见》的导演坎塔亚(Shalini Kantayya)在接受科技媒体OneZero采访表示,科技公司的举动证明了,他们把一些针对算法涉及歧视的问题听进去了。她认为,面对算法偏见以及监控常态化的问题,普通公民也能靠行动来促成改变,例如可以推动技术使用规范化的立法,保障公民权利免受技术侵入的损害。

参考资料:

https://www.nytimes.com/2020/11/11/movies/coded-bias-review.html

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G

https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html

https://www.youtube.com/watch?v=UG_X_7g63rY

https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software

原标题:《当AI是一名种族主义者》





上一篇:魏建国:中国推动全球最大自贸区的诞生
下一篇:鸦片战争时,美国扮演了什么角色?

使用高级回帖 (可批量传图、插入视频等)快速回复

智能回帖,点击右侧快捷回复 【拒绝刷帖,官微ainbbbs】
您需要登录后才可以回帖 登录 | 立即注册 手机动态码快速登录

本版积分规则   Ctrl + Enter 快速发布  

发帖时请遵守我国法律,网站会将有关你发帖内容、时间以及发帖IP地址等记录保留,只要接到合法请求,即会将信息提供给有关政府机构。
返回顶部快速回复上一主题下一主题返回列表找客服手机访问
 
在线客服
点击这里给我发消息 点击这里给我发消息 点击这里给我发消息 点击这里给我发消息
售前咨询热线
0574-63098708

关注微信公众号【宁波生活网】联系官方微信:ainbbbs 入本地微信群。
快速回复 返回顶部 返回列表