【亚博集团】人工智能给女性求职者打低分亚马逊被迫解散研究团队 - 亚博集团|官方

当前位置:首页 > 新闻 > 国际

【亚博集团】人工智能给女性求职者打低分亚马逊被迫解散研究团队

2020-10-13 21:02:01

自2014年以来,美国亚马逊公司的机器学习团队仍然在秘密研发和用于一款计算机程序,用作审查求职者的履历,期望能将找寻顶尖人才的工作智能化。但在专家找到新的聘用引擎不讨厌女性后,亚马逊最后在去年年初退出了该研究团队。效率提高市场需求推展机器学习应用于无论是在仓库内部还是在推展定价决策方面,自动化是亚马逊电子商务主导地位的关键。

亚博集团

由于低成本计算能力的剧增,机器学习在技术领域更加热门。亚马逊的智能化聘用实验就始自这家全球仅次于在线零售商的关键时刻。监管机构的文件表明,自2015年6月以来,亚马逊的全球员工人数减少了两倍多,超过57万多名。

为减轻人力资源部门激增的工作压力,提高其工作效率,亚马逊爱丁堡工程中心创建了一支研发团队,目标是研发人工智能技术,较慢捕捉网络信息并找到有一点召募的候选人。该公司的实验性聘用工具用于人工智能为求职者获取一星到五星的评分,类似于购物者对亚马逊所售产品的评分。研究人员期望这个聘用软件能超过“给软件输出100份履历,它不会吞下前5名,然后公司就可优先雇佣他们”的目标。人工智能聘用软件“重男轻女”经过培训,亚马逊的计算机模型自学了过去10年内递交给公司的履历,找到了其固有模式,并据此来审查申请人。

但从2015年开始,亚马逊意识到在审定软件开发和其他技术职位的申请人时,该聘用系统并非性别中立。因为大多数申请者都是男性,这体现了整个科技行业男性主导地位的现实。研究团队创立了500个专心于特定工作职能和职位的计算机模型。

他们教会每个模型辨识过去候选人履历中经常出现的大约5万个术语。这些算法对IT应用程序中少见的技能完全没最重要意义,例如撰写各种计算机代码的能力等。忽略,这项技术不利于那些用男性工程师履历中诸如“继续执行”“捕捉”等少见动词来叙述自己的候选人。事实上,亚马逊的系统通过自学得出结论了男性候选人更加是非的结论。

系统对包括“女性”这个词的履历展开了惩处,如“女子国际象棋俱乐部队长”等。系统还减少了两所仅有女子大学毕业生的评级。

亚马逊曾尝试对程序展开改版,力图使其对特定术语保持中立。但这并无法确保机器会根据其他方式来对有可能具备歧视性的候选人展开分类。性别种族主义也不是唯一的问题。反对模型辨别的数据也有问题,这意味著不合格的候选人常常被引荐到各种工作岗位。

亚马逊最后在去年年初退出了该团队,因为高管们对这个项目已丧失信心。算法公平之路任重道远根据人才软件公司“职业创造者”2017年的一项调查表明,大约55%的美国人力资源经理回应,未来5年内,人工智能将沦为他们工作的常规部分。长期以来,雇员仍然梦想利用技术不断扩大聘用网络,增加对聘用人员主观意见的倚赖。但亚马逊的告终案例,为更加多正在谋求自动化聘用流程的大型公司获取了一个教训。

卡内基梅隆大学机器学习专家回应,如何保证算法公平、确实可解读和可说明的道路还非常很远。《麻省理工技术评论》在此次事件的报导中认为,我们无法将人工智能视作内在的无偏见。在有偏见的数据上训练系统,意味著算法也不会显得有偏见。

如果这样不公平的人工智能聘用计划在实行之前没被找到,将使长期存在于商业中的多样性问题延续下去,而不是解决问题它们。_亚博集团。

本文来源:亚博集团-www.autozuti.com

标签 亚博集团
热门推荐