加入收藏 | 设为首页 | 会员中心 | 我要投稿 南昌站长网 (https://www.0791zz.cn/)- 终端安全、安全管理、数据治理、图像分析、大数据!
当前位置: 首页 > 站长资讯 > 动态 > 正文

不良、偏颇和不道德的应用

发布时间:2021-03-23 15:09:48 所属栏目:动态 来源:互联网
导读:论:即使编写算法的人打算创建一个公平的系统,他们的程序对少数借款人也有不同的影响换句话说,在法律下是歧视性的。 人们可能会认为,银行和房地产经纪人将非白人借款人系统地隔离到不太有利的社区,这已成为过去。但令人惊讶的是,抵押贷款行业的自动化只



论:“即使编写算法的人打算创建一个公平的系统,他们的程序对少数借款人也有不同的影响——换句话说,在法律下是歧视性的。”

人们可能会认为,银行和房地产经纪人将非白人借款人系统地隔离到不太有利的社区,这已成为过去。但令人惊讶的是,抵押贷款行业的自动化只使得在用户界面后面隐藏红线变得更加容易。计算机安全专家BruceSchneier在其最近出版的“DataandGoliath”一书中叙述了2000年富国银行如何利用“社区计算器”创建了一个促进抵押贷款的网站,帮助买家找到合适的社区。计算器收集用户当前的邮政编码,根据当前社区的人口统计数据了解他们的种族,并且只推荐具有相似人口统计数据的社区。今年早些时候,美国住房和城市发展部就住房和抵押贷款广告中的种族偏见起诉了Facebook公司。

2.人力资源

到目前为止,当路透社报道亚马逊公司的新招聘引擎排除女性时,臭名昭著的招聘偏见问题引起了公众的注意。

据路透社报道,亚马逊公司在2014年组建了一个团队,该团队使用500多种算法自动化工程师和编码人员的简历审核流程。该团队使用亚马逊公司软件团队成员的简历对系统进行了培训,而这些团队成员绝大多数是男性。因此,该系统学会了取消任何上过女子学院或在简历中列出女子组织人员的资格。

越来越多的企业正在人力资源流程的各个层面采用算法决策系统。截至2016年,72%的求职者简历不是由工作人员筛查的,而是完全由计算机筛选。这意味着求职者和员工与人打交道的频率会降低——像亚马逊公司这样的故事可能会变得更加普遍。

然而,一好消息是一些公司正在努力消除潜在的偏见。ABBYY公司创始人David Yang共同创立了Yva.ai,这是一个专门设计的分析平台,通过避免使用任何可能导致偏见的指标(例如性别、年龄、种族)来避免算法偏差,即使这些指标是次要的(如参与妇女的活动或体育活动),中学(如姓名或毕业日期),甚至是大学(如参加精英学院,这已被越来越多地称为对少数群体的偏见的指示)。

在另一个例子中,现在由微软公司所有的LinkedIn已经部署了系统来收集和利用LinkedIn档案中的性别信息,而不是忽略这些信息。LinkedIn然后使用这些信息对任何潜在的偏差进行分类和纠正。

3.搜索领域

即使是基本的互联网搜索也会受到偏见的影响。例如,加州大学洛杉矶分校教授萨Safiya Umoja Noble在谷歌搜索“黑人女性”后,受到启发写了一本名为

(编辑:南昌站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读