http://www.china-cic.org.cn

AI是伤害妇女和有色人种。当地专家想解决这个问

罗利 - 决定是否审议受刑人是否会再次冒犯时,借钱给客户,甚至法官在人工智能(AI)系统现在用于帮助招聘人员确定可行的候选人,贷款承销商

[123 ],但这些计算机系统的偏见?再想想。

“程序员的算法中产生偏差,然后采用偏置数据创建一个决定,”丹崖佩里,公平的经济发展经理说,与苏醒县经济发展

“。我们假设的决定已经被过滤掉了,它是干净的数据,但并非如此“

结果:。有色人种和妇女越来越受到负面影响

丹崖佩里,公平经济发展经理苏醒县ECONOMIC的开发。来源:尚塔尔阿拉姆

为了突出问题,罗利商会在本周举办的“勇敢的对话”北卡罗来纳州立大学McKimmon中心,解决围绕着我们的日常生活AI使用偏挑战

“我们希望帮助改变心态,以及和它类似这样的对话开始,”佩里说。

其中扬声器被菲德拉Boinodiris,艺术和科学的英国皇家学会会员和技术的IBM的科学院院士。

“不管什么原因,有人认为AI就像是一个神奇的盒子,不知怎的,你不必对由AI作出的任何决定担心将是不道德的或不道德的,它不能进一步被真相,”她说。

“这是人谁决定哪些数据集用来训练artificia升情报。如果他们使用的是历史上种族主义或性别歧视的数据集,我们已经有了一个问题。”

菲德拉Boinodiris,艺术和科学技术的IBM的学院的成员的英国皇家学会会员。[123 ]

公司必须接受教育,并采取治理的某些标准,当涉及到AI。他们还必须使用技术来挖掘时偏差发生在该数据集的数据集和标志,她说。

“有了这三种不同的[方法],可以减轻已经钙化的风险偏置系统。这是人们不明白的是,这些家伙正在决策能力,促进生命的东西。我们只是需要更多地了解。”

关注无极荣耀官网(www.china-cic.org.cn)。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。