信息查询  | 考试培训   | 在线报名   湖南国奥青创机器人技术等级培训与考试欢迎你!
机器人技术等级考试-机器人培训-IOIRC机器人比赛-湖南国奥青创
客服热线0731-83077518
人工智能或将形成偏见思维

人工智能或将形成偏见思维

编辑:机器人等级考试    来源:www.ioyirc.com    发布时间:2019-09-26 11:02    浏览量:
人工智能或将形成偏见思维

  英国警方担心,在他们的行动中使用人工智能可能会导致越来越多的偏见和对自动化的过度依赖。
 
  英国政府咨询机构数据伦理与创新中心(Centre for Data Ethics and Innovation)委托进行的一项研究警告称,警方认为人工智能可能“放大”偏见。
 
  英国皇家联合军种研究所(RUSI)就这项研究采访了50名专家,其中包括高级警官。
 
  种族定性仍然是一个大问题。被拦下的黑人青年比白人青年多。RUSI采访的专家们担心,如果他们根据现有的警察数据进行训练,这些人类偏见可能会进入算法。
 
  报告还指出,来自弱势群体的人倾向于使用更多的公共交通工具。由于数据可能是从使用公共交通工具中收集的,这增加了这些人被标记的可能性。
 
  人脸识别算法的准确性经常受到质疑。今年早些时候,算法正义联盟(Algorithmic Justice League)测试了所有主要技术,发现算法尤其难以对付肤色较深的女性。
 
  美国公民自由联盟(American Civil Liberties Union)也发布了一份类似的报告,重点关注亚马逊的reko人脸识别系统。当与国会议员进行测试时,它往往错误地标记了肤色较深的人。
 
  这两项研究结果都表明,如果今天公开推广这种技术,可能会造成毁灭性的社会影响。很高兴听到英国当局至少意识到了潜在的复杂性。
 
  RUSI报告说,参与这项研究的专家希望看到为可接受的技术使用制定更清晰的指导方针。
 
  他们希望这将为警察部队提供信心,以一种安全、负责任的方式采用这种可能有益的新技术。
 
  助理警长乔纳森·德雷克告诉BBC新闻:“多年来,警察部队一直在寻求创新,利用技术来保护公众,防止伤害,我们将继续探索实现这些目标的新方法。”
 
  “但我们的价值观意味着,我们是通过同意来监督的,因此,每当我们使用新技术时,我们都会咨询相关方,以确保任何新策略都是公平、合乎道德的,并为公众带来最佳效果。”
<

上一篇:“团队”机器人研制成功
下一篇:京东物流在日本实现首个无人配送试运营项目


服务热线:0731-83077518 值班手机:15074974547

电子邮箱: Ioirc1688@163.com 联系人:郭先生

机器人技术等级培训,机器人能力等级考试 ,机器人加盟,机器人技术

地址:长沙市岳麓区潇湘中路283号岳麓山国家大学科技园创业大厦B5058

Copyright ©湖南国奥青创智能机器人技术公司Www.Ioyirc.Com 版权所有     湘ICP备18008993号    

湘公网安备 43011102001088号