信息查询  | 考试培训   | 在线报名   湖南国奥青创机器人技术等级培训与考试欢迎你!
机器人技术等级考试-机器人培训-IOIRC机器人比赛-湖南国奥青创
客服热线0731-83077518
我们能否为可信任、合乎道德的人工智能制定导

我们能否为可信任、合乎道德的人工智能制定导

编辑:机器人等级考试    来源:www.ioyirc.com    发布时间:2019-09-07 12:01    浏览量:
我们能否为可信任、合乎道德的人工智能制定导

  近期,欧盟发表了其可信任AI导则。之前,有关合乎道德的IEEE设计举措(IEEE-EAD)报告首版:《利用自主和智能系统优化人类福祉的愿景》出台。
 
  这两份报告(一份来自欧洲联盟,另一份来自国际领先的专业工程机构之一)产生的影响极大。工程师负责最终以满足伦理原则和人类价值观的方式实施人工智能,但只有决策者、监管机构和整个社会才能设定和实现这一目标。
 
  基于公共磋商的结果,欧盟导则提出了实现可信任AI的七个必要条件(但还不够),以及实现这些条件的方法和检查这些条件的评估列表。
 
  这些要求包括:

  ·人力机构和监督

  ·技术稳健性和安全性

  ·隐私和数据治理

  ·透明度

  ·多样化、非歧视和公平

  ·社会和环境福祉

  ·问责制
 
  IEEE-EAD报告是国际范围内自下而上做出的真正努力,得益于全球各地数百名专家的合作。
 
  它不仅提供了需求和原则列表,还提供了许多不同主题的深入背景。
 
  IEEE-EAD在努力定义道德智能和自主技术的未来标准,确保人类福祉的优先次序。
 
  欧盟将在未来几个月通过公开召集感兴趣的人士试行其评估清单。
 
  正如数学家和哲学家Norbert Wiener在1960年所写的:“我们最好确信,采用机器的目的是我们真正渴望的目的。”此外,我们需要确保制定保障,确保算法及其环境发展时目标保持不变。
 
  确保道德目标一致,不仅意味着人们可以信任系统的设计结果,还涉及我们的设计方式、设计目的以及参与设计的人。这是几代人的作品。这是一项不断进取的工作。
 
  显然,错误不可避免,灾难将会发生。我们需要从错误中吸取教训,为了更好的结果不断尝试。
 
  忽视我们的责任不是一种选择。AI系统是由我们决定、设计、实现和使用的人工制品。我们对此负责。
 
  当我们失败时,我们有责任再次尝试;当我们看到偏差时,我们有责任观察和谴责;我们有责任被告知和告知,有责任重建和改善。
 
  欧盟和IEEE提出的原则是政府、民间组织、私营企业、智库和研究团体需遵循的多种原则中的最新一套原则。然而,关键并不在于检查一个系统是否符合你最喜欢的原则清单。
 
  这些原则不是勾选一次就忘记的清单或方框。这些原则是行动的方向。对AI智能系统来说,它们是行为准则,但最重要的是,对我们来说也是行为准则。
 
  我们需要公平、非歧视、负责任、确保自己和他人的隐私并以社会和环境福祉为目标。道德准则是为我们制定的。人工智能系统必须遵守。
 
  未来任重道远。我们可以做到,也必须做到,我们负有责任。
<

上一篇:5G保洁机器人可以智能识别垃圾
下一篇:怎么解决机器人大战的人才问题


服务热线:0731-83077518 值班手机:15074974547

电子邮箱: Ioirc1688@163.com 联系人:郭先生

机器人技术等级培训,机器人能力等级考试 ,机器人加盟,机器人技术

地址:长沙市岳麓区潇湘中路283号岳麓山国家大学科技园创业大厦B5058

Copyright ©湖南国奥青创智能机器人技术公司Www.Ioyirc.Com 版权所有     湘ICP备18008993号    

湘公网安备 43011102001088号