信息查询  | 考试培训   | 在线报名   湖南国奥青创机器人技术等级培训与考试欢迎你!
机器人技术等级考试-机器人培训-IOIRC机器人比赛-湖南国奥青创
客服热线0731-83077518
康奈尔大学和斯坦福大学的研究表明:人类比人

康奈尔大学和斯坦福大学的研究表明:人类比人

编辑:机器人等级考试    来源:www.ioyirc.com    发布时间:2019-09-29 11:02    浏览量:
康奈尔大学和斯坦福大学的研究表明:人类比人

  通常人们信任人工生成而不信任人工智能生成的配置文件,特别是在在线市场上,为此一个研究团队对此进行了深入研究。
 

 
  据悉,该研究团队进行了三次实验,特别是在网上市场,招募了数百名亚马逊土耳其机械公司(Amazon Mechanical Turk)的参与者,评估真实的、由人生成的Airbnb个人资料。当研究人员告诉他们,他们正在查看所有由人类或人工智能生成的个人资料时,参与者似乎并不比其他人更信任其中一个。他们对人类和人工智能生成的个人档案的评价大致相同。
 
  美国康奈尔理工大学(Cornell Tech)信息科学博士生莫里斯·杰克什(Maurice Jakesch)说:“参与者在寻找机械感的线索,而不是更人性化、更情绪化的语言。”一名研究人员说:“参与者越相信一个档案是人工智能生成的,他们就越不信任主人,即使他们打分的档案是由真正的主人写的。”
 
  “我们开始看到人工智能首次作为人类之间的中介发挥作用,但问题是:‘人们想要那样吗?康奈尔大学和斯坦福大学的研究团队发现,如果每个人都使用算法生成的个人资料,用户就会信任他们。但是,如果只有一些主机选择将编写任务委托给人工智能,它们很可能会受到不信任。
 
  随着人工智能变得越来越普及和强大,基本准则、伦理和实践变得至关重要。该研究还表明,设计人工智能通信工具的方法可以提高人类用户的信任度。Jakesch说:“设计和政策指南以及使用人工智能中介交流的规范现在是值得探索的。”
 
  图文出自:bgr
<

上一篇:中联重科携手吴恩达打造全球领先人工智能团队
下一篇:广州南沙累计集聚人工智能企业160余家


服务热线:0731-83077518 值班手机:15074974547

电子邮箱: Ioirc1688@163.com 联系人:郭先生

机器人技术等级培训,机器人能力等级考试 ,机器人加盟,机器人技术

地址:长沙市岳麓区潇湘中路283号岳麓山国家大学科技园创业大厦B5058

Copyright ©湖南国奥青创智能机器人技术公司Www.Ioyirc.Com 版权所有     湘ICP备18008993号    

湘公网安备 43011102001088号