新疆都市报 > 科技 > 智能 >

美军启用人工智能伦理原则

发布时间:2020-05-08 16:57来源: 网络整理

原标题:美军启用人工智能伦理原则

  据美“情报与侦察”网站5月4日报道,五角大楼已正式公布人工智能五大伦理原则,即负责、公平、可追踪、可靠和可控。无论作战还是非作战人工智能系统,均须遵守上述原则,否则美国防部将不予部署。

  “负责”,指开发者和使用者须对人工智能系统的开发、部署、使用和造成的结果负责。根据官方指导文件,在开发阶段,开发者需为人工智能系统确定合理的活动界限。以自动驾驶系统为例,必须确定其剧烈运动的上下界限,以免在使用时导致事故发生。在部署阶段,使用者应为人工智能系统建立清晰的指挥链条,并明确操作者、指挥者的身份,避免发生混乱。

  “公平”,指五角大楼应最大限度减少人为偏差对人工智能系统的影响。众所周知,机器学习的过程就是对人工输入数据的分析过程。如果输入者心存偏差,所输入数据必然不全面,人工智能系统就失去了公平的学习环境。比如,人脸识别系统要提高识别率,需要对大量面部影像进行对比和判断,如果被输入的面部影像只局限于某一性别或某一种族,势必导致人脸识别系统的准确率下降。

  “可追踪”,指人工智能系统在其使用周期内的透明性,即从开发、部署到使用的各个环节都要留下准确的记录,比如研发手段、数据源、设计程序、使用档案等。技术专家或用户可对此进行研究。一旦发生故障,他们可从研发数据库或文档查找源头,及时、快速予以排除,避免人工智能系统失控。

  “可靠”,五角大楼给出的定义是“安全、稳定和有效”。具体而言,人工智能系统的可靠性建立在“可追踪性”基础上,即当系统出现不稳定现象或效率下降时,技术人员应对系统数据库和传感器记录进行回溯追踪,找出与正常状态的不同之处并进行处理。比如,当自动驾驶系统出现不安全或不稳定苗头时,技术人员须第一时间调阅开发者为其规定的活动界限并与实际界限对比,对变化因素进行及时纠正。正常情况下,可靠的人工智能系统会在无法做出判断的情况下与操作人员或后方数据库进行沟通,以确定最终结果。

  “可控”,指人工智能系统探测和避免意外发生的能力。五角大楼认为,可控的人工智能系统应具备足够的抗干扰能力,并在发生意外或其他针对人类的恶意行为时,通过自动或手动方式停止工作。这种能力在设计阶段就要嵌入人工智能系统。比如,一部自动驾驶车辆本不需要方向盘,但设计人员仍会安装方向盘,就是为确保发生意外时乘坐者能够切换为手动驾驶。


(责编:刘颖婕、邢曼华)

人民日报客户端下载手机人民网人民视频客户端下载人民智云客户端下载领导留言板客户端下载人民智作

 

推荐阅读

山东省生态环境委员会召开第一次全体会议  省生态环境委员会召开第一次全体会议 深入贯彻习近平生态文明思想 坚决打赢污染防治攻坚战 5月7日下午,山东省生态环境委员会召开第一次全体会议,深入贯彻落实习近平生态文明思想,听取2019年全省生态环境保护工…【详细】

要闻

李干杰主持召开山东省政府常务会议  5月6日上午,山东省委副书记、代省长李干杰主持召开省政府常务会议,研究加快民用机场建设发展、设施农业用地管理等工作。 会议审议了《加快民用机场建设发展的意见(送审稿)》。会议强调,要紧扣经济社会高质量发展需要,统筹考虑产业、人口…【详细】

要闻

中共济南市纪委十一届五次全体会议召开 孙立成讲话  5月7日,中共济南市纪委十一届五次全体会议召开。会议以习近平新时代中国特色社会主义思想为指导,深入学习贯彻党的十九大和十九届二中、三中、四中全会精神,认真贯彻落实十九届中央纪委四次全会和省纪委十一届五次全会精神,研究部署济南市全面从严治党工…【详细】

济南