旷视发布人工智能应用准则,提出 6 个维度规范
发布时间:2019-07-18 22:32来源: 网络整理近日,北京旷视科技有限公司(以下简称旷视)正式公布了基于企业自身管理标准的《人工智能应用准则》(以下简称《准则》)。
旷视是全球最早一批探索人工智能商业化的公司,2011 年由印奇、唐文斌和杨沐三位创始人成立;他们均毕业于由图灵奖得主兼中国计算机科学家和理论家姚期智院士创立的清华大学“姚班”。
在成立后的近十年里,旷视凭借强大的软硬件整合能力,为客户打造出了全栈人工智能解决方案,从而在个人物联网、城市物联网和供应链物联网等多个垂直应用领域处于行业领先地位;公司还通过创建人工智能基础设施,并连接众多物联网设备,去解决实际生活中的各类问题,以及金融科技、交通和物流等行业的痛点。
因此,作为在人工智能领域的前沿企业,旷视率先行业推出了《准则》。《准则》从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范,同时给出相应干预措施或指导意见,确保人工智能能够在可控范围内持续发展,呼唤起各界对善用技术的重视,倡导行业提早建立可持续发展的生态。
以下是《准则》全文:
《人工智能应用准则》
1.正当性:技术应该是一种正面的力量。我们致力于成为一个负责任的企业公民,遵守适用的法律和普遍接受的道德原则,增进社会福祉。
2.人的监督:人工智能不应该超越人的自主性。人类应该能够监督人工智能技术的发展以及人工智能系统的决策,并在必要时进行干预。
3.技术可靠性和安全性:人工智能解决方案应该能够做出准确有效的决策,同时对外部攻击具有足够的安全性和防御力。人工智能解决方案应该进行广泛的测试,谨慎使用并严格监控。
4.公平和多样性:人工智能技术的开发人员应尽量减少人工智能解决方案的系统性偏差,这种系统性偏差可能来自于用于开发解决方案的数据和算法中固有的偏差。无论年龄,性别,种族或其他特征如何,所有人都应该可以使用人工智能解决方案。
5.问责和及时修正:人工智能解决方案应该是可审核、可追责的。人工智能解决方案的错误、缺陷、偏见或其他负面影响,一经发现,应立即予以承认并积极地加以处理。
6. 数据安全与隐私保护:人工智能解决方案的开发及使用过程中,需严格保护用户的个人隐私、保障数据安全。