防止人工智能滥用的国际协议
2023年11月26日,美国国土安全部(DHS)下属的网络安全和基础设施安全局(CISA)与英国国家网络安全中心(NCSC)联合发布了人工智能系统安全开发指南,共有来自18个国家的23个网络安全机构参与,其中包括德国联邦信息安全局(BSI)。据CISA介绍,这份长达20页的文件的目标是帮助使用人工智能的系统的开发人员在开发过程的每个阶段做出明智的网络安全决策,以便他们也能确保人工智能的安全使用和运行。该指南包含了人工智能系统发展的重要建议,并强调了遵守安全设计原则的重要性。这些措施尤其包括承担客户安全结果的责任——这最好等同于以结果为导向的安全策略——彻底的透明度和问责制,以及建立组织结构,以便安全设计成为最重要的商业原则之一。
然而,这些指导方针不具有约束力
该文件本身在一开始就明确指出,这些指南只是建议,但所有利益相关者都应该紧急阅读,以便就其人工智能系统的设计、开发、部署和运行做出明智的决定。
人工智能系统有可能给社会带来诸多好处。然而,由于开发速度极快,安全方面往往被视为次要的。该指南旨在解决这个问题,并强调网络安全是人工智能系统的安全性、弹性、隐私性、公平性、有效性和可靠性的必要先决条件。鉴于人工智能系统面临新型风险和安全漏洞,这一点尤其正确。特别是对于使用机器学习 (ML) 的人工智能应用程序,攻击者可能会利用这一点来引发不良行为 - 例如影响人工智能预测和分类以及提取敏感信息。
指南说了什么?
该指南分为AI系统开发生命周期内的四个关键领域:
安全设计
本节介绍风险和威胁模型以及系统和模型开发期间需要考虑的具体问题和注意事项。这尤其包括提高员工对威胁和风险的认识,爱尔兰商业传真列表 进行全面的风险评估,评估一旦受到损害对系统、用户、组织和社会可能造成的影响,结合功能和性能考虑安全性,在选择人工智能模型时考虑安全性的优缺点。
安全开发
该领域包含与开发阶段相关的政策,包括供应链安全、文档以及资产和技术债务(=因技术质量不足而导致的成本)的管理。
安全使用
在本部分中,指南涉及实施阶段,特别是保护基础设施和人工智能模型免受损害、威胁或损失,开发事件管理流程和负责任的披露。
安全操作与维护
本段介绍了系统运行后特别重要的措施,包括日志记录和监控、更新管理和信息共享。
结论
尽管这些指导方针非常笼统,但它们是迈向国际共识的重要一步。世界各国政府应该共同努力解决人工智能安全问题,以跟上时代的步伐,这是正确且必要的,尤其是在人工智能发展速度惊人的情况下。这是确保人工智能带来的好处得到积极利用,并防止造成明显的物理损害、声誉损害或敏感信息泄露的唯一方法。该指南是规范人工智能的众多努力之一。该领域的其他积极发展是即将出台的《人工智能法案》(我们报道过)。近日,欧盟议会和欧盟成员国谈判代表于2023年12月8日星期五就《人工智能法案》达成了一项临时协议。此前,该协议几乎失败,因为德国、法国和意大利尤其希望只规范人工智能的特定应用,而不规范作为其他应用基础的基本模型。到目前为止,委员会的提案已做出几处修改。例如,执法部门可以有例外情况,在紧急情况下可以使用未通过合格评定的高风险人工智能,并且在某些情况下可以使用生物识别系统实时识别个人。此外,还增加了基础模型和通用人工智能(GPAI)的新规定。在接下来的几周内,我们将就可能再次改变最终法律的细节进行谈判——我们对结果感到兴奋,当然,我们会随时向您通报所有进展。
頁:
[1]