英美等国联合企业发布《AI 系统开发指引》,号称“全球首份相关安全标准”

[娱乐] 时间:2024-05-01 04:33:43 来源:蓝影头条 作者:百科 点击:56次
11 月 28 日消息,英美美国网络安全兼基础架构安全管理署(CISA)及英国国家网络安全中心(NCSC)日前正式发布《安全 AI 系统开发指引》(Guidelines for Secure AI System Development)白皮书。等国

该白皮书号称“首份全球 AI 安全标准”,联合旨在从设计阶段强化 AI 系统的企业全球安全性,以防范可能的发布安全风险。

据悉,系统相关这份指引是指引由包括美、英、首份德、安全法、标准日、英美韩、等国新加坡在内 18 国,联合并联合微软、企业全球谷歌、发布OpenAI、Anthropic、Scale AI 等 23 个网络安全组织参与制定。

▲ 图源英国相关部门

具体而言,指引包含 4 个主要部分:安全设计、安全开发、安全部署及安全运营(operation and maintenance),指引为每一个部分都提出可能的安全风险及避免方法,以协助开发人员从源头降低相关安全风险。

▲ 图源英国相关部门

注意到,该指引主要提供 AI 系统开发的必要建议,并表明开发 AI 系统应遵循安全设计(Secure by Design)的原则。英国 CISA 指出,这份指引强调把客户安全、透明度及责任、以及建立“安全设计”的组织结构列为优先事项。

这份指引适用于所有类型的 AI 系统,除了涵盖行业内的“尖端模型”,也包含其他利用外部代管的模型或是 API 系统。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

(责任编辑:热点)

    相关内容
    精彩推荐
    热门点击
    友情链接