生成式人工智能监管措施更“对症” 划定界限也留下发展空间

[时尚] 时间:2024-04-28 05:26:17 来源:蓝影头条 作者:焦点 点击:72次

  央视网消息:4月11日,对症国家互联网信息办公室开始就《生成式人工智能服务管理办法(征求意见稿)》向社会公开征求意见。生成式人施更专家分析,工智管措《征求意见稿》提出多个层面的划定监管意见,强调权益保护,界限间防止“滥用”行为,也留有助于中国的展空生成式人工智能技术健康发展。

  《征求意见稿》共21条,对症将“生成式人工智能”定义为基于算法、生成式人施更模型、工智管措规则生成文本、划定图片、界限间声音、也留视频、展空代码等内容的对症技术,明确“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源”。

  根据《征求意见稿》,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,禁止非法获取、披露、利用个人信息和隐私、商业秘密。利用生成式人工智能产品向公众提供服务前,要向国家网信部门申报安全评估,对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。用于生成式人工智能产品的预训练、优化训练数据,应符合法律法规要求,不含有侵犯知识产权的内容,数据包含个人信息的,应当征得个人信息主体同意,并保证数据的真实性、准确性、客观性、多样性。

  而在用户端,提供生成式人工智能服务应当按照规定,要求用户提供真实身份信息,发现违反法律法规,违背商业道德、社会公德行为,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。

  随着ChatGPT火爆市场,大众对生成式人工智能技术的认知程度不断提升。截至目前,已有百度、华为、腾讯、阿里、京东、360等中国互联网企业布局生成式人工智能业务。技术的快速发展,给监管机构和商业生态提出了更高的要求,也带来了更大的挑战。

  业内人士表示,《征求意见稿》的出台,意味着AI行业的标准化步伐正加快,划定界限的同时,也为其留下了充分的发展空间,致力于避免“先污染后治理”的困境。随着更多应用落地,一些潜在的风险将被认识和暴露,监管侧措施也会更加“对症”,《征求意见稿》只是第一步。


(责任编辑:热点)

    相关内容
    精彩推荐
    热门点击
    友情链接