人民日报评论:办公软件滥用隐私?AI训练要守住底线

[热点] 时间:2024-03-29 22:44:04 来源:蓝影头条 作者:热点 点击:143次
原标题:办公软件滥用隐私?AI训练要守住底线 | 人民锐见

“我们将对您主动上传的人民日报软件文档材料,在采取脱敏处理后作为AI训练的评论基础材料使用”……近日,办公软件WPS在其隐私政策中的滥用表述被质疑滥用用户隐私,引发关注。隐私随后,训练其官方向用户致歉,守住并承诺用户文档不会被用于人工智能训练目的底线。

类似现象不是人民日报软件孤例,今年早些时候,评论一款基于生成式人工智能的滥用摄影软件“妙鸭相机”,也因存在滥用用户信息的隐私嫌疑而引发用户批评。如今,训练随着以大语言模型为代表的守住生成式人工智能技术的快速发展,相关应用层出不穷。底线一边是人民日报软件“嗷嗷待大量数据以哺”的人工智能,另一边是越发重视个人信息保护的用户,如何善用数据,考验全社会数据治理的能力和成效,事关万千网民的切身利益。

必须将保护用户隐私和信息安全置于更重要的位置。不少人经历过:生活中说了句话、搜索了个关键词、开了一会儿“位置”,手机里的各种APP就会精准推送广告、“熟悉的人”,自己仿佛瞬间成了透明人。大数据时代,我们越发真切感受到,日常生活的“智能”越来越突出,“安全”有时却成为稀缺品。

越是一切都可以数字化、被收集、能分析,越要划出底线,筑起信息安全的堤坝,给用户选择甚至说“不”的权利。生成式人工智能也不例外,其发展初衷就是为了造福民众。倘若在一开始的数据收集和训练阶段就滥用用户隐私,岂非与目的背道而驰?今年7月,我国出台《生成式人工智能服务管理暂行办法》,明确“不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益”,强调开展训练数据处理活动“涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形”。原则已经明确,红线已经划出,需要相关从业者严格遵守、自觉践行。

当然,严格保护并不意味着“一刀切”地禁止。有人把数据比作信息时代的“石油”,把算力比作最重要的“基础设施”,足以说明其重要性。特别是对于生成式人工智能来说,海量的数据“投喂”,才能培养出更聪明、更先进的版本。特别是,在网络世界,中文数据特别是高质量中文数据,与英文等其它语言的数据相比,仍有差距,这可能成为发展生成式人工智能的一个先天劣势。也只有在依法、科学的前提下,充分挖掘各类中文数据资源的价值,补短板、锻长板,才能确保我国在生成式人工智能等前沿领域,无论是研究还是应用层面,取得领先。

发展和安全,从来不必然是矛盾的、对立的。当前,全球不少科学家、企业家都呼吁在生成式人工智能领域“慢下来”,这不是为了停滞技术进步,而且希望与之相关的隐私保护、科学伦理、法律制度等能够尽快“赶上来”。在我国,更好统筹发展和安全,一直是处理这类问题的一个基本遵循。无论是监管者还是从业者,更好把握发展与安全的辩证法,平衡好各方面利益,才能推动生成式人工智能健康可持续发展。相信在人类智慧的把控下,我们一定能用好技术这把“双刃剑”,趋利避害,让“甘蔗”实现“两头甜”。

(责任编辑:焦点)

    相关内容
    精彩推荐
    热门点击
    友情链接