当前位置:当前位置:首页 >知识 >警惕深度伪造技术 正文

警惕深度伪造技术

[知识] 时间:2024-04-24 04:51:16 来源:蓝影头条 作者:休闲 点击:16次

原标题:警惕深度伪造技术

随着人工智能技术的警惕技术不断发展,“眼见”有时也不一定为实。深度设想一下,伪造如果在战争时敌方入侵另一方指挥系统,警惕技术并由“智造”的深度指挥官发布指令,让人信以为真,伪造这该是警惕技术多么可怕的事情。而如今,深度深度伪造技术正有可能将此设想变为现实。伪造

深度伪造技术,警惕技术是深度被称作“生成式对抗网络”的机器学习模型将图片或视频合并叠加到源图片或视频上,借助神经网络技术进行大样本学习,伪造将个人的警惕技术声音、面部表情及身体动作拼接合成虚假内容的深度人工智能技术。它最常见方式是伪造AI换脸技术,此外还包括语音模拟、人脸合成、视频生成等。它的出现使得篡改或生成高度逼真且难以甄别的音视频内容成为可能,观察者最终无法通过肉眼明辨真伪。

在1994年上映的影片《阿甘正传》中,制作者就用了原始的“换脸”技术,将肯尼迪的影像填充到电影中,并调节他的表情和肢体语言,让观众极为惊叹。这让深度伪造技术具有了很大的正向应用潜力。例如在教育上,虚拟教师让数字教学更具互动性和趣味性,合成的历史人物讲解视频让受众更有代入感;在娱乐上,深度伪造技术可以让电影、纪录片等艺术创作突破时空限制,以更真实的方式呈现,可以创造虚拟主播来播报新闻,更可以创造极具亲和力的虚拟偶像。

但让人担心的是,这种技术一旦被滥用,则可能给国家安全甚至世界秩序带来新的风险。不法分子借助深度伪造技术,可以散布虚假视频,激化社会矛盾,煽动暴力和恐怖行动,也可以用于干扰竞争国家的情报机构,甚至因此设定限制其行动范围的条件。

此外,深度伪造技术也会给个人权益带来损害。视频换脸技术门槛降低,普通人也能制作换脸视频,别有用心之人利用深度伪造技术可以轻易绑架或盗用他人身份,甚至可以说深度伪造技术有可能成为实施色情报复、商业诋毁、敲诈勒索、网络攻击和犯罪等非法行为的新工具。

警惕深度伪造技术,并不等同于在面对深度伪造带来的潜在风险时,一味禁止深度伪造技术的应用,而是应当有效管控其风险,尤其是对可能造成特定伤害的深度伪造的虚假信息进行规制,同时不妨碍其在教育、艺术、社交、虚拟现实、医疗等领域的应用。应及时开发和掌握深度伪造的检测技术,努力完善相关认证机制等,以保证该项技术始终能在健康轨道上发展。(■杨宝升)

(责任编辑:时尚)

    相关内容
    精彩推荐
    热门点击
    友情链接