《碟中谍7》的超级AI令人胆寒,现实可能更加凶险

[百科] 时间:2024-04-29 14:23:38 来源:蓝影头条 作者:休闲 点击:84次
文|林炜鑫

编辑|邓咏仪

封面来源|IC photo

在深海里,碟中谍的胆寒一艘俄罗斯的超级潜艇疑似遭到未知鱼雷的攻击,船长下令发射鱼雷作回应。令人过一会儿敌方潜艇突然消失在雷达里。现实凶险众人以为是更加仪器出了点故障,松了口气,碟中谍的胆寒不料刚才发出的超级鱼雷竟然自己拐了弯,将这艘潜艇炸个粉碎。令人

这是现实凶险好莱坞新片《碟中谍7》的第一幕。与以往不同,更加炸毁潜艇的碟中谍的胆寒反派是名叫“智体”的超级AI,它无处不在,超级可以瞬间清除实时视频,令人冒充任何人的现实凶险声音,破解人的更加身份安全码(甚至是指纹码),轻松入侵全世界的赛博空间。

只有一把金属钥匙可以关闭智体。为了争夺钥匙,阿汤哥饰演的主角伊森与智体及其党羽展开殊死搏斗。

图片

阿汤哥的身后就是智体 来源:Paramount Pictures

而在戏外,本月,好莱坞的演员和编剧爆发了一场浩大的罢工示威。这场罢工的一大原因就是,生成式AI给影视圈带来的威胁。演员担忧AI创建的数字替身终有一天会取代自己,编剧则拒绝可能到来的现实:AI写剧本初稿,他们来润色修改。

阿汤哥也公开支持好莱坞对AI的抵制,向制片商喊话,不要忽视演员对AI的担忧。

AI技术的进步是这个时代无法回避的话题。换个角度想,《碟中谍7》人与AI的对抗,像是好莱坞反抗人工智能的一个隐喻。

01 人们的恐惧使AI的能力被夸大

《碟中谍7》导演克里斯托弗·麦奎里认为,我们当下的时代精神就是技术带来的焦虑,技术如何影响人们的生活。他说,AI很像冷战期间的核弹,不用强调,每个人都感受到了。

这个故事巧妙地迎合了今天一部人的情绪:对日益进步的AI的恐惧和担忧。不过,现在AI还远无法达到这种智能程度。

在电影中,智体可能是男主角面对的最可怕的敌人,因为它已经进化到具备自我意识,能预测人类的每一步行动,因此几乎把伊森和他的团队逼入绝境。

令人恐惧的另一个因素是,人类无法知道智体想要什么,它的动机始终处在神秘之中。也许下一部电影将解答这个疑问。但在现实中,AI本身就是一个巨大的黑箱,没有人有信心解释到底发生了什么。

早在ChatGPT在全球爆红时,至少有一部分人坚信,生成式AI将造成人类生存威胁。恐惧建立在未知上,但事实是,生成式AI目前仍处在早期阶段,它的能力被夸大了。

人工智能有可能获得自我意识,甚至拥有欲望和贪婪吗?牛津大学教授桑德拉·瓦赫特否认了这一点,他在接受英国媒体Evening Standard采访时称,大众混淆了生成式AI和AGI(通用人工智能),“没有证据表示我们正在往AGI发展,甚至这条路存不存在都不好说。”

图片

阿汤哥手里握着能关闭智体的钥匙 来源:Paramount Pictures

智体可以随时删掉监控里的部分画面,甚至侵入AR眼镜,冒充人类的声音。据英国媒体Evening Standard报道,IT安全公司F-Secure的专家劳拉·康卡拉说,抹去监控录像画面理论上是可行的,但要想做到实时删除,背后需要的计算资源是巨大的,至少现在还办不到。

至于影片开头的潜艇事件,网络安全公司Dargtrace的专家托比·刘易斯则表示,AI可能趁潜艇在港口停靠时,或者浮出水面时,通过潜艇的通信渠道进入。

另一个专家詹姆斯反对这个设想,他告诉Evening Standard,军用潜艇为了隐藏位置,和总部之间的通信渠道会受到严格限制。AI试图从通信渠道进入,攻击军用计算机系统,污染潜艇的声纳系统,不太可能会发生。“但这是个很棒的电影故事情节。”

尽管如此,出于对AI失控的担忧,越来越多人开始呼吁对其进行监管和限制。早在今年3月,马斯克和一系列硅谷名流及科学家共同签署了一封联名信,呼吁各方暂停开发生成式AI六个月。这封联名信征集了超过33000个人的签名。

他们的担忧有一定道理,毕竟科技进步的速度可能超乎常人想象。一些看似遥远的技术已经变成现实,比如电影里主角常用的指纹识别、无人机设备以及AR眼镜等等。

02 AI武器化将不可避免

智体失控,本是一场不必要的灾难,然而整部电影中,只有阿汤哥想彻底摧毁它。编剧借一个角色的台词说出真相:不是要消灭它,而是要控制它。

公平地说,AI威胁人类尚且还早,使用AI的人类相互对抗,才是正在加剧的威胁。换句话说,人工智能已经不可避免地涉足到国防军事领域,甚至被运用在现代战争里。

AI技术将使战争可能减少人员伤亡。搭载AI的无人机可以在复杂环境中导航,并以巨大的精度进行侦查,对目标发起精准打击。这种“斩首行动”也极具威慑力。据报道,美国国防部正在研发能驾驶战斗机的AI机器人。一位军方顾问道格拉斯·肖说:“在未来,无人机的数量将远超武装部队的人数。”

AI系统将改变战争决策。AI提供的情报分析,使决策窗口从几天或几小时,缩短到几分钟。斯坦福大学教授赫伯特·林接受《纽约时报》采访时说,因为AI的运算速度远超过人类,领导层可能过度依赖AI的情报。那么,万一AI给出虚假情报,甚至做出错误决策呢?

这并非没有先例。早在伊拉克战争期间,美军的导弹系统就曾击落过友军战斗机,事后证明是系统的自主操作。

2020年中东战场,被称为“游荡弹药”的无人机不需要人类的远程操作,就能自主巡逻。无人机内置炸药,自动识别地面目标,然后俯冲过去轰炸。AI自动杀人已经成为现实。如果AI将平民误认为恐怖分子,将医院误认为军事基地,后果不堪设想。

为了避免这类悲剧,今年一月,美国国防部在关于使用AI武器系统的指令中规定,开发和部署AI武器系统必须至少有人为判断。

图片

未来可能出现的AI战士 来源:Getty/Ociacia

反对AI武器的大有人在。年满100岁的基辛格刚出生时,人类的战争还需要用到马匹,现在这位美国前国务卿在思考AI战争,他呼吁道,国际社会应该暂停军事化AI的发展,“是时候用新的国际法来规范这些技术”。

但是,暂停的可能性微乎其微,当前紧张的国际局势里,人工智能军备竞赛不可能彻底结束。

五角大楼官员约翰·谢尔曼公开表示,“如果我们停下来,海外的潜在对手不会停下来。我们必须继续前进。”

著名导演卡梅隆也有类似的担忧。上周,卡梅隆接受媒体采访时警告道:“我认为人工智能的武器化是最大的危险,我觉得我们会陷入一场类似核军备竞赛的人工智能竞赛,如果我们不去开发它,其他人肯定会去开发它,然后就会升级。”

目前来看,各国能做的,就是呼吁一下,采取些限制措施,比如“负责任地部署与使用人工智能”;对核武器的所有方面进行严格的“人为控制与参与”,不把发射权交给计算机;在军事AI的每个阶段进行严格的人为监督、测试和验证;AI系统应该从一开始就明确其任务,并且可以被关闭。

7月18日,联合国安理会首次就AI威胁国际和平与稳定,召开会议。秘书长安东尼奥·古特雷斯说,联合国必须在2026年前达成一项具有法律效力的协议,禁止在自动武器中使用人工智能。

说实话,没有人真正知道更新更强大的AI技术在军事领域能做什么。风险与日俱增。仅有的一点好消息是,在探索AI军事应用时,大国可能都会更加小心翼翼,这可不是玩笑。

(责任编辑:娱乐)

    相关内容
    精彩推荐
    热门点击
    友情链接