OpenAI的奥特曼被驱逐3天后又回归掌权,会毁灭人类吗?

[百科] 时间:2024-05-01 01:56:40 来源:蓝影头条 作者:焦点 点击:187次
OpenAI创始人,被驱也就是逐天掌权ChatGPT之父山姆·奥特曼被董事会投票驱逐这个事大家都知道对吧?

3天,才3天时间,后又回归会毁网络上已经流传了800个不同的灭人故事版本。

最新消息是被驱,奥特曼又要回归OpenAI公司担任CEO了。逐天掌权AI时代变化就是后又回归会毁这么快……

闹着玩儿吗?

那倒不是,这一番人事动荡,灭人相关公司的被驱股票市值都是上千亿地波动,没人会拿这个开玩笑。逐天掌权

是后又回归会毁争权夺利的内斗吗?

争权肯定是有的,CEO职位的灭人变动目标当然是公司决策权的争夺。但是被驱说到夺利,就真是逐天掌权说不好,至少在明面上,后又回归会毁涉事的各方争议焦点都放在了AI的安全性上。

这几天流传最广的一条段子是这么说的:

段子归段子,但全球有识之士对于AI安全性的担忧却是扎实存在的,这回OpenAI的人事剧变也和AI应用方向及安全监管方面的严重分歧有关。

创始团队的一些成员认为:

由奥特曼主导的ChatGPT商业化进程推得太猛了,而当前与之配套的安全技术、监管方案等都还没充分准备好,继续前进可能引发难以想象的后果。所以他们“不得不”把最激进的奥特曼赶走,希望公司的AI研发能够回到更纯粹更稳妥的状态。

连创始团队都如此强烈地担忧AI的安全问题,是因为人工智能真的发展到能威胁人类生存的临界点了吗?

这个答案当然是否定的。在可预见的将来,AI技术应用将极大地影响人类的生活,但说到毁灭人类,还差得远呢。

考虑最坏情况AI也无法毁灭人类

以当下,以及未来10年的这个世界的“智能化发展水平”来说,即便考虑最坏的情况,也就是AI有了自我意识并且决定要实施毁灭人类的计划,它也做不到。

如果把邪恶的AI比作一个坏人的大脑,那么在未来的很长一段时间里,这个坏人在物理世界都是处于全身瘫痪的状态,能看、能听、能思考、能表达,但就是不能动。一个全身瘫痪的坏人,能毁灭人类吗?

举个例子,假设AI程序劫持了全世界所有的自动驾驶汽车,那的确能够造成相当大的破坏,可能会死很多人,但是很快,这些汽车电量耗尽了要怎么办呢?

有人可能会说,连我家的扫地机器人都会自己去充电,AI那么聪明了还不会自动驾驶去充电吗?哎,我告诉你,AI没有人类的帮助还真的完成不了充电这个过程。

自动驾驶汽车能精确地开到充电桩前,能激活充电系统,但是,它没有手去把充电线抬起来对接到充电口,因为这一步并没有自动化。

人手的操作目前在这一步不可或缺

人手的操作目前在这一步不可或缺

扫地机器人之所以能自动充电,是因为在产品设计的时候就把充电插头做到了插座的同一高度,它只需要瞄准、前进就能对接。而新能源汽车和对应充电桩都没有这样的设计,所谓一分钱难倒英雄汉,一个抬起充电线的小动作就能难倒最顶级的AI。

不是说人手插上充电接口这么简单的一步没办法机械化、智能化,关键是人类可以通过刻意不做这一步来实现『物理隔离』。

AI要对物理世界施加影响,最终需要通过智能化的物理设备来实现。在人类所处的这个物理世界智能化程度还不够高的时候,AI的破坏力是有明显瓶颈的。

至于什么导弹发射系统、核潜艇、核电站控制系统这些有巨大破坏力的设备,早在互联网时代就已经考虑过安全性问题,对网络做好了物理隔离。

总之,由于当前整个世界接入AI服务的物理设备还很少,即便今天突然出现科幻级别的AI能够操控全部的智能设备,甚至是全部联网设备,也不至于彻底毁灭人类。

AI产生意识的条件还不具备

当前我们接触到的AI,无论是ChatGPT几点几,又或者是其它工业领域的AI应用,看起来非常聪明,但本质上仍然是『机械的』,是按照设定好的运算规则结合互联网世界的海量信息来反馈结果,所谓『艺术创作』也永远只是对现有艺术风格的排列组合,做不到真正从无到有的『原创』。

当前的AI并不具备自主意识,更加没有『目的』,自然不能用善恶去评判。

那未来呢?AI会不会在未来某一天产生了自主意识呢?这的确是有可能的,但至少目前还没摸到边呢。人类连自身作为碳基生物的意识产生机制都还没搞清楚呢,更别说硅基的AI自主意识了。

从无意识到有意识,这个质变的门槛,没那么容易跨过去。

给AI装上刹车是当前最重要的事

可话又说回来,虽然在短期的未来AI不会拥有毁灭人类世界的能力,但是防范AI技术发展对人类社会的冲击却已经是迫在眉睫了。

首先,AI带来的效率的恐怖提升,会极大地改变当前世界运行的规则。真实世界的转身通常缓慢而艰难,而AI能力的成长又很快,这里的时间差难免就会引发各种冲突甚至悲剧。

别的不提,单说电信诈骗这一块,AI的潜在影响就轻松超过100个缅北卧虎山庄。还有,金融交易系统对于生物信息的安全识别要如何应对AI图像生成技术的挑战?单靠事后的法律惩处显然是不够的,AI应用在推出之前就应该在技术层面给AI装上刹车和安全气囊。

真实世界的人类要想熟练地防范和治理AI技术被用于犯罪破坏活动,还需要很多的技术探索和利益博弈。中间过程,难免还要付出沉重的代价。

先把刹车造好,再去给AI提速,这是当下OpenAI公司以及其它所有AI研发机构都需要放在最高优先级的事项。

全球的AI监管协作也迫在眉睫

除了在技术层面对AI应用做出前置的、底层的限制(类似无人机设定禁飞区域),各国对AI的监管法规以及全球监管协作机制也亟待建立和不断完善。

AI技术的发展虽然存在显著的国家竞争,但在技术层面,尤其是应用层面,绝对是全球化协作的格局,不可能由某个国家单独完成,也不可能由某个国家单独监管。

一辆在中国工厂组装的自动驾驶汽车,其视觉控制系统可能来自日本,操作控制系统可能来自以色列,通信系统可能来自中国,最终一定是全球协作才能做出真正好用的人工智能。

无论各个国家分别打的什么小算盘,最终都得坐到一张桌子上讨论规则,怎么把AI这个盘子做大,怎么避免AI的应用产品易燃易爆炸……

这项工作已经火烧眉毛,真的不能再拖了!

(责任编辑:百科)

    相关内容
    精彩推荐
    热门点击
    友情链接