美报告警告:AI可能构成“毁灭级”威胁,美政府避免灾难的时间不多了

[焦点] 时间:2024-04-19 10:52:24 来源:蓝影头条 作者:综合 点击:24次

  [环球时报特约记者 任重]据美国有线电视新闻网(CNN)12日报道,毁灭级美国国务院委托第三方机构进行的美报一份新调查报告称,快速发展的告警告AI或对人类构成“毁灭级”风险。该报告还警告说,成威美国政府避免灾难的胁美时间已经不多了,必须进行干预。政府灾难

  这份报告由专注于AI领域的公司“格拉德斯通人工智能”撰写。报告基于一年多来对200多名AI公司高管、时多网络安全研究人员、毁灭级大规模杀伤性武器专家和美国国家安全官员的美报采访,得出“在最坏的告警告情况下,最先进的成威AI系统可能对人类构成毁灭级别的威胁”的结论。CNN称,胁美研究人员提出了两个主要危险:首先,政府灾难最先进的避免AI系统可能会被“武器化”,造成潜在的不可逆转的损害;其次,AI实验室内部存在担忧,即在某些时候,他们可能会“失去对正在开发的系统的控制”,从而“对全球安全造成潜在的破坏性后果”。

  报告将AI发展给全球安全带来的风险与核武器相比,称未来AI发展存在“军备竞赛”、冲突和“大规模杀伤性武器致命事故”的风险。CNN称,最大的不确定因素之一是AI的发展速度有多快,尤其是通用人工智能(AGI)的发展速度。报道称,AGI具有类似人类甚至超越人类的学习能力,“被视为失控导致灾难性风险的主要驱动因素”。格拉德斯通人工智能的报告称,OpenAI、谷歌DeepMind等都公开表示,AGI可能会在2028年实现。

  报告还称,AI可用于设计和实施“能够破坏关键基础设施的高效网络攻击”。一个简单的口头或打字命令,比如“实施无法追踪的网络攻击,使北美电网崩溃”,就可能造成一场灾难。其他风险案例包括由AI驱动的“大规模”虚假宣传活动、武器化机器人应用、心理操纵、武器化生物和材料工程等。报告还提到,竞争压力正在推动企业“以牺牲安全和保障为代价”加速AI的发展,这增加了最先进的AI系统可能被窃取并被武器化的风险。

  报告呼吁采取重大新措施来应对这一威胁,包括成立一个新的AI机构,实施紧急监管,并限制用于训练AI模型的计算机能力等。

责任编辑:陈琰 SN225

(责任编辑:热点)

    相关内容
    精彩推荐
    热门点击
    友情链接