专家们围绕AI风险争论不休 背后隐藏了怎样的心思?

[休闲] 时间:2024-04-29 09:03:23 来源:蓝影头条 作者:热点 点击:181次
财联社

  对于人工智能(AI)可能带来的险争休背风险以及哪些风险最可怕,目前仍是后隐舆论场上最热闹的话题之一,每隔几天就要拿出来炒一炒,藏样人工智能行业的险争休背先驱们也为此争论不休,而这背后又隐藏着什么样的后隐秘密呢?

  简单来讲,专家们主要分为两大阵营,藏样其中一个阵营主要包括一些开发先进人工智能系统的险争休背高管,他们认为人工智能的后隐发展可能会带来灾难,相对“务虚”一些。藏样他们更加关注存在风险(Existential Risk),险争休背即能够威胁到人类或其他生命形式存在的后隐一种极端风险,这种风险可能导致人类或其他生物种群的藏样灭绝,或者使其无法继续存在。险争休背

  另一派阵营则主要是后隐以科学家为主,他们认为关注的藏样重点应该放在人工智能目前可能导致的风险,以及它会对我们的日常生活造成怎样的伤害,相对更为“务实” 一些,聚焦当前实际的问题和解决具体的困难。

  人工智能初创公司Anthropic首席执行官兼联合创始人Dario Amodei是对存在风险发出警告的人之一。今年夏天,他在国会作证时表示,人工智能将比预料的更接近于超越人类智能,甚至会帮助制造大规模杀伤性武器。OpenAI首席执行官Sam Altman在世界各地巡回演讲时表示,人工智能有一天可能会对人类造成严重伤害,甚至更糟的后果。马斯克在接受采访时表示:“人工智能毁灭人类的可能性很小,但绝非不可能。”

  美国参议院多数党领袖查克·舒默已经宣布从下周(9月13日)开始举行人工智能论坛的计划,届时将有许多重量级人物出席,包括马斯克、Altman、Meta的扎克伯格、谷歌的桑达·皮查伊、英伟达的黄仁勋和微软联合创始人比尔·盖茨,讨论包括“世界末日情景”在内的主题。

  争论不休的背后

  人工智能科学家则警告称,讨论科幻小说中的一些场景会分散焦点,甚至可能是这些科技公司的一种营销策略。他们表示,人工智能公司和监管机构应将有限的资源集中在该技术现有的和迫在眉睫的威胁上,比如制造有关选举的错误信息,或者放大人类偏见影响的系统。

  随着世界各地的公司和政府都在努力决定将资源和注意力集中在人工智能的某些方面,以使这项可能改变世界的技术的好处最大化、坏处最小化,这场争端正在加剧。

  人工智能治理智库Future Society联合创始人Nicolas Miailhe指出,关于人工智能风险的讨论越来越分割和对立,这是“月底风险”和“世界末日”之间的隔阂。

  前谷歌律师Daniel Schoenberger表示:“很明显,仍在升温的炒作会使这些科技公司获益,政策制定者应该更多地关注当下的风险,比如人工智能使传播虚假和误导信息变得更容易,或者人工智能主导权问题。”

  所谓的末日论者并没有说人工智能一定会像《终结者》电影中的天网那样崛起,最后摧毁人类。一些人担心,人工智能系统最终可能会有追求权力的冲动,无意中伤害人类,或者干脆超越人类,控制我们的命运。

  相比之下,人工智能伦理和公平领域的专家担心的是,这些工具是如何无意或有意地剥削工人,加剧人类之间的不平等。他们希望科技公司和监管机构实施某些规则和技术,以减少这种威胁。

  人工智能科学家Melanie Mitchell在一次采访中说,关于存在风险的讨论“都是基于猜测,真的没有科学依据”。

  麻省理工学院的教授Max Tegmark更加直接,他指责科技公司在关注公平问题的人和关注存在风险的人之间制造分歧,以避免监管。

  人工智能公司Conjecture首席执行官Connor Leahy表示:“我们看到,所有主要参与者都在围绕人工智能展开一场荒谬的死亡竞赛。”他补充说,他对大型科技公司对存在风险的担忧持保留态度。“需要做的是实实在在的行动,而不是光靠嘴巴。”

责任编辑:周唯

(责任编辑:焦点)

    相关内容
    精彩推荐
    热门点击
    友情链接