马斯克开了场誓师大会:我们就是OpenAI竞争对手

[热点] 时间:2024-01-23 16:29:43 来源:蓝影头条 作者:焦点 点击:152次
文 | 周鑫雨

编辑 | 邓咏仪 苏建勋

“当然,克开我们是场誓竞争对手!”谈及对OpenAI、竞争谷歌的对手态度时,新任AI公司老板的克开马斯克这样说道。

继7月12日晚宣布成立新公司xAI后,场誓马斯克没有让大众等待太久。竞争7月15日,对手马斯克在Twitter语音聊天室里组了个“谈心会”,克开和xAI成员们一起聊xAI的场誓进展,包括使命、竞争目标以及具体分工。对手

公众们也参与到聊天会中。克开xAI对其“如何使用Twitter的场誓数据”、政府监管AI的竞争边界等问题也做出了回应。总体来说,这场发布会可以说是信息量满满,xAI反主流技术路径、拥抱公众监管的形象已经逐渐浮现。

一方面,12人组成的AI“复仇者联盟”,现在已经分工明确——

毕业于哈佛数学系的华人联创杨格(Greg Yang),会延续专业特长,主要对深度学习的数学和科学问题进行研究;

出身OpenAI的Kyle Kosic,在xAI负责分布式系统的研发;

另一位华人、出身DeepMind的张国栋,在xAI则负责市场营销。

xAI的12名成员。图源:xAI官网

xAI的12名成员。图源:xAI官网

另一方面,与其说谈心,这更像是一次誓师大会。“我们应该小心,AGI的出现看起来是不可避免的。我们有两个选择,要么只是旁观者,要么参与其中。”马斯克表示。

xAI就像现有AI模型的“复仇者联盟”——会上,成员们不遗余力地批判了ChatGPT等主流模型并不理解现实,而成员们的野心则和著名AI科学家杨立昆(Yann LeCun)一样,希望创建基于“现实世界”的AI模型。

马斯克也提及了对AGI的态度,给出了一个大概时间表:大约到2029年,AGI(通用人工智能)才能实现。他也补充,AI领域多一点竞争对手是好事,因为“可以让AI公司更加诚实”。xAI的成立并非想创造AI竞争对手,而是在创造更好的AI这件事情上“做自己的事”。

但具体要怎么创造更好的AI?从多位成员们的专业背景中可以预见——通过数学。用xAI成员吴宇怀(Tony Wu)的话来解释,这条路径是将自然语言和现实世界转换成数学形式,再进行机器学习。

会上,xAI一号员工Igor Babuschkin也放出了产品预告:新产品正在研发中,未来几周可能会披露更多细节。

而与听众的交流过程,让人不禁梦回OpenAI创始人Sam Altman的国会听证会现场。交流会上的首个问题,就直指xAI“探寻宇宙真相”的愿景是不是假大空。

xAI会如何使用Twitter的用户数据,也成了观众关心的议题。当被听众问到政府监管xAI的边界时,马斯克反问:“你是美国政府的工作人员吗?”

比起政府的监管,马斯克认为无政府组织和公众的监督更能保持公允,即从“AI是否给出了真相”这一维度出发。会议最后,他开了个玩笑:公众参与xAI决策的前提是自证人类,“在未来,银行可能会收取一些日常费用,比如10美元,来提高你的人性。”

当然,和OpenAI的爱恨情仇没有被落下,马斯克谈及了当年创立OpenAI又离开的故事。他也侧面回应签署叫停GPT-5联名信的理由:如果花费额外的6个月或者一年来确保AGI安全,那我觉得是需要的。

关于马斯克的xAI和OpenAI,推特网友制作的梗图。图源:Twitter

关于马斯克的xAI和OpenAI,推特网友制作的梗图。图源:Twitter

在问答会中,xAI成员们提出了以下几个观点:

人均计算资源数量是项目成功与否的一个重要指标。我们希望有一个相对较小并且拥有大量专业知识的团队,让最优秀的人获得大量自主权和资源对他们的想法进行尝试。

在xAI,我们必须允许AI说“它认为是真的”的东西,而不是欺骗性的,或“政治正确”的。

真相不是流行的内容。训练模型过程中,模型预测内容的下一个词来自数据集,如果这个数据集来自互联网,那么它可能会给你一个流行的、但可能错误的答案。所以你必须把答案建立在现实基础上。

总体而言,不应该特别地放缓AGI的到来,或者说这种放缓不应该持续很长时间。如果是为了显著提高安全性,那么稍微放缓速度可能是值得的。

当前的模型只是模仿训练它们的数据,我们真正想做的是改变范式,创造真正能发现真相的模型,而不是仅仅重复它们从人类的新发现中学到的东西。

xAI的Twitter Spaces问答会。图源:截图

xAI的Twitter Spaces问答会。图源:截图

整场问答会围绕xAI的愿景、组织形式、商业模式、监管模式进行了讨论。以下是36氪对部分问答的整理(除注明观众外,交流人物均为xAI成员,问答内容略经36氪编辑):

xAI和OpenAI、谷歌是对手吗?

听众:随着xAI入局,周围有了很多关于竞争的讨论。你们将自己视为OpenAI和Google Bard之类公司和产品的竞争对手吗?还涉及将自己视作另一个赛道的参与者?

Elon Musk:当然,我们是竞争对手。

听众:xAI的业务未来会To C还是ToB?

Elon Musk:我们才刚刚成立,在业务上还处于萌芽阶段,所以我们需要一些时间做出真正有用的东西。我们希望为公众、消费者、企业或者任何人提供有用的工具。

以及就像Kyle(Kyle Kosic,xAI成员)之前(在自我介绍中)提到的,未来大家肯定不希望只有一家公司占据AI领域的主导地位,AI需要一些竞争,竞争能使公司变得诚实。

听众:xAI计划如何使用Twitter的数据?

Elon Musk:许多AI组织都用一手数据进行训练,基本上是非法的。

一周前,推特带有互联网档案的商业应用程序被不少组织疯狂抓取,这也是我们大规模限制了用户服务的原因,很抱歉给大家带来了不便。

所以xAI只会使用公共贴文,而不会使用任何私人贴文进行训练。同时,Twitter只是文本训练的优秀数据集,但图像和视频的训练也同样重要。

某种程度上,AI会用完人类创造的数据,我认为AI最终会自己产生内容并且自己评估内容,这是我所认为的AGI的路径。

数据质量非常重要,好比读有史以来最伟大的小说,比我读一堆蹩脚的小说要好得多。

听众:特斯拉有自己的定制芯片团队,xAI的算力会来自这个团队,还是使用英伟达的现货?

Elon Musk:我不会把特斯拉生产的任何图形处理器(GPU)称作A100或H800的等价物。考虑到汽车的性能,我们完整设计了芯片Hardware 3,几年后还会有Hardware 4,运行效率将会是Hardware 3的3-5倍。

我认为如果每天的访问量达到数十亿次,推理效率和节能优化是极其重要的。特斯拉的超级计算机Dojo在减少推理能耗方面有显著优势,但在内存带宽上有一定限制,所以无法很好地优化运行LLM(大语言模型),但在图像处理上效果很好。

我们正在采取多步训练的方式,缓解内存带宽的限制,以便Dojo能够有效运行LLM以及其他形式的AI训练。

如今算力极度短缺,可能大约一年内电压互感器(Potential Transformer,用于变换电压的仪器)会短缺,再接着一到两年内电力也会短缺——这就是AI训练到推理的趋势。所以提高算力利用效率也很重要。

听众:所以考虑到节省能耗,xAI会考虑和特斯拉合作吗?

Elon Musk:很明显,xAI和特斯拉的关系是上市公司和股东。如果更进一步,xAI和特斯拉的合作对特斯拉也有利,自动驾驶功能实际上也是为了理解现实世界的AI。我对特斯拉在理解现实AI(Real World AI)方面的进展感到乐观,不过帮助实现这一目标的聪明人类越多越好。

如何“理解宇宙”?

Ross Nordeen(xAI成员):很多人问“理解宇宙”是否是一个雄心勃勃但不够具体的目标?

Elon Musk:我不同意这个观点。我认为我们现在有太多悬而未决的问题是非常基本的,比如能量。我们有可以预测事物的静态模型,但仍然存在许多关于引力的性质的疑惑。

比如你刚才提到“费米悖论(注:该悖论主要讨论外星人是否存在)”,这个理论也可以表述为假设人类已经存在了140亿年,为什么仍然没有能够证明外星人存在的证据——因为我和太空的紧密联系,人们经常问我这个问题。

而事实上,我们也无法排除人类至少在太阳系或者银河系某一部分,就是唯一的生命体。

值得注意的是,地球上“思想(consciousness)”的进化大概有45亿年的历史(注:科学家在45亿年前的陨石中发现了遗传物质核糖)。当太阳逐渐膨胀,直到地球的温度被加热到足以让海洋沸腾,地球将变得和金星一样,无法让我们已知的生命生存,可能只需要5亿年。如果思想存在的时间比地球长10%,那么思想就会完全发展,但从宇宙的角度来看,我们所剩的时间窗口很狭窄(只有5亿年)。

从本质上而言,知道到底发生了什么是很棒的一件事。所以我想大家可以把xAI的使命宣言重新表述为“到底发生了什么(what the hell is really going on)”(笑),这是我们的目标。

马斯克官宣xAI成立,并提到愿景是“理解真实”,xAI官网的slogan则为“理解宇宙”。图源:Twitter

马斯克官宣xAI成立,并提到愿景是“理解真实”,xAI官网的slogan则为“理解宇宙”。图源:Twitter

Toby Pohlen(xAI成员):使命宣言代表的是我们的报复。当然在短期内,我们正在研究更容易理解的深度学习技术。

但我认为,我们在做任何事的同时也应该永远记住,我们不仅应该创造(build),还应该理解(understand),所以追求科学对我们正在做的事情是很重要的,也包含在对我们使命的理解中。

Greg Yang(xAI联创):我还想补充一点。我们基本上一直在谈论如何创造一个真正聪明的代理(Agent)来帮助我们更好地理解宇宙,就像指引方向的北极星一样。

但我发现,新的数学网络也可以开辟新的思维方式,比如思考基础物理,或者其他类型的物理现实。换句话来说,当我们试图通过数学的角度更好地理解运作模式,也能得出对现有问题的有趣和有意义的观点和理论。当然,现在这一切都是推测,不过数学也是理解宇宙的另一个视角。

Igor Babuschkin(xAI成员):我们所谓的“理解宇宙”,不仅仅指的是我们想要理解宇宙,而是我们也想让你更容易理解,同时也让大家对现实拥有更明显的感知,并且更好地学习和利用互联网上的知识。所以我们热衷于在早期发布工作和产品,让公众一起参与进来。

Elon Musk:当然,如果我们最后不了解宇宙,也不会告诉其他人(笑)。

目前AI领域数量级的泛滥很严重。即便有10兆瓦的GPU,AI也没法写出比优秀人类更好的小说——AGI基本上是用野蛮堆数量级的方式去强迫逼近的,但实际上仍然没有成功。这是因为我们不知道正确答案是什么,所以要进行大规模计算。

澄清一下,这不代表xAI打算在笔记本电脑就就实现AGI,我们还是会使用超级计算机。不过随着我们更好地理解现实的基本问题,暴力计算的比例将会减少。

Igor Babuschkin(xAI成员):在我之前参与的所有项目中,人均计算资源数量是项目成功与否的一个重要指标。所以这也是我们真正想要优化的东西。我们希望有一个相对较小并且拥有大量专业知识的团队,让最优秀的人获得大量自主权和资源对他们的想法进行尝试——这是我屡试不爽的经验。

Toby Pohlen(xAI成员):关于xAI计划如何执行我还有一件事要说明,正如Igor所说的,过去人均计算资源数量的机制运行得非常好,我们可以有一个相对较小的团队,可以相对不受约束地运行。

目前我们已经有了可以快速迭代想法的文化,成员间可以互相挑战,快速把成果分享。现在我们已经在开发产品的第一个版本,希望在几周后能够分享更多关于产品的信息。

监管该如何进行?

听众:ChatGPT在使用过程中出现了很多奇怪的答案,甚至对真相进行了编辑,以此引导公众。这是否是你创立xAI的主要动机之一?

Elon Musk:我认为训练“政治正确”的AI是很危险的。换句话说,在xAI,我们必须允许AI说“它认为是真的”的东西,而不是欺骗性的,或“政治正确”的。

显然,这会遭致一些批评。但我认为唯一的出路是反向追求真相,而不是强化“政治正确”。

若是试图找出《2001:太空漫游(2001:A Space Odyssey)》中故事的症结所在,你就会发现“哈尔9000型电脑”(注:太空漫游中控制太空船的电脑)所说的都是谎言。所以,AI在较少的训练场景中不会设定通常无法实现的目标,但这也恰恰强迫AI为满足设定的目标而说谎。

听众:政府应该深度监管AI吗?

Elon Musk:我觉得最好的监管可能出现在非政府组织中,但这件事我们应该谨慎一些,但我不知道正确的答案是什么。

我们将用法律反对任何我们认为不符合公众利益的事情。据我所知,我们是唯一一家这样做的社交媒体公司。

Igor Babuschkin(xAI成员):我觉得这取决于情况的严重程度。如果我认为公共利益很大程度上是正确的,我愿意冒进监狱的风险。

从更积极的层面来看,你希望AI如何让你受益会影响你对AI项目的态度。

Elon Musk:在AGI上,我思想斗争了很久,我既抗拒又努力让AGI发生。我应该分享一些关于OpenAI的背景故事。OpenAI存在的原因是Google收购了DeepMind。我曾经是拉里佩奇(Larry Page,谷歌创始人)的密友,但他没有把AI安全放在心上,至少在DeepMind上不够认真。

Google和DeepMind合并后,他们就拥有了世界上3/4的AI人才,这也打破了AI竞争的平衡。所以,大家需要一个开源非营利性组织。

如今非常讽刺的是,OpenAI想在三年内筹集1000亿美元,为此他们必须赚很多钱来吸引投资者,所以他们反而在相反的方向上做了和Google一样的事。

我的意思是,我们应该小心,AGI看起来是有可能发生的事,我们有两个选择,要么成为旁观者,要么参与其中。作为旁观者,我们可能会因为过度训练而影响结果,作为参与者,我们无意创造竞争对手,比OpenAI、微软更好的选项有很多。但只要我们还能优化AI,我们就做我们的事。

听众:xAI构建的是一个拥有物理世界知识的AI吗?

Igor Babuschkin(xAI成员):在推特上我们有社区节点,本质上是一个非常惊人的数据集,可以用于训练语言模型来尝试验证有关用户的事实。因为我们知道当前的技术有很多弱点,比如不可靠、产生幻觉,所以你必须发明特定的技术来对抗它,并确保我们的模型更真实,有更好的推理能力。

这就是我们引进相关领域的专家,尤其是数学领域,因为我们真正关心的东西可以在数学上得到验证。一旦我们拥有了验证的能力,我们再将模型扩展到更模糊的领域,也就是没有数学真理的领域。

Elon Musk:我认为真相不是流行的内容。训练模型过程中,模型预测内容的下一个词来自数据集,如果这个数据集来自互联网,那么就会出现相当大的问题,因为它会给你一个流行的、但可能错误的答案。所以你必须把答案建立在现实基础上。

Igor Babuschkin(xAI成员):当前的模型只是模仿训练它们的数据,我们真正想做的是改变范式,创造真正能发现真相的模型,而不是仅仅重复它们从人类的新发现中学到的东西。

Elon Musk:我认为总体而言,不应该特别地放缓AGI的到来,或者说这种放缓不应该持续很长时间。如果是为了显著提高安全性,那么稍微放缓速度可能是值得的。如果花费额外的6个月或者一年来确保AGI安全,那我觉得是需要的。

在不同发展阶段,风险也会发生变化,并且在所有阶段都是流动的。与其说是监管机构在指导特斯拉和SpaceX,不如说这是我们内部必须思考的问题,然后去证明监管机构的合理性。

Manuel Kroiss(xAI成员):监管迫使我们更多地思考安全性,但如果引入外部监管,往往会暴露我们内部的业务进展,同时外界对我们做的任何事会有各种反应。我想问xAI是否希望与更多外部实体合作?以及合作的哲学是?

Elon Musk:我当然支持与他人合作。这个问题听起来,像是一些大型上市公司对内部业务暴露的尴尬和对被起诉的担忧,所以大公司法律部门的人数与规模成正比。目前xAI法律部门的人数为0,也将永远是0。所以我确实支持与他人合作。

Igor Babuschkin(xAI成员):在分享会结束前,最后想问Elon。假设xAI是成功的,无论人类的水平是否超越AI,你觉得让公众参与公司的决策是合理的吗?

Elon Musk:我们对批评性反馈非常开放,我对公众的意见表示欢迎。事实上,我喜欢(发布会)上一条推特的原因是因为推特上有很多负面反馈,这有助于自我意识的缩减。

我现在能够想到的最好的事是,任何想在xAI的未来投票的人都应该被允许,前提是你可以验证你是一个真正的人类(笑)。在未来,银行可能会收取一些日常费用,比如10美元,来提高你的人性(笑)。

(责任编辑:焦点)

    相关内容
    精彩推荐
    热门点击
    友情链接