生成式AI“狂飙”,商汤因何占得大模型布局先机

[知识] 时间:2024-04-23 16:00:08 来源:蓝影头条 作者:时尚 点击:20次
中新经纬9月6日电 国内大模型市场如火如荼——据不完全统计,狂飙截至5月28日,生成式AI商中国已发布79个10亿参数规模以上的汤因大模型;研发的大模型数量已经排名全球第二。

  浪潮之下,何占如何成为这一个时代下最强的模型大模型企业?

  “给行业带来更强的大模型能力,助力用户在生成式AI的布局时代做出颠覆性的产品。”这是先机商汤科技的答案。

  8月31日,狂飙商汤科技宣布其“日日新”大模型旗下自然语言应用“商量SenseChat”正式面向公众用户开放服务。生成式AI商据了解,汤因“商量SenseChat”是何占国内最早的基于千亿参数大语言模型之一,在今年4月推出,模型并不断迭代更新。布局8月,先机商汤联合多家国内顶尖科研机构发布的狂飙基模型书生·浦语InternLM-123B,在12项全球主要评测中成绩超越GPT-4排名第一。

  同时,借助在大模型领域的发展,2023年上半年,商汤的相关业务也取得强劲增长,财报显示,上半年商汤生成式AI业务收入占比超过20%,引领了公司业务的转型。

  商汤为何能占得大模型先机,它又是如何持续领先的?

 领先的商汤大模型

  OpenAI创始团队成员彼得·蒂尔在移动互联网时代曾总结:“每个通向伟大的公司都有自己的‘秘密’。”

  若是论及商汤的“秘密”,就不得不提及它的前瞻眼光——它是最早布局AIDC人工智能超算中心的AI公司;也是最早发布大模型系列产品的厂商之一,在国内第一个发布超过千亿参数级的大模型。

  商汤对于大模型的探索开始于2018年。并且在仅一年后,便具备了千卡并行的系统能力,使用上千张GPU卡进行单任务训练,推出了10亿参数量规模的视觉模型,实现了当时业界最好的算法效果。

  在2021年至2022年间,商汤又训练了百亿参数规模的超大视觉模型,相当于千亿参数语言模型的训练量。行至当下,商汤已成功研发了320亿参数量的全球最大的通用视觉模型,实现了高性能的目标检测、图像分割和多物体识别算法,并在自动驾驶、工业质检、医疗影像等多个领域得到广泛应用。

  选择了一条“为天下先”的路,就意味着可能是同步选择了挑战与孤独。区别在于当赛道被点燃,潜行者终实现厚积薄发。

  正如商汤在市场的这轮喧嚣之前默默地在对AI基础设施SenseCore大装置投入的路上走了多年,机遇降临时,人们恍然,基于大装置的能力,商汤的深耕已经有了成果——今年4月公布的“日日新SenseNova”大模型体系,甚至被业内评论“目前几乎秒杀前期已经发布的其他大模型”。

  何以有如此评论?关于“商量SenseChat”的研发升级就提供了很好的佐证。

  中期报信息显示,“商量SenseChat”1.0发布两个月后,即发布基模型InternLM,参数量1,040亿,使用1.6万亿token的多语言语料训练,支持语言达20多种,在35个评测集上综合能力超越OpenAI的GPT-3.5-turbo基模型。

  正式发布不到5个月后,经过多次迭代升级的“商量SenseChat”如今已经正式面向全社会开放了。据悉,目前的基模型为商汤联合多家国内顶级科研机构发布的书生·浦语InternLM-123B,在8月完成训练,拥有1230亿参数,在语言、知识、理解、推理和学科五大能力上均处于行业领先水平。

  还值得指出的是,InternLM-123B在包括MMLU, AGIEval, ARC, CEval, Race, GSM8K等在内的全球51个知名评测集,共计30万道问题集合上测试成绩排名全球第二,超过GPT-3.5-turbo以及Meta新发布的LLaMA2-70B等模型,在主要评测中12项成绩超越GPT-4,排名第一。

  在文生图模型上,约2000张GPU的研发投入成就了秒画SenseMirage文生图能力的快速迭代。7月推出的秒画3.0版本基模型参数量已提升至70亿参数;全新的生成模型架构,同时带来了更好的图片生成效果和精细度,实现了专业摄影级的图片细节刻画。

  秒画3.0的核心算法还在COCO benchmark上超过了谷歌的Imagen及OpenAI的DALL·E 2,出图效果跻身全球前三、国内领先。此外,商汤预计在2023年三季度内推出新版本的妙画,同时升级基模型并引入全新的美学系统支持。

  “狂飙”背后,大模型赛道的门槛

  大模型“狂飙”半年,市场见证了一场技术的百花齐放,另一面,“狂飙”也只是市场的一个侧影。换句话说,赛道内的大部分玩家终将被淘汰出局,基础大模型市场只会留下头部玩家。

  究其原因,在于大模型之战其实更像是一场比拼耐力的长时战争,在这期间,技术积累、持续投入、人才储备等方面都需要跟得上,实力不足、不能及时响应市场变化即会掉队。

  业内人士认为,此时“走得久远”最核心的动力,便来自企业的进化能力。更细致来看,包括战略、组织、品牌与产品等各个领域的进化,其中又以产品进化最为关键,特别是在产业变化迅速的新兴领域。

  从商汤科技的系列动作中,可以清晰看到强大的进化能力贯穿其解决问题的逻辑与路径:坚持做原创的大模型技术,愿意为无数次实验、数据清洗与试错的过程花费成本。

  中期报点明,商汤原始语料数据的积累以及对语料进行清洗和试验的能力行业领先,目前每月产出约2万亿token的高质量数据,预计年底高质量数据储备将突破10万亿token,以支持更加强大的基模型的训练。同时,商汤还投入了数百台服务器搭载千卡GPU的计算资源,采用算法结合人工的方法对原始语料数据进行分门别类的精细化清洗,以确保数据的质量、安全性和价值观都符合要求。

  商汤又为何拥有快速高频试错的能力?

  回答这个问题,就不得不提人工智能领域的核心要素之一——算力。有强大的算力支撑一次又一次的试错,才能实现多个层面的领先性。

  “商量SenseChat”背后依托的商汤AI大装置SenseCore,在2022年9月正式发布时就可提供5000Petaflops算力,能够以最大4000卡规模集群进行单任务训练,可以训练参数量超5000亿的稠密模型,并做到七天以上不间断的稳定训练。

  这意味着大装置足以提供支持大模型生产的一系列服务,比如提供处理大模型需要的自动化的数据标注,使标注效率提升百倍;助力大模型的推理部署,使得推理的效率可以提升100%以上等。

  商汤的进化能力直接推动SenseCore AI大装置的持续升级,现在,其上线GPU数量已经由2023年3月底的27000块提升至日前的约30000块,算力规模提升20%至6 ExaFLOPS。中期报显示,2023年以来,共有超1000个参数量数十亿至上千亿的大模型在大装置上完成训练,实现了领跑行业的技术迭代进度。

  在大装置支持下的产品也高速迭代,保持了进化能力,即保持了领先性——公开信息显示,商汤的“日日新SenseNova”全家桶的迭代周期为一季度,InternLM更是几乎每两个月就迭代一次,在国内能保持这一迭代频率的企业还是少数。

  当大模型竞争来到AI深入产业的新起点

  大模型的竞赛,接下来应该怎么走?

  当竞争渐入下半场,比拼的将是谁能走得更远、走得更久。这时,竞赛也应当不再局限于追逐技术本身,而在于拓展生态,在于AI深入产业的进程。

  商汤也积极贡献着这样的例子。商汤“日日新SenseNova”大模型体系和生成式AI产品系列,包括商量、秒画、如影、琼宇、格物,分别对应着自然语言交互、AI文生图、数字人、3D大场景重建、3D小物体生成这五个主流的生成式AI应用。

  截至目前,在推进大模型的商业化落地中,商量已经在金融、医疗、汽车、地产、能源、传媒、工业制造等众多垂直行业与超过500家客户建立了深度合作,为客户提供大模型的各项AI技术和服务。

  尤其,基模型InternLM-123B还在行业内率先升级实现了工具调用能力,可以使用Python解释器、API调用和搜索三类常用工具解决复杂任务。工具调动能力,直接关乎着大模型在复杂推理、细粒度知识运用等一些更具有挑战性的问题上的表现。换句话说,在面对深入行业和产业的应用时,强大的工具调用能力就是必要的。

  同时,商汤还与两家头部手机芯片厂商建立研发合作,成功实现了大语言模型的手机端实时计算能力,同时还将积极与多家手机厂商客户合作,研发大语言模型与手机操作系统结合的新功能。

  此外,商汤还与多家科研机构合作推进AI开源平台建设,InternLM-7B(70亿参数)的部分训练数据、训练代码及基模型权重已经向学术界及工业界开放、支持商用。InternLM-7B也顺势登顶多个模型测试榜单,被认为是性能最好的轻量级基模型,甚至在部分榜单中还超过了参数量更大的LLaMA2-13B(130亿参数)。商汤还在中期报中透露,近期能力更加强大的InternLM-20B模型(200亿参数)也将迎来开源。

  如上文所言,大模型的竞争来到了AI深入产业的新起点。那么,能够针对不同的应用场景和领域,提供闭源、开源,以及不同尺寸模型,满足各类客户需求、为他们提供全覆盖解决方案的商汤,自当迎来新的发展契机。(中新经纬APP)

(责任编辑:焦点)

    相关内容
    精彩推荐
    热门点击
    友情链接