生成式AI相关收入增长迅猛 商汤在大模型比拼中占得先机

[百科] 时间:2024-05-03 12:27:16 来源:蓝影头条 作者:热点 点击:117次

    大模型的生成式吸金造血能力如何?事实证明,这波技术浪潮的关收最大受益者,可能是入增在大模型领域早有布局的商汤。,长迅近日,商汤发布了2023年中期财报。猛商模型值得一提的比拼是,生成式AI相关收入录得670.4%的中占同比增长,对集团业务的得先贡献也从2022年的10.4%迅速提升至20.3%。,生成式整体方面,2023年上半年商汤收入表现稳健。关收其中,入增智慧商业板块表现突出,长迅实现收入8.54亿元,猛商模型同比增长50.2%,比拼占集团总收入比重从40.2%上升至59.5%。中占智慧生活板块,营收同比增长6.7%,为3.12亿元,收入占集团比例提升1.2个百分点,客户数也从2022年同期的183个增加至270个。,而在财报中,商汤也提到这两项业务的增长离不开AI和大模型的助力,即智慧商业板块,商汤与十个行业的数百家客户合作,定制行业大模型,单客户收入实现59.9%增长;智慧生活的手机和移动互联网客户上半年围绕生成式AI创新活跃,客户数实现强劲增长。,可见,在商汤本期的财报中,AI和大模型已经成为了不可忽视的亮点。然而,上半年发布大模型的大厂和创业公司不胜枚举,缘何商汤能够率先享受到大模型带来的红利?这还要从商汤多年的技术沉淀和前瞻布局说起。,高频试错、持续迭代,大模型“日日新”,8月31日,备受行业瞩目的首批拿到“入场券”的大模型产品正式出炉,商汤大模型应用“商量SenseChat”成为少数位列其中的产品,全面向普通用户开放。,作为国内最早发布的大模型之一,今年4月商汤正式发布了“日日新SenseNova”大模型体系。但实际上,商汤自2018年起便致力于AI大模型的研发,有着超过5年的技术积淀和实践经验。,早在2019年,商汤便具备了千卡并行的系统能力,使用上千张GPU卡进行单任务训练,推出了10亿参数量规模的视觉模型,实现了当时业界最好的算法效果。在2021年~2022年,商汤训练了百亿参数规模的超大视觉模型,相当于千亿参数语言模型的训练量。,也是有了这样的积累,商汤才能够打造 “日日新”大模型体系,并在“日日新”大模型基础上发布生成式AI产品系列,包括“商量SenseChat”、“秒画SenseMirage”及”如影SenseAvatar”等,并且持续进行快速迭代,带动了上半年生成式AI相关收入取得三位数的强劲增长,不断刷新着记录。,同时,今年上半年,商汤还联合多家国内顶尖科研机构发布了预训练大语言模型InternLM,成为国内首个超越GPT-3.5-turbo性能的基模型,参数量 1,040亿,使用1.6万亿token的多语言语料训练,支持语言达20多种。,8月,新模型InternLM-123B完成训练,新模型参数量提升至1,230亿。新模型的语言、知识、理解、推理和学科五大能力均显著提高。InternLM-123B模型在全球51个知名评测集(包括MMLU, AGIEVAL, ARC, CEval, Race, GSM8K等)共计30万道问题集合上测试成绩整体排名全球第二,超过GPT-3.5-turbo以及Meta新发布的LLaMA2-70B等模型。 ,,,目前已全面开放的“商量SenseChat”就是以InternLM-123B作为基模型的应用。可见,虽然现在大家都认为是“百模大战”,但其实大模型行业越来越“卷”,头部门槛越来越高,已经不可避免。,同时,文生图产品秒画SenseMirage,也迅速升级至3.0版本并实现出图效果跻身全球前列,国内领先。 ,做原创大模型技术的路上,商汤坚持不断实验、数据清洗,以及高频试错,以推进大模型的高速迭代,保持技术领先,但这也需要极高的成本。为满足大模型的更新需求,商汤的AI大装置SenseCore也在不断更新。 ,比如,上线GPU数量由2023年3月底的27,000块提升至日前的约30,000块,算力规模提升20%至6 ExaFLOPS。这让InternLM实现了几乎每两个月迭代,日日新全家桶实现了每季度迭代,纵观行业,能做到这一频率的并不多。 ,开源闭源两手抓,全面布局迎新周期,不可否认,技术领先性是商汤能够率先发力的首要前提,然而,将技术变成产品,变得易用,实现商业化落地上还有一段距离。那么商汤是如何尝到了大模型带来的商业化成功呢?,首先,在商业模式上,大模型一直有开源闭源之争,属于硬币的两面,各有利弊。开源模型,适用于比较简单的应用场景,追求的是性价比和部署的易用性,相对参数不会很高,工具调用能力也会比较弱;而深入行业和产业的应用,则需要在大参数的闭源模型上开发,要有很强的工具调用能力。而如果行业使用开源模型,那无异于流沙上盖高楼。,对于此,商汤则给出了自己的打法:根据客户不同需求,推出了开源和闭源的多个大模型,满足各类客户的需求。,具体来看,在很多的场景上,利用开源来吸引、打造和生态,同时开源又很有利于其AI的基础设施SenseCore来提供一体化数据、算力算法的一体化的服务,从而使得客户能够享受到基础模型的发展的过程。而对于一些行业性的端到端的模型,则是由商汤来闭源完成,提供一个行业高质量模型的服务。,特别地,InternLM-7B(70亿参数)开源,在多个模型测试榜单高踞榜首,是性能最好的轻量级基模型;具备优秀的调用工具能力,适用于AI智能体等各类应用构建的InternLM-20B模型(200亿参数)将迎来开源。,而提到行业的具体落地,就不能忽略大模型中的工具调用能力。,作为国内首个性能超越GPT3.5基模型,商汤“日日新”大模型系列在预训练基模型InternLM-104B(1040亿参数)在35个评测集上性能超越OpenAI的GPT-3.5-turbo。,同样,InternLM-123B(1230亿参数)模型在全球51个知名评测集超30万道问题集合上测试成绩排名国内第一,全球第三,仅次于GPT-4、Claude 2。其重点升级代码解释器、插件调用、外挂知识库等能力,大大提升落地复杂场景的能力。,而在开源闭源的双重布局和可靠易用的调用工具加持下,目前,商汤已成功研发了320亿参数量的全球最大的通用视觉模型,实现了高性能的目标检测、图像分割和多物体识别算法,并在自动驾驶、工业质检、医疗影像等多个领域得到广泛应用。,另外,商汤基于InternLM的轻量级模型,结合自研推理加速算法,与头部手机芯片厂商建立研发合作,成功实现了大语言模型的手机端实时计算能力。商汤表示正在积极与多家手机厂商客户合作,研发大语言模型与手机操作系统结合的新功能。,未来,商汤将在全面布局超大模型体系基础上,在以多模态大模型+决策智能模型通往AGI的前瞻布局下,再把一个个分解的任务变成端到端,也就是“多模态的接口开放”。伴随多模态交互能力的升级,持续赋能下游产业应用,这样不但可以从根本上降低大模型应用成本和门槛,还能进一步让大模型的产业价值在千行百业中应用。,对于商汤来讲,无疑2023年是在大模型助力下,激活新增长周期的一年,从上半年的表现来看,我们已经能够看到初尝大模型果实的商汤。,商汤集团董事会执行主席兼首席执行官徐立博士表示:“在这个半年度,大模型和生成式AI可以说是全球最受瞩目的科技突破。商汤迎来了极其关键的发展时期。我们希望给行业带来更强的大模型能力,助力我们的用户在生成式AI的时代做出颠覆性的产品,来获得成功。”,我们也有理由相信,这只是收获期的开始。

(责任编辑:百科)

    相关内容
    精彩推荐
    热门点击
    友情链接