华为开发者大会2023(Cloud)7月7日在中国东莞正式揭开帷幕,并同时在全球10余个国家、中国30多个城市设有分会场,邀请全球开发者共聚一堂,就AI浪潮之下的产业新机会和技术新实践开展交流分享。
在7日下午举行的大会主题演讲中,华为常务董事、华为云CEO张平安重磅发布盘古大模型3.0和昇腾AI云服务。
其中,盘古大模型3.0围绕“行业重塑”“技术扎根”“开放同飞”三大创新方向,持续打造核心竞争力,为行业客户、伙伴及开发者提供更好的服务。
昇腾AI云服务单集群提供2000P Flops算力,千卡训练30天长稳率达到90%,为业界提供稳定可靠的AI算力,让大模型触手可及。
张平安表示:“盘古大模型要让每个行业、每个企业、每个人都拥有自己的专家助手,让工作更高效更轻松。
我们始终坚持AI for Industries的战略,在深耕行业的道路上不断前行。我坚信大模型将重塑千行百业,而每一个开发者,都将是改变世界的英雄。”
华为云盘古大模型从一开始就聚焦为行业服务,本次大会发布的盘古大模型3.0也是一个面向行业的大模型系列,包括“5+N+X”三层架构:L0层包括自然语言、视觉、多模态、预测、科学计算五个基础大模型,提供满足行业场景中的多种技能需求。
盘古3.0为客户提供100亿参数、380亿参数、710亿参数和1000亿参数的系列化基础大模型,匹配客户不同场景、不同时延、不同响应速度的行业多样化需求。
同时提供全新能力集,包括NLP大模型的知识问答、文案生成、代码生成,以及多模态大模型的图像生成、图像理解等能力,这些技能都可以供客户和伙伴企业直接调用。
无论多大参数规模的大模型,盘古提供一致的能力集。L1层是N个行业大模型,华为云既可以提供使用行业公开数据训练的行业通用大模型,包括政务,金融,制造,矿山,气象等大模型;也可以基于行业客户的自有数据,在盘古大模型的L0和L1层上,为客户训练自己的专有大模型。
L2层为客户提供了更多细化场景的模型,更加专注于政务热线、网点助手、先导药物筛选、传送带异物检测、台风路径预测等具体行业应用或特定业务场景,为客户提供“开箱即用”的模型服务。盘古大模型采用完全的分层解耦设计,可以快速适配、快速满足行业的多变需求。
客户既可以为自己的大模型加载独立的数据集,也可以单独升级基础模型,也可以单独升级能力集。
在L0和L1大模型的基础上,华为云还为客户提供了大模型行业开发套件,通过对客户自有数据的二次训练,客户就可以拥有自己的专属行业大模型。
同时,根据客户不同的数据安全与合规诉求,盘古大模型还提供了公用云、大模型云专区、混合云多样化的部署形态。
“盘古为行业而生,就要为行业着想,更好地服务千行百业的客户”,张平安表示。如今,盘古大模型已在金融、金融、制造、医药研发、煤矿、铁路等诸多行业发挥着巨大价值。
在政务领域,华为云携手深圳市福田区政务服务数据管理局,上线了基于盘古政务大模型的福田政务智慧助手小福,能够精准理解民众咨询意图,改变传统的一网通办模式,把老百姓的话语转化为政府办事的语言,让城市更有爱。
盘古政务大模型对超过20万条政务数据进行精调,包括12345热线、政策文件、政务百科等,掌握了丰富的法律法规、办事流程等行业知识。
基于盘古政务大模型的小福,在一网通办业务中体现出行业性、专业性、领先性和惠民性。
在煤矿领域,盘古矿山大模型已经在全国8个矿井规模使用,一个大模型可以覆盖煤矿的采、掘、机、运、通、洗选等业务流程下的1000多个细分场景,让更多的煤矿工人能够在地面上作业,不仅能让煤矿工人的工作环境更加舒适,而且可以极大地减少安全事故。
在铁路领域,盘古铁路大模型能精准识别现网运行的67种货车、430多种故障,无故障图片筛除率高达95%,成为货运列检员身边有力的数字助手,将列检员从每日数百万张的“图海”检测中解放出来。
在气象领域,盘古气象大模型是精度超过传统数值预报方法的AI预测模型,同时预测速度也有大幅提升。原来预测一个台风未来10天的路径,需要在3000台服务器的高性能计算机集群上花费5小时进行仿真。
现在基于预训练的盘古气象大模型,通过AI推理的方式,研究者只需单台服务器上单卡配置,10秒内就可以获得更精确的预测结果。
大模型的创新不仅仅是模型自身的创新,更依赖于AI的各项根技术创新。
华为在最底层构建了以鲲鹏和昇腾为基础的AI算力云平台,以及异构计算架构CANN、全场景AI框架昇思MindSpore,AI开发生产线ModelArts等,为大模型开发和运行提供分布式并行加速,算子和编译优化、集群级通信优化等关键能力。基于华为的AI根技术,大模型训练效能可以调优到业界主流GPU的1.1倍。
算力是训练大模型的基础。在本次大会上,张平安宣布单集群2000P Flops算力的昇腾AI云服务在华为云的乌兰察布和贵安AI算力中心同时上线。
昇腾AI云服务除了支持华为全场景AI框架昇思MindSpore外,还支持Pytorch、Tensorflow等主流AI框架。同时,这些框架中90%的算子,都可以通过华为端到端的迁移工具平滑迁移到昇腾平台。
例如,美图仅用30天就将70个模型迁移到了昇腾,同时华为云和美图团队一起进行了30多个算子的优化以及流程的并行加速,AI性能较原有方案提升了30%。
此外,在大模型训练过程中经常会遇到GPU故障,研发人员不得不经常重启训练,时间长,代价大。
昇腾AI云服务可以提供更长稳的AI算力服务,千卡训练30天长稳率达到90%,断点恢复时长不超过10分钟。“
为了帮助全球客户、伙伴、开发者训练和使用大模型,我们致力于为全球客户打造世界AI另一极,为所有AI开发者提供新的选择”,张平安表示。
除了在千行百业的落地实践,华为云盘古大模型也深度融入了华为云的产品服务,重构产品创新。
例如,在资料服务中,通过盘古大模型的文案生成和代码生成技术,能够提升资料撰写和前端代码编写效率,将新产品上市、赋能周期大为缩短。
在云客服,通过嵌入行业知识库和意图挖掘能力的对话问答,实现全流程AI优先作答,提升客服工作效率30%。
在BI,通过NL2SQL和AutoGraph智能路由,实现SQL到可视化图表的自动推荐,通过多轮自然语言交互,让人人都能便捷地从数据中洞察业务细节。
在云搜索,通过多模态Embedding和NL2API技术,实现视频、文本、图谱等广泛场景搜索,借助强大的语义理解和泛化能力,让搜索准确率提高15%。
同时,华为云将CodeArts研发工具与盘古大模型相结合,正式发布了面向开发者的智能编程助手CodeArts Snap。
该工具训练了760亿行精选代码、1300万篇技术文档,具备智能生成、智能问答、智能协同三大核心功能,可以实现一句对话让代码生成、一次点击即可自动注释和生成测试用例,一条指令即可智能部署,让每个软件开发者都有自己的编程助手。
华为云致力于构建以开发者为核心的、开放共赢的全球生态体系。目前,华为云全球开发者数量已超过460万,云商店上架的商品已达10000多个。
华为云提供了易用可靠的大模型工具套件、汇聚海量多行业场景API的开天aPaaS,以及包含丰富优质课程和技术认证的大模型专属社区,希望与开发者及伙伴一起,共同探索盘古大模型与行业结合的创新路径。
AI服务器行业发展趋势及市场现状如何?随着国家加速新型基础设施建设,AI将会加速与交通、能源、制造等行业融合,进而撬动经济增长。
在此过程中,AI服务器的规模化布局能够为人工智能应用落地提供核心的算力保障,对于未来国家计算力指数的提高具有极大的推动作用。
据中研普华产业研究院出版的《2023-2028年中国AI服务器行业发展分析与投资前景预测报告》统计分析显示:
AI服务器是一种能够提供人工智能(AI)的数据服务器。它既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务。
AI服务器有助于为各种实时AI应用提供实时计算服务。AI服务器按应用场景可分为训练和推理两种,其中训练对芯片算力要求更高,推理对算力的要求偏低。
AI服务器按应用场景可分为训练和推理,训练对芯片算力的要求更高,根据IDC,随着大模型的应用,2025年推理算力需求占比有望提升至60.8%;
AI服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要选择(占比91.9%);
AI服务器的成本主要来自CPU、GPU等芯片,占比25%-70%不等,对于训练型服务器其80%以上的成本来源于CPU和GPU。
1)硬件架构:AI 服务器是采用异构形式的服务器,根据应用的范围采用不同的组合方式,如 CPU+GPU、CPU+TPU、 CPU+其他的加速卡等。与普通的服务器的差别主要在大数据及云计算、人工智能等方面需要更大的内外存。
2)卡的数量:普通的 GPU 服务器一般是单卡或者双卡,AI 服务器需要承担大量的计算,一般配置四块 GPU 卡以上,甚至 要搭建 AI 服务器集群。
3)独特设计:AI 服务器由于有了多个 GPU 卡,需要针对性的对于系统结构、散热、拓扑等做专门的设计,才能满足 AI 服 务器长期稳定运行的要求。
AI服务器行业产业链上游主要包括芯片、PCB、连接器、线缆、电源和各类接口等。中游主要包括服务器品牌上和OEM/ODM厂商,未来OEM/ODM或将逐步向JDM模式转变。下游主要是采购服务器的各类客户群体。
此处列举的服务器下游终端客户群体主要是B端和G端客户,主要包括互联网厂商、云服务商、运营商、政府机构、金融机构等。
AI服务器采用CPU+加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优势。与国外AI芯片厂商的垄断局面不同,中国AI服务器水平位于世界前列。
据统计,2022年我国AI服务器市场(按销售额),浪潮以46.6%份额占据首位,新华三、宁畅分别以11%和9%占据第二、第三名。
中国在AI服务器水平位于世界前列。AI服务器采用CPU+加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优 势。与国外AI芯片厂商的垄断局面不同,中国AI服务器水平位于世界前列。
随着国内数字基础建设数据负载量的需求量不断上升,我国AI服务器市场保持较快增速。
根据IDC数据,2022年大陆AI服 务器出货量达28.4万台,预计到2027年达到65万台,CAGR为17.9%,按金额计算,2022年大陆AI服务器销售额为72.55亿美 元,预计到2027年销售额将达到163.99亿美元, CAGR为17.7%。
AI服务器作为算力基础设备,其需求有望受益于AI时代下对于算力不断提升的需求而快速增长。
根据TrendForce,截至2022年为止,预估搭载GPGPU(General Purpose GPU)的AI服务器年出货量占整体服务器比重近1%,预估在ChatBot相关应用加持下,有望再度推动AI相关领域的发展,预估出货量年成长可达8%;2022~2026年复合成长率将达10.8%。
AI服务器是异构服务器,可以根据应用范围采用不同的组合方式,如CPU + GPU、CPU + TPU、CPU +其他加速卡等。
IDC预计,中国AI服务器2021年的市场规模为57亿美元,同比增长61.6%,到2025年市场规模将增长到109亿美元,CAGR为17.5%。
国内AI服务器竞争厂商包括:浪潮信息、新华三、超聚变、中兴通讯等。
IDC数据显示,2021年全球AI服务器市场规模156亿美元,超过全球AI整体市场增长率22.5%。
未来,随着算力的持续增长,自然语言处理和图像、视频等AI模型的深入发展,AI服务器将被更广泛使用。预计2023年全球AI服务器市场规模将达211亿美元。
随着5G部署速度的加快、物联网技术的进一步发展,可以预见我国数据生产速度将获得更快的提升、数据总量将进一步提高。
数据要素价值创造需要对数据进行更多维度、更加深度的利用,原来处理数据的方式已远远满足不了新时期数据处理的需求,而人工智能技术将大大提高数据的利用效率。
据了解,人工智能服务器通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与加速芯片的组合可以满足高吞吐量互联的需求,为自然语言处理、计算机视觉、语音交互等人工智能应用场景提供强大的算力支持,已经成为人工智能发展的重要支撑力量。
在数字经济和“东数西算”等政策影响下,中国AI算力市场持续高速发展。IDC预测,2025年中国AI算力市场规模将达到701.8亿元,占整体服务器市场近三成。
据《2021-2022全球计算力指数评估报告》显示,中国AI算力发展领跑全球,AI服务器支出规模位列全球第一。
未来行业市场发展前景和投资机会在哪?欲了解更多关于行业具体详情可以点击查看中研普华产业研究院的报告《2023-2028年中国AI服务器行业发展分析与投资前景预测报告》。
由中研普华研究院撰写,本报告对我国AI服务器行业的供需状况、AI服务器发展现状、AI服务器子行业发展变化等进行了分析,重点分析了AI服务器行业的发展现状、如何面对行业的发展挑战、AI服务器行业的发展建议、AI服务器行业竞争力,以及行业的投资分析和趋势预测等等。AI服务器报告还综合了行业的整体发展动态,对行业在产品方面提供了参考建议和具体解决办法。

关注公众号
免费获取更多报告节选
免费咨询行业专家