界面新闻记者 |
英伟达用于云端AI计算和超算应用的超级芯片GH200全面投产。
5月29日,英伟达CEO黄仁勋在台北电脑展上宣布,英伟达基于GH200的系统产品接受订购,基于英伟达GH200的系统产品将于今年晚些时候上市。
据黄仁勋,作为生成式AI的引擎,首个加速计算处理器GH200整合了英伟达基于Arm架构的Grace CPU和Hopper架构GPU,内置共计超过2000亿个晶体管,配备96GB HBM高速显存以及576GB显存,在系统内可提供高达900GB/s的总数据吞吐速度(带宽),是当前行业标准PCIe Gen5接口速度的7倍。
算力之外,大型语言模型对于数据中心带宽、数据存储提出极高要求,成为人工智能大模型训练的瓶颈,而GH200配置的高内存和大带宽有望解决这一问题。
针对企业,黄仁勋还宣布推出大内存AI超级计算机DGX GH200。该产品集成最多达256个GH200超级芯片,配备多达144TB的共享内存,约为DGX A100超算320GB内存的500倍,可让开发者更好地开发聊天机器人、互联网推荐系统算法等大模型AI应用。据悉谷歌、Meta和微软等科技巨头将最先测试该系统。
GPU是全球数据中心处理人工智能应用的标配,占据超九成市场份额。英伟达的A100和H100是同类产品中的领先者,在数据中心、超算中心等应用领域扮演关键角色。在数据中心领域,英伟达已拥有Grace CPU、Hopper及Ada Lovelace GPU以及DPU等产品。英伟达称,未来系统厂商和云服务商等合作伙伴将推出多达400多种配置的系统设备,进一步完善产品组合。
随着GH200投产并进一步为大语言模型AI计算提供算力,英伟达有望在数据中心市场加速挤占英特尔、AMD两大芯片巨头的份额。
大语言模型在企业生产环节的应用已然加速。发布会上,英伟达便推出了用于游戏中人物模型开发的“ACE for Games”服务。据黄仁勋介绍,借助大语言模型,游戏中NPC输入背景故事等必要资料,即可实时与玩家产生互动,产生符合逻辑的语言对话、表情等,增强游戏沉浸感。“这就是未来游戏的样子。”黄仁勋称。
黄仁勋还演示了借助大模型,仅通过输入语言即可让AI实时对话、唱歌等。
“我们得帮助产业利用到大模型,”黄仁勋在演讲中称,“大模型的普及仍然不够,企业需要为特定的业务使用定制大模型。”
台北电脑展开展前夕,英伟达发布的第一财季财报显示,公司实现营收71.92亿美元,同比减少13%,但大幅高于分析师平均预期的65.2亿美元。非美国通用会计准则下净利润为27.13亿美元,每股收益1.09美元,分析师平均预期为0.92美元。财报发布后的盘后交易中,英伟达股价大涨24.63%。
上季度作为大型公司争相部署人工智能大模型的“高潮”期,对英伟达图形芯片(GPU)需求大幅增长,使其成为AI竞赛最大赢家。受益于此,英伟达数据中心第一财季营收为42.8亿美元,同比增长14%,环比增长18%,较分析师预期的39.1亿美元高约9.5%,去年四季度同比增长11% 。
显然,黄仁勋所称的AI“iPhone时刻”正实打实地转换为公司业绩,亦打破芯片周期“魔咒”。黄仁勋表示,OpenAI的ChatGPT等语言生成式工具和其他人工智能应用的崛起正在推动对计算能力的需求。
此次黄仁勋亚洲行程颇为紧凑,除台北电脑展外,还在上周六出席台大毕业典礼。在典礼上,黄仁勋致辞称,人工智能技术将改变企业格局,并给每一个工作岗位带来变化。据界面新闻了解,黄仁勋结束本次中国台湾行程后还将到访中国大陆,与员工见面并拜访客户。
在人工智能服务提供商的巨大需求推动下,英伟达的股价上周五创下历史新高,市值接近万亿美元。
评论