英伟达再次坐稳全球市值最高的芯片厂商交椅。
5月24日,GPU芯片龙头英伟达公布了2024财年第一季度的财报,该季度营收为71.92亿美元,较上年同期的82.88亿美元下降13%,较上一财季的60.51亿美元增长19%;净利润为20.43亿美元,同比增长26%,环比增长44%。
具体到游戏、数据中心、专业可视化、汽车四大业务板块,英伟达有超过一半营收来自数据中心业务,达42.8亿美元,创历史新高。
但真正让市场震惊的是英伟达对下一个季度的预期:英伟达预计2024财年第二财季营收将达110亿美元,上下浮动2%,同比将增长64%。这一业绩展望远超分析师此前预期,并将创下英伟达史上最高单季销量纪录。据雅虎财经频道提供的数据显示,30名分析师此前平均预期英伟达第二财季营收将达71.5亿美元。
财报发布后,英伟达盘后最高涨幅一度高达30%。5月25日美股开盘后,英伟达股价保持高开高走,整个交易日维持了20%以上的涨幅,股价收报379.80美元/股,市值在一个交易日内暴涨1840亿美元,达9392亿美元(约6.62万亿元),超越苹果创美股历史上单日市值涨幅第一。
英伟达距离万亿美元市值只有咫尺之遥,多个金融机构预计,英伟达可能很快成为苹果、微软(MSFT)、谷歌母公司字母表(GOOGL)以及亚马逊(AMZN)之后,美国第五家市值突破一万亿美元的上市公司。今年以来,英伟达的股价也上涨了一倍。
5月26日A股开盘,半导体板块整体高开,当天板块涨幅1.63%,141只股票上涨,2只股票平盘,47只股票下跌。其中,金百泽、恒烁股份(688416.SH)、胜宏科技(300476.SZ)、寒武纪(688256.SH)、美芯晟(688458.SH)位列板块涨幅前五位,涨幅分别为20.02%、20.00%、19.98%、15.17%、7.33%。
AI芯片厂商英伟达成最大赢家
可以理解为,AI芯片是AI模型的“发动机”,在GPT等大型语言模型带动的算力需求飙升下,AI芯片厂商成为最大赢家。“整体来看,AI算力在AI大模型的进化中扮演着关键的角色。它不仅通过超强的算力推动模型规模的增长,加速训练过程,提高模型性能,也有助于促进新技术的研究和应用。”一位芯片行业分析师向时代周报表示。
英伟达GPU芯片的优势在于其专门为人工智能用途设计的图形处理器。在AI芯片方面,英伟达的拳头产品是A100和H100。
其中,A100是英伟达于2020年5月推出的新一代GPU芯片。“这是英伟达8代GPU史上的一次性能飞跃,其AI训练和推理性能相比于前代V100提升了高达20倍。”黄仁勋当时在线上发布会中如此形容其性能。H100芯片则于2022年初发布,当年9月量产。与上一代A100相比,H100包括了大量的技术更新和升级,所有设计均达到新的性能和效率水平。H100采用台积电4nm工艺制造,相比之下,A100的晶体管数量为540亿个,而H100有800亿个。
在GPT的带动下,企业争相训练和部署类ChatGPT等生成式AI程序,而A100/H100也成为了具有代表性的算力资源。据报道,美国硅谷的大型科技公司基本都已部署了英伟达GPU芯片。微软是首个采购英伟达GPU以构建算力集群的云厂商,据英伟达去年11月公告,微软Azure上部署了数万枚A100/H100高性能芯片。
据市场调查机构TrendForce数据显示,如果以A100的处理能力计算,GPT-3.5大模型需要2万块GPU来处理训练数据。目前A100的售价在10000-15000美元之间,一个训练模型英伟达或许就可以赚3亿美元。
对于芯片厂商来说,数据中心业务并不陌生。英伟达数据中心业务的大幅增长,也主要得益于AI算力需求。英伟达CEO黄仁勋表示,英伟达正在向出售整体的AI超级计算系统转变,而不仅仅是一家芯片设计公司,企业为了能够获得AI算力,愿意为英伟达的产品支付更高的价格。
在高昂的价格之下,英伟达的AI芯片仍然供不应求,价格还有被炒作的趋势。4月,有媒体报道,H100在网上的售价已经被炒到4万多美金。
据媒体报道,一台通用计算服务器的成本大约在5万元左右,而英伟达的芯片一块价格已经涨到10万元,对于投入算力基础设施的公司来说,整个采购成本都在增加。
仍有急单大量涌入
5月26日,有业内人士称,确有英伟达急件订单大量涌入台积电,将台积电5nm工艺平台的产能利用率推高至接近满负荷。英伟达AI芯片急单包括H100、A100、H800、A800。台积电以“超级急件”生产英伟达,订单已至年底。
市场预估,独吞英伟达大单的台积电全年营收可能会上调至持平或小幅增长。5月25日,台积电美股股价涨12.00%至100.95美元/股,市值5235亿美元。
从台积电的急单也可以反映出GPU架构AI芯片的算力优势,也让英伟达的话语权越来越大。为了继续抢夺数据中心业务,英伟达还表示未来将向用户提供“GPU+CPU”的完整服务器产品,这无异于向其他芯片巨头宣战。
目前,能够提供AI算力的芯片主要分为CPU+加速芯片、GPU、FPGA、ASIC等。GPU提供了多核并行计算的基础结构,可支持大量数据的并行计算,但功耗相对较高;FPGA可多次编程,延时性较低,灵活性较强,但开发难度大且价格较昂贵;ASIC则具备体积小、重量轻、功耗低等特点,但灵活性有限。有半导体行业分析师认为,CPU+加速芯片的组合可能是较优方案,可以满足高吞吐量的需求。
在AI算力需求方面,中国是全球最大的市场之一,英伟达尤为重视。英伟达一方面未向中国出售A100和H100芯片,但在2022年11月推出了比这两款芯片稍差的“特供”替代品A800。与A100相比,A800系列的规格基本相同,比较大的区别在于NVLink互连总线的连接速率,前者为600GB/s,后者限制在了400GB/s。A800 GPU在算力上与A100保持一致,但增加了40GB显存的PCIe版本,在NVLink互联速度上,A800相较于A100下降了200GB/s的速度。
事实上,国内厂商也推出了相关的可替代芯片。例如寒武纪的MLU370芯片,据业内人士称其性能大约是A100的60%-70%。
声明:免责声明:此文内容为本网站转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。