天天看点

ChatGPT引发AI行业神仙打架,英伟达赚麻H100芯片售价高达4万美元

ChatGPT引发AI行业神仙打架,英伟达赚麻H100芯片售价高达4万美元

来源丨元宇宙简史

作者丨元宇宙简史主理人 Fun

【元宇宙导读】虽然英伟达H100的官方建议价格尚未公布,但据eBay上的一些卖家透露,其成本价已经达到了2.5万美元左右。在eBay上,H100的售价已经超过了4万美元,甚至有些卖家标价高达6.5万美元。

去年底ChatGPT横空出世,引起各大AI厂商争相斗艳,都要打造自己的大模型。

而世界最大GPU厂商英伟达则赚麻了,成为除了OpenAI大股东微软外的最大赢家。

近日马斯克也是一边签署联名信要求OpenAI暂停训练比GPT-4更强大的大模型,一边偷偷成立AI公司,并跟英伟达购买了一万多块高性能GPU芯片。

随着对训练和部署人工智能软件所需芯片的需求飙升,英伟达最先进的显卡H100芯片在美国电商平台eBay上的售价已经超过4万美元。

ChatGPT引发AI行业神仙打架,英伟达赚麻H100芯片售价高达4万美元

这款芯片是英伟达今年3月发布的面向数据中心的AI图形处理器芯片(GPU),基于全新的Hopper架构设计,拥有强大的性能、可扩展性和安全性,能够加速百亿亿级(Exascale)的工作负载,以及处理万亿参数的语言模型。

H100芯片的核心竞争力主要有:

- 第四代Tensor Core和Transformer引擎,可为多专家(MoE)模型提供高9倍的训练速度,以及高30倍的推理速度;

- 第四代NVLink和NVSwitch系统,可连接多达256个H100芯片,实现每个GPU 900 GB/s的互连带宽,以及跨节点加速每个GPU的通信;

- PCIe 5.0接口和Magnum IO软件,可提高与CPU和存储设备的数据传输速率;

- 第二代多实例GPU (MIG) 技术,可将每个GPU分为7个独立实例,提高资源利用率和安全性;

- 内置机密计算功能,可实现端到端多租户的安全使用,保护数据和模型的隐私。

H100芯片是英伟达在AI领域不断创新和领先的体现,也是其对未来计算需求的预见和布局。H100芯片可以应用于各种AI场景,如AI聊天机器人、推荐引擎、视觉AI、数据分析、高性能计算等。H100芯片还可以搭配英伟达AI Enterprise软件套件,为企业提供端到端的AI就绪型基础架构。

然而,H100芯片的供应却十分紧张,导致其市场价格远高于官方建议价格。据悉,2020年发布的A100是英伟达上一代旗舰AI芯片,售价约为1万美元。而H100的官方建议价格尚未公布,但据eBay上的一些卖家透露,其成本价已经达到了2.5万美元左右。在eBay上,H100的售价已经超过了4万美元,甚至有些卖家标价高达6.5万美元。

ChatGPT引发AI行业神仙打架,英伟达赚麻H100芯片售价高达4万美元

H100 芯片价格飙升的原因有多方面。一方面是由于H100芯片采用了全新的HBM3显存技术,每个芯片拥有80 GB的显存容量。而HBM3显存技术目前还处于初期阶段,产能有限,成本较高。另一方面是由于H100芯片面临着来自全球芯片短缺的影响,导致其产量无法满足市场需求。由于新冠疫情的冲击,以及各行各业对芯片的旺盛需求,全球芯片产业链出现了严重的供需失衡,导致许多芯片厂商和客户遭遇了订单延期、价格上涨等问题。

英伟达也不例外,其CEO黄仁勋在今年2月份表示,英伟达的芯片供应将在今年上半年持续紧张。H100芯片的高价也反映了AI芯片市场的火热程度,以及英伟达在该领域的强大竞争力。从英伟达最近一路长虹的股价,就可以看出英伟达有多赚钱。

ChatGPT引发AI行业神仙打架,英伟达赚麻H100芯片售价高达4万美元

据市场研究机构IDC的预测,全球AI芯片市场将从2020年的238亿美元增长到2024年的 749亿美元,年复合增长率达到33.6%。

而英伟达作为全球最大的GPU厂商,其AI芯片占据了市场的主导地位,其在数据中心、云计算、边缘计算等领域拥有广泛的客户和合作伙伴。

严正声明:本文为元宇宙简史原创,未经授权禁止转载!内容仅供参考交流,不构成任何投资建议。任何读者若据此进行投资决策,风险自担。