分享: |
“AI的iPhone时刻已至”,英伟达或成最大赢家。
在GTC2023大会上,黄仁勋接连放出大招:
不仅发布了ChatGPT专用GPU,比之前就能实时处理ChatGPT的HGX A100快了10倍;
还公布了其在芯片领域的进展,推出了新的cuLitho软件库,使光刻计算速度整体提高了40倍。
AI是用人类语言编程的新型计算机,未来每个人都将是程序员。
话不多说,会上具体都有哪些亮点,一起盘点下~
L4 Tensor Core GPU
L40 GPU
H100 NVL GPU
Grace Hopper超级芯片
相较于目前唯一可以实时处理ChatGPT的HGX A100,一台搭载四对H100和双NVLINK的标准服务器能将速度提升10倍,并且还可以将大语言模型的处理成本降低一个数量级。
期间,老黄还展示了自己亲自把首款签名版DGX交付给OpenAI的画面。
然后再来说下其他三个推理平台:
L4是专门针对AI生成视频设计的一款通用GPU,它提供的视频性能比CPU高出整整120倍,能效提高了99%。
L40则是用在图像生成上的GPU,它能对AI生成2D、3D图像进行优化,相较于英伟达的云推理GPU T4,性能提升了10倍。
Grace Hopper超级芯片用在推荐系统和大型语言模型AI数据库上,图推荐模型、向量数据库和图神经网络都可以选择这款芯片。
更具体一点,通过900GB/s高速芯片对芯片的接口,Grace Hopper超级芯片可连接Grace GPU和Hopper GPU,而Grace和Hopper正是处理大型语言数据集的理想选择。
到这里,你以为关于ChatGPT的相关产品就没了?
大NO特NO。
在ChatGPT这块儿,英伟达还致力于下沉市场,联合微软Azure、Google GCP和Oracle OCI三家云厂商合作推出了DGX Cloud。
普通企业也能训练LLM。
也就是说,想要训练像ChatGPT的大语言模型,可以直接在网络上租赁DGX云服务,这样一来客户就能将英伟达DGX AI超级计算机实时接入公司。
英伟达提供的DGX服务器,包含8个H100或A100图形处理器和640GB内存,A100层的价格为每月36999美元。
而直接购买一个实体DGX服务器,就要花费20万美元,并且微软当时为了训练新必应也是斥资数亿美元购买了数万块A100芯片。
直播回放:https://www.youtube.com/watchv=DiGB5uAYKAg
参考链接[1]https://www.theverge.com/23649329/nvidia-dgx-cloud-microsoft-google-oracle-chatgpt-web-browser[2]https://nvidianews.nvidia.com/news/nvidia-asml-tsmc-and-synopsys-set-foundation-for-next-generation-chip-manufacturing
![]() |
![]() |
![]() |
![]() |
世展网公众号 |
微信小程序 |
销售客服 |
门票客服 |