我们谁也没有想到,2022年我们会告别困扰3年的疫情,也没想到Ai以超新星爆发的速度一般席卷我们的生活,让我们窥见到了下一代信息时代大门外的希望之光。

GTC 2023名言:“We are at the iPhone momen of Ai”
NVIDIA GTC 2023

打破制程进化诅咒,借助Ai迈进1nm时代
英伟达在2022年的GTC大会上推出了全新的GPU架构NVIDIA Hopper,并随后推出了基于该架构的产品NVIDIA H100。如今,H100已成为训练人工智能模型使用最多的GPU之一。在2023年的GTC大会上,英伟达创始人黄仁勋再次站到主舞台,带来了一项创新技术——NVIDIA cuLitho。

图片截取自 GTC 2023视频回放
NVIDIA cuLitho是一套集成在NVIDIA Hopper架构中的光刻库,可以提高GPU在芯片制造场景中的工作效率。老黄宣布已经与台积电、ASML等企业建立合作关系。

图片截取自 GTC 2023视频回放

英伟达预测,使用NVIDIA cuLitho软件库和Hopper GPU替代目前光刻机上的CPU,可以将整体效率提升40倍,减少数百亿CPU小时的计算工作负载。此外,cuLitho技术能够显著降低能源消耗和碳排放。随着芯片工艺不断向3nm甚至2nm、1nm节点迈进,计算需求越来越庞大,cuLitho的高效率和低能耗为芯片制造业的发展带来重要突破。



图片截取自 GTC 2023视频回放
Ai计算普及化?NVIDIA DGX Cloud发布
对于Ai计算的土壤,NVIDIA是自然不会放过的。DGX Cloud是一项AI超级计算服务,让企业能快速访问用于训练高级模型的基础设施和软件,适用于生成式AI和其他创新应用。

图片截取自 GTC 2023视频回放

图片截取自 GTC 2023视频回放
DGX Cloud提供了NVIDIA DGX AI超级计算专用集群,配备8个NVIDIA H100或A100 80GB Tensor Core GPU,每个节点拥有640GB的GPU内存,满足高级AI训练需求。基于DGX Cloud强大的算力,英伟达还开发了一系列应用模型,如NVIDIA AI Foundations,包括NVIDIA NeMo语言和NVIDIA Picasso图像、视频和3D服务。

图片截取自 GTC 2023视频回放
H100简介:NVIDIA DGX H100是世界上第一个配备NVIDIA H100 Tensor Core GPU的系统。该GPU可提供32 pFLOPS FP8性能,使其成为处理最大、最复杂AI工作的超级工具。

图片截取自 GTC 2023视频回放

而昨晚在GTC2023更新的H100 NVL 则是 H100双GPU版本。它有94 GB的HBM3内存。两个GPU通过 NVLink Gen4桥接器连接,总共提供 188 GB 内存。NVLink桥接器最高支持256个H100连接一起。H100 NVL 专为大型语言模型 (LLM) 训练和推理而设计。在数据中心规模上,它比上一代 A100快12倍。并将于2023年下半年推出。



图片截取自 GTC 2023视频回放
NVIDIA AI Foundations模型运行在DGX Cloud上,可通过浏览器访问,提供API接口供开发者调用,实现大规模云端运算负载作业和自定义模型优化。

图片截取自 GTC 2023视频回放
NVIDIA Picasso是一项云服务,可构建和部署生成式AI图像、视频和3D应用程序,有从文本到图像、视频和3D动画的生成能力。未来,英伟达将与Adobe扩大合作,共同开发具有商业前景的下一代生成式AI模型,由Adobe Creative Cloud和NVIDIA Picasso共同完成。

图片截取自 GTC 2023视频回放
商业化上,企业用户只需要每个月支付36999美金,就可以拥有NVIDIA DGX Cloud的基础版本,拥有8个NVIDIA H100或A100的超级云端计算机,为企业的“自建Ai”服务。
个人玩家玩Ai?老黄也想到你了!
对于Ai计算的爱好者们,现在普遍都是采用高端的RTX4080、4090来进行计算,但这些旗舰显卡不仅价格超高,功耗也是爆炸的,所以在昨晚的GTC 2023上,老黄推出了小型RTX 4000显卡,名为RTX 4000 SFF,基于Ada Lovelace架构,封装尺寸比现有的RTX 4000系列更小。这款显卡主要针对小型企业,为CAD、图形设计、AI应用和软件开发提供动力。

图片来源:NVIDIA官网
RTX 4000 SFF具有20GB GDDR6显存、160位总线、6144个CUDA内核、192个Tensor内核和48个光线追踪内核。核心规格略低于RTX 4070 Ti,但英伟达为了减小尺寸和适应商业图像处理需求,降低了其功耗,满载功率仅为70瓦。

图片来源:NVIDIA官网

图片来源:NVIDIA官网
英伟达还针对笔记本电脑端推出了基于Ada Lovelace架构的显卡,如这些显卡主要为游戏创作者提供支持,预计本月起将有第三方厂商推出搭载这些GPU的笔记本产品。

图片来源:NVIDIA官网
在本次的GTC 2023上,NVIDIA展现了其在Ai计算领域的强大实力,在Ai即将带来划时代的信息进化的时候,强大的云计算能力是该时代的基础,我们看到了NVIDIA的巨大野心,其想要化身为Ai信息时代的“肉身基础”。

图片来源:NVIDIA官网
不断进化的H系列、A系列计算卡与恐怖的NVLink技术,都让能支持Ai自我进化所需的算力不断攀升,不论是LLM(大型语言模型)、GAN(生成对抗网络)、CNN(卷积神经网络)、RNN(循环神经网络)都需要云计算能力的支持。

图片来源:NVIDIA官网
英伟达在GTC 2023上展现了其对AI市场的远大抱负,以创新技术、强大的云服务和针对性显卡助力各个行业的发展。英伟达正以前所未有的速度推动Ai的革新,希望可预见的Ai之海早日与我们相逢。