【投资观点】颠覆全球的AI拐点,GTC2023英伟达王炸

阿浦美股
2023-03-26


Jensen Huang


如果我们的分析对您有启发,请您点赞支持。若有价值,请您转发给更多的朋友。期待您的评论或私信我吧,我们希望与您深度探讨。感谢您的关注与支持!

"We are at the iPhone moment of AI"

NVDA CEO 黄仁勋在GTC大会上三次提及,AI的iPhone时刻已经到来。

一觉醒来AI产业大变天,最近接连几起轰动全球的科技事件,认知反复被刷新。微软深夜抛出的GPT-4 Office全家桶,一波王炸未平,紧接着谷歌推出新款聊天机器人Google Bard,文本生成视频Runway Gen2开启内测,Adobe的AI生成图像工具Adobe Firefly,惊魂未定,正苦苦思考我的剩余价值还剩什么,英伟达出其不意发布核弹新显卡,颠覆全球的AI决定性时刻,GTC2023来了。

今年英伟达顺风而起,股价暴涨90%,市值飙升超越特斯拉,它背后的男人黄仁勋,在昨晚的GTC主题演讲上究竟说了些什么,为什么这是AI的iPhone时刻,我们一起来一探究竟。

阅读框架

精彩亮点

Nvidia GTC正成为前沿科技与颠覆性产品发布盛会

人工智能正扮演哪些角色

根植加速计算领域,十年实现百万倍加速

发展与深度学习的发展有着微妙的默契

英伟达加速计算业务进入正循环

A100工业化应用,同等条件成本可降低9倍

英伟达GPU与量子计算

RAFT助力Spark-RAPIDS大规模提升数据处理速度

cuOpt以300亿/s速度破世界纪录

Triton 让AI模型的部署和管理更加简单

CV-CUDA和VPF为视频处理领域降本增效

Parabricks 助基因组研究实现里程碑式成就

Holoscan用AI为医疗仪器赋能

Grace Superchip为云端服务供货商提供 2 倍成长机会

BlueField 与数据中心加速

DGX——大语言模型背后的功臣

人工智能的【iphone时刻】已到来

AI Foundation助力更多颠覆性AI产品

英伟达全新推理平台兼具弹性与适应性

Omniverse Cloud——拓宽虚拟世界与数字孪生的边界

Nvidia GTC成为前沿科技与颠覆性产品发布的盛会

全球 NVIDIA 生态已涵盖 400 万名开发人员、40000 家公司、14000 家初创公司,据统计有超过 250000人来参加这次大会。亚马逊云、微软、阿里云等这些各行业巨头都已作为钻石级赞助商加入NVIDIA的合作伙伴计划,获得NVIDIA最高级别的技术支持和资源,共同打造具有开创性、甚至是颠覆性的科技与产品生态。

GTC 2023邀请了来自学术界、行业大拿的优秀主讲者,大会主题不仅涵盖计算机视觉、对话式AI、高性能计算等当下最热门的话题,还包括一些更具想象力的、更远大课题的探讨,如Earth-2项目、微芯片的运算光刻技术议题等。NVIDA GTC聚集了各行各业的重要公司,包括人工智能、汽车与运输、医疗保健、制造业、金融服务、零售等,让全世界都看到了加速计算和AI为各行各业的赋能。

人工智能正扮演哪些角色

1. 人机交互的翻译官

人机交互的翻译官:人类也许不再需要编程来向机器发送指令,AI可以将更符合人类语言习惯的文本或语音转化为机器行动。

2. 人类的生命健康守护者

预见与检测可能对人类生命健康产生威胁的因素,提前建立防范机制来抵御侵害。

3. 更精细化的搜索工具

接受更精细的文字描述,在海量信息中,挑选最符合的结果。

4. 现实与虚拟的破壁者

从快照建立3D模型,实现更高水平的虚拟现实。

4. 工作的灵感助手

为设计、编程、3D建模等创造性工作注入效率和更多的可能性。

英伟达根植加速计算领域,十年实现百万倍加速

英伟达于2006年率先提出加速运算,致力于解决普通计算机无法解决的问题。英伟达所采用的加速方案,并不仅仅局限在硬件上,而是从芯片、系统、网络、加速函式库到应用程序,自底层到顶层的各个环节上思考优化方案。每次优化的成果,都会加速一个应用的发展,涵盖绘图成像、粒子或流体力学、量子物理学、数据处理和机器学习等领域。英伟达在过去十年中为许多应用程序,实现了百万倍的加速,解决了以往不可能解决的问题。

英伟达的发展与深度学习有着微妙默契

2012 年,Alex Kerchevsky、Ilya Suskever 和 Geoff Hinton 需要一台超快的计算机来训练 AlexNet 计算机视觉模型。研究人员在 GeForce GTX 580 上对 AlexNet 进行了训练,训练后的模型也以巨大优势赢得了IRLSVRC挑战赛的冠军,为人工智能发展掀起巨大浪潮。经过十年之后,Transformer 模型也已问世。目前任职于 OpenAI 的 Ilya 也训练出GPT-3大型语言模型,结果创造出 ChatGPT,这个全世界都听说过的人工智能模型。值得关注的是,训练 GPT-3 的浮点运算次数比训练 AlexNet 还多一百万倍。

英伟达加速计算业务进入正循环

加速运算和人工智能的时代已经成为了现实。加速函式库是加速运算的核心,这些函式库会与链接全球产业的应用程序相连,形成了一个网络的网络。经过30年来的发展,现在已有数千个应用程序采用了 NVIDIA 加速技术,几乎在科学和产业的每个领域都有函式库的踪影。

所有NVIDIA GPU都与CUDA 兼容,为开发人员提供了庞大的安装基础,并显著扩大可及范围。各式各样的加速应用程序吸引了终端用户,也为云端服务供货商和计算机制造商开创了广阔的市场。一个大型市场则可提供数十亿的研发资金,进一步将此技术发展至成熟阶段。NVIDIA 可说是建立了加速运算的良性循环。

在涵盖光线追踪和神经渲染、物理地球和生命科学、量子物理和化学、计算机视觉、数据处理、机器学习和人工智能的300个加速函式库和400个人工智能模型中,我们今年更新了其中100个提高了效能,并增加整个安装基础的功能。

A100工业化应用,同等条件成本可降9倍

汽车和航天产业会使用计算流体力学 (CFD) 进行乱流和空气动力学模拟,电子产业则使用 CFD 进行散热管理设计。在这张 Cadence 的投影片中介绍了由 CUDA 加速的新 CFD 求解器。在同等系统成本下,NVIDIA A100 的运算吐吞量是CPU服务器的9倍。或者说,在同等模拟运算吐吞量下,NVIDIA 的成本可降低 9 倍,消耗的能源则可降低 17倍。

Ansys、Siemens、Cadence 和其他领先业界的 CFD 求解器现在也都采用 CUDA 来加速。在全球各地,工业用 CAE 每年使用近1,000亿个CPU 核心小时。加速技术可说是节省电力和实现永续发展和净零排放的最佳方式。

英伟达GPU与量子计算

NVIDIA 也正与全球量子运算研究社区合作。NVIDIA Quantum平台由数据库和系统组成,可供研究人员发展量子程序设计模型。系统架构和算法 cuQuantum 是可在 NVIDIA 平台上进行加速量子电路仿真的加速函式库。IBM Qiskit、Google Cirq、百度量易伏 (Baidu Quantum Leaf)、QMWare、QuEra、Xanadu Pennylane、Agnostiq 和 AWS Bracket都已将 cuQuantum 整合到他们的模拟框架中。

Open Quantum CUDA 则是我们的混合GPU-Quantum编程模型。IonQ、ORCA Computing、Atom、QuEra、Oxford Quantum Circuits、IQM、Pasqal、Quantum Brilliance、Quantinuum、Rigetti Xanadu 和 Anyon 也已整合 Open Quantum CUDA。

要从量化噪声和量子去相干中复原数据,需要对大量量子位进行错误修正。今天,我们宣布推出与 Quantum Machines 合作开发的量子控制连结。可将 NVIDIA GPU 链接到量子计算机,以极高的速度进行错误修正。尽管商用量子计算机还需要一、二十年的时间发展,但我们很高兴能以 NVIDIA Quantum支持这个庞大而充满活力的研究社群。

RAFT助力Spark-RAPIDS大规模提升数据处理速度

世界各地有许多企业使用 Apache Spark 来处理数据池和仓储、SQL 查询、图表分析和推荐系统等工作。Spark-RAPIDS 则是 NVIDIA 的加速 Apache Spark 数据处理引擎。在全球耗费 5,000 亿美元的云端运算支出中,最大一项即是数据处理费用。Spark-RAPIDS 现在可用于加速主要的云端数据处理平台,包含 GCP Dataproc、Amazon EMR、Databricks 和 Cloudera,推荐系统会使用向量数据库来储存、编列索引、搜索和撷取非结构化数据的大量数据集。向量数据库的一个新的重要用例就是大型语言模型,可在文字生成期间,针对检索特定领域或专有事实进行查询。

我们正在引入一个新的函式库 RAFT,以加速编列索引、加载数据以及为单一查询撷取一批邻接项目。我们正在将 RAFT 加速引入 Meta 的开放原始码工具 FAISS (Facebook AI Similarity Search)。超过 1,000 个组织使用的 Milvus 开放原始码向量数据库以及具有超过40 亿次Docker 提取的 Redis。对于要建立专有大型语言模型的组织来说,向量数据库可说是无比重要。

英伟达cuOpt以300亿/s速度破世界纪录

二十二年前,作业研究领域的科学家 Li 和 Lim 提出了一系列高难度的收送货问题 (pickup and delivery problem)。在制造、运输、零售和物流领域 甚至是救灾工作,都涉及 PDP。PDP 是旅行推销员问题的更抽象版本,是 NP-hard 问题,表示没有可找出精确解答的有效算法。随着问题规模扩大,求解的时间也会呈阶乘增长。NVIDIA cuOpt 使用进化算法和加速运算,分析每秒 300 亿次的运作。不仅打破世界纪录,也为Li和Lim提出的难题找到了最佳解答。

AT&T 定期派出 30,000 名技术人员,为 700 个地理区域的 1,300 万客户提供服务。今天,AT& T以CPU执行工作,要一整晚的时间才能完成调度优化,AT&T 希望能实时找到调度解决方案,持续将紧急客户需求和整体客户满意度优化,同时针对延误和不断出现的新事件进行调整。采用 cuOpt 后,AT&T 就可用100倍的速度,更快找到解决方案,并实时更新调度解决方案。

AT&T 采用了全套 NVIDIA 人工智能函式库,除了 Spark-RAPIDS 和cuOPT,他们还使用 Riva 支持对话式人工智能,以及透过 Omniverse 创造数字分身。AT&T 正在利用 NVIDIA 加速运算和人工智能来实现永续发展 节省成本和新服务等目标。

cuOpt 还可将物流服务优化。每一年,全世界都会有 4,000 亿个包裹,投递到 3,770 亿个站点。Deloitte、Capgemini、Softserve、Accenture 和 Quantiphi 已开始使用 NVIDIA cuOpt 帮助客户推动营运优化。

Triton 让AI模型部署和管理更加简单

NVIDIA 的推理平台是由三个软件 SDK 组成 NVIDIA TensorRT 是我们针对目标GPU进行优化的推理运行时间。NVIDIA Triton 则是一款支持 GPU 和 CPU 的多框架数据中心推理服务软件。目前已有 40,000 名客户使用 TensorRT 和 Triton,其中包括Microsoft Office 和 Teams、亚马逊 (Amazon)、美国运通 (American Express) 和美国邮政服务 (U.S. Postal Service) 都是其中一员。

Uber 则使用 Triton 进行每秒数十万次的 ETA 预测。拥有超过 6,000 万名日常使用者的 Roblox,也使用 Triton 为游戏推荐建立虚拟角色,以及管理内容和市场广告等工作提供可用模型。我们也将推出一些厉害的新功能,支持模型整合的模型分析工具多模型并行服务,以及 GPT-3 LLM 的多 GPU、多节点推理。NVIDIA Triton Management Service 是我们的新软件,可在整个数据中心自动缩放和协调。Triton 推理实例 Triton Management Service 可帮助您提高部署模型的吞吐量和成本效率。

CV-CUDA和VPF为视频处理领域降本增效

目前有 50-80% 的云端影片流程都在 CPU 上处理,消耗大量电力和成本,并增加延迟。用于计算机视觉的 CV-CUDA 和用于影片处理的 VPF,则是新的云端规模加速函式库。CV-CUDA 包含 30 个用于侦测、分割和分类的计算机视觉运算。VPF 则是一个 python 影片编码和译码加速函式库。腾讯 (Tencent) 便采用了 CV-CUDA 和 VPF 每天可处理 300,000 支影片。Microsoft 也使用 CV-CUDA 和 VPF 来处理视觉搜寻。

还有 Runway 这家超级酷的公司,他们同样使用 CV-CUDA 和 VPF为他们的云端生成人工智能影片编辑服务处理影片。目前,网络流量中有超过 80% 都是在传递影片,由使用者生成的影片内容正大幅带动成长,同时也消耗大量电力。因此,我们应该加速所有影片处理工作,并降低电力消耗。目前,CV-CUDA 和 VPF 已进入抢先体验阶段

Parabricks 助基因组研究实现里程碑式成就

NVIDIA 加速运算已帮助基因组研究达到里程碑:现在,在同一次就诊中,医师可以对患者抽血,并当场对患者的 DNA 定序。在另一个里程碑案例中,采用 NVIDIA 技术的仪器,将全基因体定序的成本降低到仅需要 100 美元。基因体研究是合成生物学的重要工具。其应用范围从药物研发和农业技术到能源生产,用途广泛NVIDIA Parabricks 是一套人工智能加速函式库,用于在云端内或仪器内进行端对端基因体分析。NVIDIA Parabricks 适用于所有公有云和基因体研究平台,例如 Terra、DNAnexus 和 FormBio。

今天,我们要宣布推出 Parabricks 4.1 的消息,并将在来自 PacBio、Oxford Nanopore、Ultima、Singular、BioNano 和 Nanostring 的第4 代NVIDIA加速基因体研究仪器上执行。全世界市值 2500 亿美元的 医疗仪器市场正面临转型,医疗仪器将转向软件定义,并由人工智能驱动。

英伟达Holoscan用AI为医疗仪器赋能

NVIDIA Holoscan是一个软件函式库,可用于实时传感器处理系统。现在,有超过 75 家公司 正在开发采用 Holoscan 的医疗仪器。今天,我们要宣布全球医疗仪器产业界的领导者美敦力 (Medtronic),已开始和 NVIDIA 合作,要为软件定义的医疗设备打造人工智能平台。

这个伙伴关系将为美敦力的系统建立一个共同平台,合作范围从手术导航扩及机器人辅助手术等工作。今天,美敦力发表了其下一代 GI Genius 系统,正是以 NVIDIA Holoscan 打造,并采用人工智能进行结肠癌早期检测,将于今年年底左右上市。

cuLitho提升计算光刻速度近40倍,大大提高芯片产能

芯片产业已成为几乎所有产业的基础。芯片制造需要极高的精准度,制作特征比细菌小 1,000 倍,并与单一黄金原子或与人类一条 DNA 链的顺序相当。光刻是在晶圆上建立图案的流程,也是芯片制造流程的开始。

包含两个阶段:光掩膜制作和图案投影。基本上,这是触及物理学极限的成像问题。光掩膜就像芯片的模板光线会被阻挡,或穿过光掩膜到达晶圆而形成图案,光线则由 ASML EUV 极紫外线光刻系统产生。

在此,每个系统造价都超过 2.5 亿美元,ASML EUV 会使用激烈的方式来制造光线。激光脉冲每秒向液态锡滴发射 50,000 次,将其蒸发,并放出 13.5 奈米 EUV 的电浆,接近 X 光波长。多层膜反射镜则会将光线引导至光罩,光罩多层反射膜利用 13.5 奈米光线的干涉图案,来建立最低 3 奈米的更精细图形。简直是在施魔法。

晶圆定位在四分之一奈米范围内,每秒对齐 20,000 次,以针对任何振动进行调整。进行计算光刻的这一步,也同样神奇。计算光刻应用了逆向物理算法来预测将在晶圆上产生最终图案的光罩上的图案。

事实上,光罩上的图案根本不像最终的图形,表达式微影模拟了马克士威 (Maxwell) 方程式中光线通过光学组件,并与光阻剂互相作用的行为。表达式微影是芯片设计和制造中 产生最大运算工作量的一环,每年可消耗数百亿个 CPU 小时。大型数据中心往往全年无休运作以建立光刻系统中使用的光掩膜。在芯片制造商每年投入近 2,000 亿美元的资本支出中,这些数据中心的运作成本也占了一部份。随着算法复杂度增加,计算光刻技术也正快速发展。使该产业能够达到 2 纳米精确度,甚至超越此水平。

NVIDIA宣布推出cuLitho 这是一个计算光刻函式库。cuLitho 是一项耗时近四年的巨作,透过与台积电 (TSMC) ASML 和 Synopsys 的密切合作,将计算光刻加快了超过40倍。NVIDIA H100 有 89 个光掩膜板,目前,在 CPU 上执行的单一光掩膜板,需要两周的时间来处理。在GPU上执行的 cuLitho 则可在一次8小时内处理一个光掩膜板,仅需要 500 台。

DGX H100 的系统上以 cuLitho 进行加速,台积电可以减少用于计算光刻的40,000 台 CPU 服务器数量,从而将功率从 35 万亿瓦降低到仅 5 万亿瓦。

借助 cuLitho,台积电便能缩短原型周期时间、提高产量、减少制造过程中的碳足迹,并为 2 奈米及更高阶技术做好准备。今年 6 月起,台积电将开始采用 cuLitho 来生产。每个产业都需要加速每项工作负载,这样我们才能节省电力并达到事半功倍。

Grace Superchip为云端服务供货商提供 2 倍成长机会

在过去十年中,云端运算以每年 20% 的速度,增长成为一个价值1万亿美元的庞大产业。大约有 3,000 万台 CPU 服务器执行了大部分处理工作。而艰巨挑战即将来临,随着摩尔定律的终结,CPU 效能的提高也伴随了功率的增加。减少碳排放的义务,基本上则与增加数据中心的需求两相抵触,能源供应也限制了云端运算的成长 其中,最重要的一点,便是数据中心必须加速每项工作负载。如果能够加速,就能节省电力,节省下来的能源可用于推动新的成长。

任何未加速的内容则会在 CPU 上处理,加速云端数据中心的 CPU 设计点 ,已与过去有根本上的不同。

在人工智能和云端服务中,加速运算能够卸除可平行的工作负载,CPU 则处理其他工作负载,如 Web RPC 和数据库查询等。我们已为人工智能和云端优先的世界设计了 Grace CPU ,其中人工智能工作负载由 GPU 加速,Grace 则专精于执行单个线程和内存处理。这不仅仅是关于 CPU 芯片的问题,数据中心营运商也可借此优化整个数据中心的吞吐量和总体拥有成本。

而我们设计 Grace 正是为了以云端数据中心的规模实现高度能源效率。Grace 包含 72 个 Arm 核心,由超高速芯片内的可扩充连贯网状架构连结。可提供每秒 3.2 TB 的带宽,Grace Superchip于超过每秒 900 GB 的低功耗芯片对芯片整合型接口中,在两个 CPU 晶粒之间连接了 144 个核心,内存系统是 LPDDR 低功耗内存,就像手机中使用的一样,我们也专门针对数据中心的使用进行强化。

此系统可提供每秒 1 TB 的带宽,相当于以目前系统 1/8 的电力,即可达到 2.5 倍的带宽,具有 144 个核心的整个 Grace Superchip 模块,具备 1TB 内存,但大小只有 5x8 吋。此模块的功率非常低,可以气冷方式使用,这是具有被动冷却功能的运算模块。

两部采用 Grace Superchip 计算机,可安装在一部 1U 气冷服务器中。Grace 具备优异效能和能源效率,非常适合云端运算和科学运算应用。我们以一个热门的 Google 基准检验上测试了 Grace,此基准用于测试云端微服务通讯的速度,Hi-Bench 套件则可测试 Apache Spark 内存密集型数据处理。对于云端数据中心而言,这些类型的工作负载非常重要。在微服务方面,Grace 比最新一代 x86 CPU 的平均速度快 1.3 倍;在数据处理方面则快 1.2 倍。

并且,在仅使用完整服务器节点的情况下,测量结果显示仅使用了 60% 的电力,可达到更高的效能。云端服务供货商可为电力有限的数据中心建置 1.7 倍以上的 Grace 服务器,每部服务器可提高 25% 的吞吐量。在采用独立电源的情况下,Grace 可为云端服务供货商提供 2 倍的成长机会。Grace 已开始进行打样 Asus、Atos、GIGABYTE、HPE、QCT Supermicro、Wistron 和 ZT 都已开始打造系统

英伟达BlueField 与头部数据中心协同合作

在现代软件定义的数据中心中,执行虚拟化、网络、储存和安全等作业的操作系统,往往会消耗数据中心近一半的 CPU 核心和相关电力,数据中心必须加速每个工作负载,以节省电力并释放 CPU,以用于可创造营收的工作负载。NVIDIA BlueField 可卸载并加速数据中心操作系统和基础架构软件。目前有二十多名生态系合作伙伴,包含 Check Point 思科 (Cisco)、DDN、Dell EMC、Juniper、Palo Alto Networks、Red Hat 和 VMWare 都采用了 BlueField 的数据中心加速技术,来以更效率执行自己的软件平台。

BlueField-3 已进入生产阶段,并由领先的云端服务供货商,包含百度、CoreWeave、京东 (JD.com)、Microsoft Azure、Oracle OCI 和腾讯游戏 (Tencent Games) 所采用,以加速他们的云端运作。

英伟达DGX——大语言模型背后的功臣

NVIDIA 加速运算的起点是 DGX ,这是世界级的人工智能超级计算机,也是推动大型语言模型技术突破背后的引擎。当初,就是我亲手将世界上第一个 DGX 交给 OpenAI。从那时起,名列《财富》杂志 (Fortune) 100 强的企业中已有半数都安装了 DGX 人工智能超级计算机。DGX 已经成为人工智能的必备工具。

DGX 的 GPU 包含了八个 H100 模块,H100 有一个 Transformer Engine 用于处理像 ChatGPT 这样令人赞叹的模型,GPT 正是「生成式预先训练的 Transformer」(Generative Pre-trained Transformer) 的缩写 8 个 H100 模块透过 NVLINK 交换器建立 NVLINK 连结,以实现完全无阻塞的运算。8 个 H100 可组成一个巨大的 GPU 来运作。

计算网络是人工智能超级计算机最重要的系统之一。400 Gbps 超低延迟 NVIDIA Quantum InfiniBand,具有网络内处理功能,可将数十万个 DGX 节点连接到人工智能超级计算机中。NVIDIA DGX H100 是全球客户建立人工智能基础架构的蓝图。目前已全面进入生产阶段 Microsoft 已经宣布,Azure 即将开放 H100 人工智能超级计算机的个人预览版,我很高兴听到这个消息。

不久后,Atos、AWS、Cirrascale、CoreWeave、Dell、Gigabyte、Google、HPE、Lambda Labs、Lenovo、Oracle、Quanta 和 SuperMicro也将陆续推出其他系统和云端服务。

DGX 人工智能超级计算机的市场已大有成长。DGX 人工智能超级计算机最初的用途是人工智能研究仪器,现在正在扩展到营运领域。可全天候执行,进行调整数据和处理人工智能等工作。DGX 超级计算机可说是当代的人工智能工厂。

英伟达DGX Cloud与云服务商打造双赢合作关系

新创公司竞相打造颠覆性的产品和商业模式,而老牌企业也在寻求因应之道。

生成式人工智能引发了全球企业制定人工智能策略的迫切感,客户需要以更轻松、更快速的方式使用 NVIDIA 人工智能。因此,我们宣布推出与Microsoft Azure、Google GCP 和 Oracle OCI 建立合作伙伴关系,合力推出 NVIDIA DGX Cloud,立即透过浏览器将 NVIDIA DGX 人工智能超级计算机带进每家公司。

DGX Cloud 已针对执行 NVIDIA AI Enterprise 而进行了优化,这是一组全球顶尖的加速函式库套件,适用于人工智能的端对端开发和部署工作。DGX Cloud 可为客户提供最佳的 NVIDIA 人工智能功能,和全球顶尖的云端服务供货商服务。这一合作伙伴关系会将 NVIDIA 的生态系带给云端服务供货商,同时扩大 NVIDIA 的营运规模和触及范围。这种双赢的合作伙伴关系,将鼓励竞相采用生成式人工智能的客户,能从全球规模的云端实时取得 NVIDIA 技术。对于自家商业模式能扩展到云端领域,并达到如此速度、规模和触及范围,我们当然是兴奋不已。

Oracle Cloud Infrastructure (OCI) 将成为第一个 NVIDIA DGX云端

OCI具有出色效能,其中包含两层运算架构和管理网络。运算架构部分采用了具有业界最佳RDMA的NVIDIA CX-7;管理网络的基础架构处理器 则采用 BlueField-3。这个组合,可说是 DGX 人工智能超级计算机可为多租用户的云端服务提供的尖端技术。

人工智能的【iphone时刻】已经到来

我们拥有 50 家 EA 企业客户,涵盖消费者因特网和软件、医疗保健、媒体与娱乐和金融服务等产业 ChatGPT、Stable Diffusion、DALL-E 和 Midjourney。已激起全世界探究生成式人工智能的好奇心。这些应用程序的功能不仅容易上手,也令人赞叹,在短短几个月内,便吸引了超过一亿名使用者。

ChatGPT 更是有史以来成长最快速的应用程序 而且,不必进行任何训练,即可使用只要开口要求模型做一些事情就好。无论提示精确或是模棱两可,模型都能运作如果表达得不够清楚 ChatGPT 也能透过对话了解使用者的目的。ChatGPT 所产生的文本质量也超乎想象。ChatGPT 不仅可撰写备忘录和作诗、整理研究论文内容、解答数学问题、为契约划重点,甚至能写出软件程序。

ChatGPT就像一部计算机,不仅可执行软件,也可以编写软件。生成式人工智能能够发展到这个程度,都归功于众多技术上的突破。首先是 Transformer 从数据的关系和相依性中,平行且大规模地学习上下文和文义;接下来,大型语言模型从大量数据中学习后,便可在未经过专门训练的情况下,执行下游任务。还有受物理学启发的扩散模型,无须监督即可进行学习,并产生影像。

在短短十多年里,我们已从努力辨认猫的模样,进展到能够产生穿着宇宙飞行服的猫,在月球上行走的逼真影像。生成式人工智能俨然是一种新型态的计算机,也就是我们用人类语言设计出的计算机。能发展出这样的能力,意义相当深远,这表示每个人都可以指挥计算机来解决问题。以往,这是只有计算机程序设计师能涉足的领域 如今,人人都可以当工程师。生成式人工智能是一种全新的运算平台,就像 PC、因特网、行动装置和云端一样。正如之前的运算时代,业界先驱会创造出新的应用程序,并成立新公司,以利用生成式人工智能的自动化和共同创造能力。

Debuild 则让使用者只需解释自己想要什么,就可以设计和部署网络应用程序。写作辅助工具 Grammarly 可考虑上下文意涵 ,Tabnine 能帮助开发人员编写程序代码,Omnekey 可生成量身打造的广告和文案, Kore.ai 是一个虚拟客户服务人员代理程序,Jasper 可产生营销素材Jasper 已经写出近 50 亿字,将产生初稿的时间减少了 80% ,Insilico 也使用人工智能来加速药物设计,Absci 目前已采用人工智能来预测治疗抗体。

几乎所有产业都会因为生成式人工智能而改头换面。

优秀的生成人工智能API 会陆续问世, 许多公司都能选择其中一种来运用。有些专精于某领域的公司,则需要使用自己的专有数据,来建立自定义模型。他们必须制定使用规范,并调整模型 ,符合公司对安全性和隐私性的要求。以整个产业的角度来看,也需要能开发自定义大型语言模型的「铸造厂」 就像台积电之于半导体产业一样。

英伟达AI Foundation助力更多颠覆性AI产品的出现

今天我们宣布推出 NVIDIA AI Foundations 这款云端服务,相当适合需要建立、完善与操作自定义大型语言模型和生成式人工智能的客户。该模型与人工智能使用专有数据训练,可供特定领域的工作使用。NVIDIA AI Foundations 由语言视觉与生物学模型制作服务所组成。

NVIDIA Nemo 是用于建立自定义语言,文字转文字的生成模型。客户可以使用自己的模型,或使用 Nemo 预先训练的语言模型开始着手,该模型包含 GPT-8、GPT-43到 GPT-530 B 参数,从建立专有模型到营运的整个过程,NVIDIA 人工智能专家将与您合作。

Picasso 是制作视觉语言模型的服务,若客户想要建立透过授权或专有内容训练的自定义模型。NVIDIA Picasso 是一种云端服务,用于建构和部署生成式人工智能影像、影片和 3D 应用程序,借由该服务,企业、ISV 和服务供货商,就可以部署自己的模型。

Picasso 会使用在 NVIDIA DGX Cloud 上执行的适当模型,将生成资产传响应用程序,内容可能是拟真的影像、高分辨率影片 或是详细的3D几何图形,产生的资产可以输入编辑工具或 NVIDIA Omniverse 中,以建构拟真的虚拟世界。元宇宙应用程序和数字孪生仿真,透过在 NVIDIA DGX Cloud 上执行的 NVIDIA Picasso 服务,您可以简化建构自定义生成式人工智能应用程序、所需的训练、优化和推理。

我们很高兴看到 Getty Images 将使用 Picasso 服务来建立 Edify-image 和 Edify-video 生成模型,这些模型使用该服务丰富的数据库进行训练,其中包含经授权的专业影像与影片素材。企业将能够使用简单的文字或影像提示,建立自定义影像与影片。Shutterstock 正在开发 Edify-3D 生成模型,该模型使用专业影像、3D 和影片素材数据库进行训练。Shutterstock 会协助简化 3D 素材的建立,可用于创意制作、数字孪生以及虚拟协作,让企业能够更快 更轻松地实作工作流程。

而我很高兴宣布,我们与 Adobe 的长期合作伙伴关系颇具进展作目标在于为未来的创造力 建立新一代人工智能的功能,以及将生成式人工智能整合至营销人员和创意专业人士的日常工作流程中。全新生成式人工智能模型会针对图像建立、影片、3D 和动画进行优化,为了保护艺术家的权利,Adobe 的发展聚焦于商业可行性,以及透过 Adobe 「内容真实性计划」提供适当内容归属。

我们的第三语言领域是生物学。药物开发是一个价值约为2万亿的产业,其中投资到研发部门的资金共有 2,500 亿。

NVIDIA Clara 是用于影像、仪器、基因体学和药物开发的医疗照护应用程序框架。该产业开始运用生成式人工智能 来探索疾病目标,设计新分子或以蛋白质为基础的药物,并预测药物在体内的行为。在数百家新兴人工智能药物开发的新创公司之中,Insilico Medicine、Exscientia、Absci 和 Evozyme 皆属于其中一员。其中有些新创公司已经发现了新目标或候选药物,且已开始着手进行人体临床试验。BioNemo 协助研究人员使用专有数据 建立、微调和提供自定义模型。如今,生成式人工智能正在转变药物开发过程的每一步。NVIDIA BioNeMo 服务以云端服务形式,提供最先进的药物开发生成式人工智能模型,可立即轻松加速药物开发工作流程。

生成式模型甚至可以预测蛋白质和分子的 3D 相互作用,加速最佳候选药物的开发。借由 NVIDIA DGX Cloud,BioNeMo 还提供随选的超级运算基础架构,以进一步优化和训练模型,节省团队宝贵的时间和金钱,使他们能够致力于开发挽救生命的药物。新的人工智能药物开发流程现正推出,注册以体验 NVIDIA 的 BioNeMo 服务。我们将继续与产业合作,将该模型纳入 BioNemo 其中包含药物开发和虚拟筛选的端对端工作流程。Amgen、AstraZeneca、Insilico、Evozyne、Innophore 和 Alchemab Therapeutics 皆是预先体验 BioNemo 的使用者。

NVIDIA AI Foundations 是云端服务,也是铸造厂,能够建立自定义语言模型和生成式人工智能。自十年前推出 AlexNet 以来,深度学习开辟了广大的新市场,其中包含自动驾驶、机器人以及智能喇叭。此外也重塑了我们购物、接收新知与欣赏音乐的方式 这只是冰山一角而已。

人工智能正处于转折点,因为生成式 AI 已经开启了新的机遇浪潮,推动了推理工作负载的阶跃式的增长,人工智能现在可以生成多种数据,包含语音、文字、影像、影片、3D 图像,以及蛋白质与化学物质。

英伟达全新推理平台

兼具弹性与适应性

设计云端数据中心来处理生成式人工智能是一项相当艰巨的挑战。一方面来看,使用单一类型的加速器是理想之选,因为这让数据中心具有弹性,也可以处理无法预测的流量尖峰和低谷。另一方面而言,却没有加速器能够以最佳方式处理算法、模型、数据类型和大小的多样性。NVIDIA 的One Architecture平台,提供了加速与弹性。

今天,我们宣布推出全新的推理平台,其中有四种配置、一个体系架构,一个软件堆栈。每种设定都针对工作负载的一个类型优化。

图片

英伟达推出L4 GPU,

真正做到以一敌百

对于人工智能影片工作负载,我们推出了L4,针对影片译码与转码、影片内容审核以及如背景替换、重新照明、眼神交流 转译服务与实时影片翻译等等功能进行优化。现今大多数的云端影片都在CPU进行处理,一台8-GPU L4的服务器将能够取代一百多台用于处理人工智能影片的的双插槽 CPU 服务器。

Snap 是 NVIDIA 人工智能在计算机视觉和推荐系统方面的先驱用户,Snap 会透过 L4 使用 AV1 影片处理生成式人工智能和扩增实境。Snapchat 的使用者每天上传数亿部影片。Google 今天宣布在 GCP 推出 NVIDIA L4。NVIDIA 和 Google Cloud 正携手合作几个主要的工作负载在 L4 上加速。

让我来介绍其中五个工作负载:第一,为 Wombo 和 Descript 等客户推理生成式人工智能模型;第二,我们正在整合 Triton 推理服务器与 Google Kubernetes Engine 和 VertexAI;第三,我们正在使用 NVIDIA Spark-RAPIDS 加速 Google Dataproc;第四,我们正在加速 Google 的 AlphaFold 以及 UL2 和 T5 大型语言模型;第五,加速 Google Cloud 渲染 3D 和扩增实境体验的沉浸式串流。透过这次合作,Google GCP 成为首屈一指的 NVIDIA 人工智能云端平台。我们期待可以尽快,告诉您更多关于合作的信息。

英伟达推出L40GPU,

性能高达10倍以上

针对 Omniverse、绘图运算渲染,以及如文字转影像和文字转影片的生成式人工智能,我们宣布推出 L40GPU。相较于最流行的云端推理, GPU NVIDIA T4 L40 的性能最高可达 10 倍以上。Runway 是生成式人工智能的先驱,其研究团队是 Stable Diffusion 及其前身 latent diffusion 的主要创立者。Runway 正在发明用于建立和编辑内容的生成式人工智能模型,凭借着 30 多种人工智能魔术工具,他们的服务正彻底颠覆创作过程,而一切都来自云端。


让我们去参观吧,全球各行各业正在加速数字化,未来三年将投资超过 3.4 万亿美元。BMW 努力成为汽车数字化领域的领先者,借由 NVIDIA Omniverse 和 AI,我们可以比以往更快建立新工厂,并提高生产效率。这可以节省大量资金 这一切都是从规划开始,这是一个复杂过程。我们需要在这个过程中,连接世界各地的许多工具、数据集和专家。传统上,我们会受到限制,因为数据分散在各种系统和工具中独立管理。

如今,我们正在改变这一切,我们正在开发「自定义 Omniverse 应用程序」,将现有的工具、专业知识和团队连接起来,一切都在整合式的检视工具中 Omniverse,是云端原生且适用于任何云端,因此团队能够从任何地方跨虚拟工厂进行协作。

我即将参加匈牙利德布勒森厂的虚拟规划会议,BMW的新电动车工厂将于 2025 年开始

首先,我们推出了采用 NVIDIA Ada RTX GPU 和最新 Intel CPU 的新一代工作站。新工作站非常适合执行光线追踪、物理模拟、神经绘图技术和生成式人工智能。Boxx、Dell、HP 和 Lenovo 将从 3 月开始提供这些工作站,接下来是针对 Omniverse 优化的全新 NVIDIA OVX 服务器,OVX 由 L40 Ada RTX 服务器 GPU 和我们的全新 BlueField-3 所组成,OVX 服务器将由 Dell、HPE、Quanta、Gigabyte、Lenovo 和 Supermicro 所提供,

从芯片、系统、网络到软件,Omniverse 堆栈的每一层都是新发明。建立和运作 Omniverse 计算机需要经验丰富的 IT 团队,我们会让 Omniverse 更加快速、更易于扩展,也更容易参与其中。我们来看一下吧!

世界上最大的行业正在竞相将其实体流程数字化,这在目前是一项复杂的任务。NVIDIA Omniverse Cloud 是一种平台即服务,可供您实时安全存取托管于 NVIDIA OVX 的Omniverse Cloud API、工作流程与可自定义应用程序,企业团队可以透过网页浏览器 Omniverse Launcher 或自定义内建整合功能,存取一系列托管服务,一旦进入 Omniverse Cloud,企业团队就可以立即存取、扩充和发布基础应用程序和工作流程,以组成和构成虚拟世界,进而产生数据训练认知人工智能,测试和验证自驾车或仿真自主机器人。

存取和发布公用数据至 Omniverse Nucleus 设计师和工程师在 RTX 工作站上,使用他们最喜爱的第三方设计工具,并同步将编辑内容发布至 Nucleus,准备于Omniverse 迭代或检视整合模型时,只需开启网页浏览器并登入即可,随着项目与团队规模扩大,Omniverse Cloud 也能借由视需要布建运算资源和授权,最佳化成本。而新服务与升级,也会跟着实时更新自动提供。

有了 Omniverse Cloud,企业可以在所有主要工业工作流程中,加速统一数字化和协作,进而提高效率、降低成本和浪费,加快创新之路。

今天,我们发布了 NVIDIA Omniverse Cloud,这是经过完善管理的云端服务。我们与 Microsoft 合作,将Omniverse Cloud引入全球各大产业,我们将它托管于 Azure,借此能够享有 Microsoft 丰富的储存空间、安全保护、应用程序和服务组合。我们链接 Omniverse Cloud 与 Microsoft 365 生产力套件,其中包括 Teams、OneDrive、SharePoint以及 Azure IoT 数字孪生服务。Microsoft 和 NVIDIA 将 Omniverse 带给数亿 Microsoft 365 和 Azure 的使用者。

总结与感谢

加速运算和人工智能的时代来临了,开发人员使用NVIDIA 进行加速和扩充,解决以往不可能解决的问题。净零就是一项艰巨的挑战各公司都必须加速每项工作负载以重新掌握能源使用,加速运算是全方位数据中心规模的运算挑战。


我们很高兴能与 TSMC、ASML 和 Synopsys 携手合作发展 2nm甚至更精密的技术。NVIDIA DGX 人工智能超级计算机是生成式大型语言模型突破背后的引擎,DGX H100人工智能超级计算机正处于生产阶段,而全世界不断扩展的OEM和云端合作伙伴网络很快就可以提供这些超级计算机 DGX 超级计算机超越研究,成为现代化的人工智能工厂,各公司都能制造人工智能。

借由与 Microsoft Azure、Google GCP 和 Oracle OCI 合作,我们使用 NVIDIA DGX Cloud 扩展经营模式,以透过浏览器立即将 NVIDIA 人工智能带给每家公司,DGX Cloud 为客户提供 NVIDIA 和全球顶尖 CSP 的最佳服务。

我们正处于人工智能的 iPhone 时代,生成式人工智能推理工作负载已经超速运转。我们推出了全新推理平台,其中包含四种设定以及一种架构L4 用于人工智能影片, L40 用于 Omniverse 与绘图运算渲染,H100 PCIE 用于扩展大型语言模型推理,Grace-Hopper 用于推荐系统与向量数据库。NVIDIA 的推理平台,可建立最大的数据中心加速和弹性,NVIDIA 和 Google Cloud 携手合作,以部署各种推理工作负载。

透过这次合作,Google GCP 成为首屈一指的 NVIDIA 人工智能云端平台。NVIDIA AI Foundations 是云端服务,也是铸造厂,能够建立自定义语言模型和生成式人工智能。NVIDIA AI Foundations 由语言、视觉与生物学模型制作服务所组成。Getty Images 和 Shutterstock 正在建立自定义视觉语言模型,我们与Adobe 携手合作,为未来的创造力建立一套新一代人工智能的功能。

Omniverse 是数字转实体的操作系统,可实现产业数字化,Omniverse 可以统一端对端工作流程,并将价值 3 万亿、拥有 1,400 万员工的汽车产业数字化。Omniverse 即将跃入云端,我们将它托管于 Azure,并与 Microsoft 携手合作,以便将 Omniverse Cloud 引入全球各大产业。

我要感谢系统、云端和软件的合作伙伴、研究人员、科学家,特别是出色的员工,他们建立了 NVIDIA 加速运算生态系统。让我们携手合作,帮助世界完成不可能的任务,愿各位在 GTC 大会获益良多!

老虎财报季2020
公司发财报,这些发财信息千万不要错过!
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

精彩评论

  • 艾迪尔00
    2023-03-26
    艾迪尔00
    科创公司的前景是很好的,人们的期望也很高。
  • 风浪越大我越猛
    2023-03-26
    风浪越大我越猛
    但是具体投不投不是前景好就ok的。
发表看法
2