行业知识_欧宝全站APP官方网站-官网登录首页
010-65740269
搜索
英伟达黄仁勋:世界正从通用计算向加速计算过渡

英伟达黄仁勋:世界正从通用计算向加速计算过渡

来源:欧宝APP官方网站    发布时间:2024-04-05 08:03:59
8月24日英伟达发布了截至7月30日的2024财年第二财季财报。得益于其人工智能处理器的强劲需求
发送询盘
产品详情

产品内容介绍

  8月24日英伟达发布了截至7月30日的2024财年第二财季财报。得益于其人工智能处理器的强劲需求,英伟达第二财季营收为135.1亿美元,较上一季度增长88%,较上年同期增长101%。强劲的营收涨幅也表明,谷歌、Meta和甲骨文等英伟达的主要客户正在加大人工智能方面的开支。 同时,英伟达预计,公司第三财季营收将达到160亿美元,远高于投行Bernstein分析师预期的113.5亿美元。

  财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋等高管出席随后召开的财报电话会议。以下为黄仁勋经典观点的梳理:

  这些语言模型都是非常伟大的产品,具备很多核心功能,具有理解非结构化语言的能力,而其核心是对人类语言结构的理解,其中编入了它们所学习到的大量人类知识。大型语言模型的创建都是求大的,然后才能衍生创建出各类较小型语言模型,本质上是一种类似教师-学生的模式,我们叫做“模型蒸馏”,我们所看到的小型语言模型,很可能都是从大型语言模型衍生,学习和蒸馏提炼而来。未来的情况可能也是一样,大型语言模型具备一般性,通用型,或者“零样本学习”能力,具备训练应用程序的“神奇能力”,适用于各类计算设备,应用程序开发者就是要实现大型模型的向下“蒸馏”。小型模型可能也具备某些领域独特的优秀能力,但归纳总结能力不及大型模型,不具备我们所说的“零样本学习”能力。

  全球数据中心的总装机金额在1万亿美元上下,包括了云计算,企业和别的方面的用途,这些数据中心正处于向加速计算和生成式人工智能的过渡阶段,这也是目前最重要的两个平台转换。加速计算是实现成本效益,能源效益和计算效益最大化的方式,而生成式人工智能也意外地推动加速计算的进展,让数据中心运营者更有理由开展平台转换,从一般性用途的计算到加速计算的转换,这是行业发展的长期趋势。

  英伟达有一个名为企业人工智能(AI Enterprise)的运行时(runtime),是我们软件堆栈的一部分。无论是在数据处理过程中所进行的端到端机器学习,在任何框架上进行的任何模型训练,或是推理和部署,向外拓展到数据中心(比如超级数据中心,或是VMware上的企业数据中心),几乎每家公司都会使用到这个运行时。

  客户可以在英伟达的任何GPU产品上执行此操作,我们在市场上拥有数亿个GPU,在云端拥有数百万个GPU,几乎每家云服务中都采用了英伟达的GPU产品。可以按单个GPU配置运行,也可以按每次计算多GPU配置或多节点运行,每个GPU也可以运行多个活动或者计算情形,从单个GPU运行多种计算情形,到多个GPU、多个节点,再到整个数据中心的拓展。企业人工智能拥有大约4500个软件包、软件库,并且彼此之间具有大约10000个依赖项。如我此前所言,英伟达对于该运行时的升级和优化将不断持续,它是使计算加速的很好范例。代码组合的数量之多,以及应用程序组合的类型之繁,确实相当令人咋舌,我们也是花了二十年才走到这一步。

  一是架构。英伟达架构的灵活性、多功能性和性能令我们也可以胜任前面提到的任务,从数据处理到训练、推理,推理前对数据所进行的预处理,再到后期的数据处理,语言进行标识化,以便用于训练。整个工作流程并非只有训练和推理,强度也要大得多,而且都是我们的工作重点。用户在实际使用这一些计算系统的过程中,需要大量的应用程序,我们的架构组合能够加速中心计算程序,以保证最低的运算和保有成本。

  二是装机量。很多软件开发者都会寻求英伟达平台的帮助,由于我们有庞大的安装量,通过我们,软件开发者能够接触到最大数量的最终用户,提升业务或获得投资回报。

  三是触达范围。我们在云上部署,如此多的研发人员和客户都在使用我们的平台,比如通信服务提供商很乐意上云,包括用于内部使用——开发,培训,操作推荐系统、搜索或者数据处理引擎等等,以及训练和推理,我们在云上,也在企业之中。昨天,我们宣布了一项非常重大的消息,也有必要注意一下。 VMware可谓是全球企业的操作系统,我们之间的合作也有好几年时间了,双方将生成式人工智能技术带给全球企业。鉴于我们的影响,全球系统开发者都希望将产品中置入我们的平台,来自世界各地的设备厂商和研发企业带来了巨大的分销效应。

  最后,我们的规模与速度,决定了公司能够在不同的使用模型和不同的计算环境中,持续发展极其复杂的软硬件、网络和计算堆栈,能够在保质保量的前提下加快工程进度。以往我们大约每两年引入一种新架构,而现在,大约每半年就会推出一种新架构或者新产品。有了以上所提到的这些特性,客户就更愿意将其公司业务置于我们的生态系统之中,这一些因素的结合令英伟达与众不同。

  今年全年和明年都有不错的排单。公司已开始与行业领先的通信服务提供商和数据中心建设者一起规划下一代基础设施。思考需求的最简单方式:世界正在从通用计算向加速计算过渡——企业提高吞吐量、提高能源效率、提高成本效率的最佳方式是将资本预算转移到加速计算和生成人工智能上。这样做,用户都能够大量减少CPU工作载荷,实现CPU的效能提升。

  很多公司都意识到了这一点,这是一个转折点,认识到这一转变,并将资本投资转向加速计算和生成人工智能。推动需求的并不是一个单一的应用程序,而是一个新的计算平台,一个正在发生的新的计算转型,世界各地的数据中心正对此做出一定的反应并正在出现广泛的转变。

  我不愿意猜测未来,所以就从计算机科学行业第一原则的角度试着回答你的问题吧。相信我们大家都非常认可的一点是,通用计算并不是蛮力式通用计算,大规模使用通用计算不再是取得进步的最佳方式,因为能源成本过高,过于昂贵,而且应用程序的性能太慢。而如今,终于有了一种新的实现方式,是所谓的加速计算,推动其加速发展的是生成式人工智能。

  加速计算可用于数据中心已有的各种不同应用程序,有助于减轻CPU负担,节省大量资金、成本和能源,并且吞吐量更高,这就是行业真正的反应。

  展望未来,投资数据中心的最佳方式,是将资本投资从通用计算上转移出来,集中到生成式AI和加速计算上。生成式人工智能提供了一种提高生产力的新方式、一种为客户提供新服务的方式,而加速计算可以助力客户节省资金和电力。潜在的合作对象,包括研发人员,应用程序和操作库,数量非常之多,我们已准备好进行部署。

  世界各地的数据中心都已经认识到这是部署资源、为数据中心部署资本的最佳方式,对于全世界的云服务商而言皆是如此,未来也会出现一大批新的GPU专业云服务提供商。其中一个比较著名的公司就是CoreWeave,他们做得很好,而且大家现在也能看到很多遍布世界各地的服务当地的GPU专业服务提供商。

  为了助力企业资本投资的转移,我们应该全面支持企业的管理系统、操作系统、安全性,还有以软件定义的数据中心创建方式,而这就是VMware的工作。我们多年来一直与VMware合作,支持CPU虚拟化,GPU虚拟化以及GPU的分布式计算能力,支持英伟达BlueField的高性能网络。

  我们一直在开发的生成式人工智能操作库,现在都将由VMware遍布全球的、庞大销售网络(包含数千名员工)作为特殊产品来进行营销,该产品命名为VMware Private AI Foundation(私人人工智能基础),该产品将服务企业用户。

  结合惠普、戴尔和联想基于L40S的新服务器产品,任何企业都能拥有最先进的人工智能数据中心,并能够参与生成式人工智能方面的技术进展。很难准确预测每个季度会发生啥,但我们正真看到了平台的转换,趋势非常明显。

  DGX云服务(一种 AI 超级计算服务,使企业能够立即访问为生成 AI 和其他突破性应用程序训练高级模型所需的基础设施和软件)的策略为实现以下目标:

  第一,与世界各地的云服务提供商建立真正密切的合作伙伴关系,英伟达目前与世界各地约30000家公司合作,其中15000家是初创公司,有数千家生成式人工智能公司,增长最快的领域也是生成式人工智能,我们正与世界上众多人工智能初创企业合作,使用英伟达具有世界领头羊的云服务。

  第二,同其他云服务提供商一道,提升超大规模云的性能,超大规模云历来是为多租户设计的,而非为生成式人工智能等高性能分布式计算而设计的。

  第三,英伟达自身也使用非常庞大的基础设施,包括我们的无人驾驶汽车团队、研究团队、生成式人工智能团队、语言模型团队,都需要数量可观的基础设施。假如没有DGX系统,我们的优化编译器就不可能实现,优化软件和基础设施软件甚至需要人工智能来开发。

  我们的工程部门用AI来设计芯片,这一点已经广为人知。还有我们的机器人团队、Omniverse计算平台团队等,也都需要人工智能,我们的内部消耗量也相当大,所以也把它们放在DGX云上。DGX云集合了丰富的使用案例和驱动程序,也取得了巨大的成功。

  *本号系数智云科旗下AI领域垂直号。黑智,AI领域产业服务平台,专注AI行业报道,探讨AI商业经济价值。