2月22日,在近期举行的Beyond Artificial人工智能大会上,英伟达老板老黄接受了一个深度的专访,首度回应了DeepSeek带来的冲击,老黄提到DeepSeep-R1的推理模型让人印象非常深刻,但是未来人工智能仍然依赖英伟达的算力,未来对算力的需求不会减少,只会继续激增。
市场之前大量抛售英伟达股票,导致英伟达股价暴跌最高达到17%,一天蒸发6000亿美元,当时很多投资者认为DeepSeek的模型训练成本很低,会降低各大科技公司采购英伟达高端芯片的需求,老黄对这个观点并不担心,反而认为DeepSeek的崛起是好事,因为DeepSeek不仅不会降低需求,恰恰相反可以提高对英伟达算力的需求。
(由于原访谈内容很长,老黄和主持人聊了很多方面的话题,接下来我简要概括下老黄的观点)英伟达最早从2017年受到启发,开始构建面向AI的超级计算机,去解决未来AI领域可能遇到的各种问题,老黄为公司指明了具体的方向。
首先最重要的是数据,老黄推动了一场数据智能革新,将原始数据转化为元数据、知识、洞察,解决传统文件系统的局限性,推动多模态模型的发展,降低存储与传输成本,同时在芯片架构上能够高效扩展到不同的模型,支持低延迟,重注云计算领域和分布式网络。
其次是英伟达的Omniverse全能宇宙业务,创建企业级数字孪生,加速物理世界实验,比如药物研发等方向,利用英伟达芯片+Omniverse模拟,进行各种实验测试,来帮助企业优化决策,同时还可以结合物理AI(机器人)形成多层智能架构,帮助传统的工业企业完成数字化转型。
接下来老黄重点提到了DeepSeek,老黄说他非常高兴能够看到全世界第一个开源的推理模型,全球的开发者都为此高兴,“但为什么有人认为这是一件坏事?我认为这是一件好事,很棒的事情。”老黄表示,预训练是AI的基础阶段,通过处理海量多模态数据(如语言、图像、视频、声音)来建立基本理解,之后的训练才是AI的核心部分,这个阶段,AI可以通过强化学习等方法学习解决实际问题。
老黄解释说,强化学习可能包括人类反馈、自我练习,或由另一个AI担任教练,训练的计算需求巨大远远超出了预训练,当前推理更是AI应用的重要环节,大模型回答的质量与思考深度直接相关,做的推理越多,在回答问题前思考得越多,结果就越好。
比如推理需要从基础知识出发,应用第一原理逐步分解问题,有时甚至需要通过实验调整方法,老黄认为R1是目前推理做得最好的大模型之一,而且还是开源的,全世界市场对R1的态度非常积极,DeepSeek降低了成本,反而可以进一步加速AI的普及和应用,未来大模型训练不仅仅是阿里、Meta和谷歌这些大公司的专属,DeepSeek可以造福大量的小公司,让他们也有自己的模型。
老黄预言,未来真正的竞争优势来自于定制化AI,企业可以利用开源模型和工具(如NVIDIA的NEMO和数据智能层INIA)训练专属AI,来解决特定领域的问题,芯片设计、供应链管理等专业领域也需要高度定制化的AI支持。还有一点容易被忽略,未来企业将演变为一个由多种AI组成的系统,包括内部开发的AI、第三方AI以及公共云AI,这些AI将协同工作,基于企业的数据智能层解决问题,实现差异化管理。
昨日美股收盘,英伟达差不多回调到140美元,下周英伟达将发布2025财年四季报,预测英伟达营收将超过360亿美元,同比增长约73%,市场普遍认为英伟达会在发布Q4财报后迎来暴涨,另外英伟达的数据中心业务涨势仍然超出预期,Blackwell的供应可见性继续增强,各家大厂的采购需求依然强劲。下周还有DeepSeek的开源周,将发布5大代码库,同样也值得期待。
更多游戏资讯请关注:电玩帮游戏资讯专区
电玩帮图文攻略 www.vgover.com