IT 之家 1 月 8 日讯息,在拉斯维加斯举行的外洋消费电子展 ( CES ) 上,英伟达 CEO 黄仁勋在一次面向万东说念主的主题演讲后经受 TechCrunch 采访时暴露文爱 剧情,其公司 AI 芯片的性能升迁速率已远超数十年来鼓舞贪图机技巧高出的"摩尔定律"设定的圭臬。
"咱们的系统高出速率远超摩尔定律,"黄仁勋周二暴露。
据 IT 之家了解,"摩尔定律"由英特尔集结创举东说念主戈登・摩尔于 1965 年淡薄,预测贪图机芯片上的晶体管数目将大要每年翻一番,从而使芯片性能也无意翻一番。这一预测基本完了了,并在几十年里鼓舞了贪图机性能的快速升迁和资本的急剧下跌。
频年来,"摩尔定律"的发展速率有所放缓。但是,黄仁勋宣称,英伟达的 AI 芯片正以本身的加快节拍发展;该公司暴露,其最新的数据中心超等芯片在运行 AI 推理责任负载方面的速率比上一代居品快 30 多倍。
"咱们不错同期构建架构、芯片、系统、库和算法,"黄仁勋说,"若是这么作念,咱们就能比摩尔定律更快地发展,因为咱们不错在整个技巧栈中进行立异。"
英伟达 CEO 发表这一果谏言论之际,恰巧好多东说念主质疑 AI 发展是否停滞之时。包括谷歌、OpenAI 和 Anthropic 在内的最初 AI 本质室王人使用英伟达的 AI 芯片来考研和运行其 AI 模子,而这些芯片的高出可能会滚动为 AI 模子才气的进一步升迁。
这并非黄仁勋初次示意英伟达正在卓越"摩尔定律"。早在客岁 11 月的一次播客节目中,黄仁勋就曾淡薄 AI 寰球正以"超摩尔定律"的速率发展。
黄仁勋还挑剔了" AI 发扬放缓"的不雅点。他合计,面前 AI 规模存在三大推广定律:预考研(pre-training)、后考研(post-training)和推理时贪图(test-time compute)。预考研阶段,AI 模子从海量数据中学习阵势;后考研阶段,通过东说念主类反应等设施微调模子;推理时贪图则让模子在回话每个问题后有更多时候"想考"。黄仁勋强调,跟着贪图才气的升迁,AI 推理资本将逐步镌汰,肖似于摩尔定律鼓舞贪图资本下跌的历史程度。
英伟达的 H100 芯片曾是科技公司考研 AI 模子的首选,但面前科技公司愈加心机推理,一些东说念主运行质疑英伟达不菲的芯片是否还能保合手最初地位。
面前,使用测试时贪图的 AI 模子运行资本答应。有东说念主记念 OpenAI 的 o3 模子(使用了范围化的测试时贪图)对大多数东说念主来说过于不菲。举例,OpenAI 使用 o3 在一项通用智能测试中达到东说念主类水平的分数,每项任务耗尽近 20 好意思元。而 ChatGPT Plus 的订阅用度为每月 20 好意思元。
在周一的主题演讲中,黄仁勋像举着盾牌相同展示了英伟达最新的数据中心超等芯片 GB200 NVL72。这款芯片在运行 AI 推理责任负载方面的速率比英伟达之前最畅销的芯片 H100 快 30 到 40 倍。黄仁勋暴露,这种性能的飞跃意味着像 OpenAI 的 o3 这么在推理阶段使用大王人贪图的 AI 推理模子,其资本将跟着时候的推移而镌汰。
黄仁勋暴露,他总体上专注于创造性能更强的芯片,而性能更强的芯片从永恒来看会带来更低的价钱。"无论是在性能一经资本承受才气方面,测试时贪图的平直惩办决议是提高咱们的贪图才气,"黄仁勋暴露。他指出,从永恒来看,AI 推理模子不错用于为 AI 模子的预考研和后考研创建更好的数据。
麻豆 女同在当年一年里,咱们如实看到了 AI 模子的价钱大幅下跌,部分原因是英伟达等硬件公司的贪图技巧温顺。黄仁勋暴露,他瞻望这种趋势将跟着 AI 推理模子的发展而不息下去。
黄仁勋宣称他今天的 AI 芯片比 10 年前的居品好 1000 倍。这是一个比"摩尔定律"设定的圭臬快得多的速率文爱 剧情,黄仁勋暴露他合计这种速率莫得住手的迹象。