英伟达的 Thor 最让我感到惊讶的倒不是 2000 Tops 和所谓的驾舱一体,而是在 CPU 和 GPU 之外,做了一个独立的 Hopper,一个专门用于处理 Transformer 模型的引擎,可以将 Transformer 的计算效率提高 9 倍。

这个一方面说明 Transformer 模型在当今机器学习领域的统治级影响力,但另一方面吧…

Jim Keller 之前说,说做自动驾驶计算平台最大的挑战,就是机器学习算法迭代的速度过快,即使软件工程和机器学习团队很早就介入到芯片的研发中,芯片设计仍然存在巨大的挑战,跟不上或者无法满足后续算法的迭代。

Thor 2025 年才投产,英伟达笃定 Transformer 模型会继续在 2025 年后的数年里继续保持这么大影响力?