
当前,计算处理器技术正面临物理极限的挑战,硬件扩展能力的受限可能成为实现通用人工智能及超级智能的主要瓶颈。研究科学家兼大学助理教授Tim Dettmers在其近期发布的博客中指出,尽管关于通用人工智能的讨论多集中于哲学或理论层面,但其实际发展终究依赖于运算能力的持续提升。然而,现有硬件的性能拓展空间已极为有限,预计仅剩一至两年的窗口期,此后进一步的性能增强将因物理限制而难以实现。
Dettmers提到,自2018年起,图形处理器的性能增长已明显放缓。虽然业界通过采用低精度数据处理和张量核心优化等手段延续进步,但这些技术的实际增益远低于宣传效果,并未能从根本上突破算力瓶颈。
尽管单个处理器的升级潜力接近枯竭,他仍认为,通过系统级的硬件整合与架构创新,仍有机会在短期内显著提升整体计算效能。例如,最新的GB200 NVL72系统通过将加速器数量从8个扩展至72个,实现了推理性能约30倍的提升,展示了规模化集成在弥补单芯片性能停滞方面的潜力。这一路径或将成为未来数年内推动人工智能持续发展的关键策略。