者用的平台。
但黄仁勋顶住压力,强行推广CUDA。
他甚至跑到各大学计算机系,免费发支持CUDA的显卡,鼓励学生用CUDA做科研计算。
这是一个极度长远的阳谋。
随时间推移,越来越多程序员习惯用CUDA。
各种基于CUDA的科学计算库、深度学习框架开始在开源社区生长。
当2025年大模型时代爆发,全球科技公司都需要海量算力训练AI时,他们发现一个绝望的现实。
所有成熟AI算法,所有好用的深度学习框架,底层代码都是基于CUDA写的。
而CUDA,是英伟达的私有闭源技术。
它只支持英伟达自家显卡。
如果买一批AMD显卡,会发现根本无法运行主流AI算法,因为AMD硬件解析不了CUDA指令。
想在AMD显卡上跑通大模型,必须把整个软件生态从底层重写。
这个工作量,大到没有公司愿意承担。
这就是为什么,到了AI时代,所有人都只能捏着鼻子去抢购英伟达高价算力卡。
算力可以制造,但生态一旦形成,就是一道叹息之墙。
夏冬放下手机,揉了揉眉心。
他现在处境很矛盾。
如果批准吴泽明的迁移方案,盛夏科技算力危机立刻就能解决。
凭借CUDA的并行计算能力,快看网推荐算法效率至少提升数十倍,服务器压力彻底释放。
但这等于替英伟达测试他们还不成熟的早期生态。
盛夏科技作为国内目前数据量最大、算法最先进的互联网公司,一旦全面拥抱CUDA,在这个平台跑通所有推荐逻辑。
那就会形成路径依赖。
盛夏科技的程序员会越来越习惯调用CUDA函数库。
等几年后,陆奇和国内团队把盛夏科技自己的通用GPU流片成功。
夏冬总不能指望自家硬件去支持对手的私有协议。
到那时,盛夏科技自己开发的GPU,会面临完全没有软件可跑的尴尬。
要让手下这批习惯了CUDA的程序员,重新学一套新指令集,把快看网庞大的底层代码全部重写。
那将是一场灾难。
时间成本和试错成
(本章未完,请点击下一页继续阅读)