4月4日,NVIDIA不仅发布了强大的AI GPU,还在全球范围内引发了一波新的AI热潮,同时内部也在大规模应用AI技术,尤其是在GPU芯片设计流程方面。
NVIDIA的首席科学家Bill Dally在与谷歌首席科学家Jeff Dean的交流中提到,NVIDIA已经在芯片设计的各个阶段广泛应用AI,包括设计探索、标准单元库开发、bug处理和验证等环节。
尽管如此,他指出,完全依赖AI进行端到端的自动化设计仍然需要时间,关于何时能实现,他不愿做出预测。
Dally分享了一个AI芯片设计的实例。
过去,NVIDIA将标准单元库迁移到全新的工艺流程时,需要一个团队耗时10个月,工作量相当于80个人月。
现在,借助基于强化学习的工具NB-Cell,经过两到三代的迭代,只需一块GPU显卡运行一夜,就能完成相同的工作。
更重要的是,AI工具所生成的单元在面积、功耗和延时等方面,都达到了甚至超过了人工设计的标准,从而加速了新工艺的部署。
Dally还提到另一种内部工具Prefix RL,专注于长期以来的研究难题,即进位超前链中的超前级布局。
他表示,AI生成的布局是“人类工程师无法想象的”,而且在关键性能指标上比人工设计高出20-30%。
这表明,NVIDIA使用AI的目的不仅是提升效率和节省时间,更是为了探索超越人类直觉的设计方案。
在更广泛的层面上,Dally透露NVIDIA内部正在运作两款大型语言模型:ChIP Memos和bug Memo。
这些模型经过NVIDIA专有数据的微调,包括多年来GPU设计的寄存器传输级(RTL)代码和架构文档。
Dally表示,这些模型的实际好处之一是,初级工程师在遇到问题时可以直接向模型提问并获得答案,从而减少了向资深设计师请教的频率,后者得以专注于更高价值的工作。
此外,这些模型还可以帮助汇总bug报告,并将其分配给相应的模块或工程师。
值得注意的是,NVIDIA并未因为AI工具的效率提升而裁减初级员工,而是通过更高效的方式培养他们的成长。
与许多企业动不动就用AI替代员工的做法相比,这无疑是AI应用的更为平衡的方式。
