数据结构论坛

注册

 

发新话题 回复该主题

用AI芯片设计出更好的AI芯片 [复制链接]

1#

芯片设计既是一项工程壮举,也堪称一门艺术。逻辑和内存块的一切可能布局、连通每个元件的导线,共同构成了几乎无穷无尽的规划组合。而且信不信由你,芯片设计领域最出色的工程师们,都是在凭着经验和直觉在工作。没错,他们自己也说不清楚为什么某种模式有效,而其他模式却无效。

因此,芯片设计就成了一种高风险工作。研究人员一直努力把人类的推断猜测从其中剔除出去,真正朝着高度优化的方向迈进。即使如今我们已经转向小芯片设计时代,这个目标也仍然存在,毕竟计算引擎上的所有小芯片也都需要互连才能构成虚拟意义上的单体芯片,同时认真考虑整个电路综合体的延迟和功耗水平。

话说到这里,用AI技术协助设计芯片就成了最合乎逻辑的方案。几年之前,我们就曾经跟谷歌工程师聊过这个问题,这家云巨头也从来没有放弃探索。今年3月,谷歌研究院的科学家们发布了PRIME。这是一种深度学习方法,能够利用现有数据(例如蓝图、功率/延迟等指标)建立起比传统工具成果更快、体积更小的芯片设计。

他们在报告中写道,“要利用先前积累的加速器数据库实现硬件设计,最简单的方法也许就是使用监督机器学习来训练预测模型,让该模型以给定的加速器性能目标为输入,之后不断优化学习模型的性能输出,最终找到符合设计要求的加速器布局方案。”

一年前,谷歌开始使用强化学习(RL)技术设计自己的TPUAI加速器布局。而且除谷歌之外,Synopsys和Cadence等芯片设计工具开发商,也开始在自家产品组合中引入AI技术。

如今,英伟达推出一种新方法。根据三位深度学习科学家的解释,“使用AI设计出更小、更快、更高效的电路,以在每一代芯片中提供更高性能。庞大的算术电路阵列为英伟达GPU提供动力,从而让AI、高性能计算和计算机图形获得了前所未有的加速支持。因此,对这些算术电路的设计改进,将在GPU性能与效率的提升之路上发挥至关重要的作用。”

于是,英伟达选择了自己的强化学习测试方式,名为PrefixRL,并表示该技术证明AI不仅有能力从零开始学习电路设计,而且最终成果要比最新EDA工具的设计方案更小、更快。英伟达的“Hopper”GPU架构已经于今年3月推出,让该公司进一步扩大对AI、机器学习和神经网络的广泛

分享 转发
TOP
发新话题 回复该主题