Aw4Qm2Kf Cs^o- g!L [dk|lkj@u\ 进入2023年,各大科技巨头纷纷布局AI大模型,推动AI大模型从自然语言处理、计算机视觉、语音识别等领域,不断扩展到了
芯片设计、生物医药、智能制造等领域。这些应用案例的不断涌现,说明AI大模型具有广泛的应用前景和潜力,也展示了人工智能
技术的不断深化和发展。
y@~.b^?_u 图源:英伟达官网
KFAB zO2<Igb UldK lQ8 最近,英伟达发布了大语言模型ChipNeMo,这是一个专注于辅助芯片设计的AI模型。ChipNeMo拥有430亿参数,通过领域自适应技术进行优化,以减小模型大小并提升性能。它支持问答、EDA脚本生成、Bug总结和分析等任务,从而帮助芯片设计师更有效地完成他们的工作。
kC01s 实际上,包括英伟达在内的诸多科技企业或研发机构很早就在尝试利用AI来设计芯片。今年6月,纽约大学Tandon工程学院的研究人员就通过GPT-4造出了一个芯片。研究人员利用GPT-4仅用19轮对话,就造出了130nm芯片,并通过了Skywater 130nm穿梭机的流片测试。
5`^"<wNI 未来,随着AI大模型的处理能力、计算效率和精度等不断提高,未来AI大模型不仅会在芯片设计领域得到广泛应用,而且将进一步助推人工智能进入深化发展阶段。
V3yO_Iqa oMLpl3pl AI参与芯片设计成为可能 &'WgBjP iFF/[P YxS*im[%] 如今,用AI参与芯片设计已经成为越来越多科技企业或机构重点探索的方向。但实际上,早在十多年前,机器
学习已应用于 SPICE 仿真器的蒙特卡洛仿真,从而节省了
电路设计人员的时间和精力。发展到现在,AI技术与芯片设计的研究同步深入,特别是两者的结合,让AI来设计芯片成为了可能。
/#
0@C[9 2023年,ChatGPT突然爆火,让英伟达乘上AI时代的风口。而英伟达的崛起,也是得益于其十多年前的布局。
To}L%) GPU算力提升是AI得以实现的基础,而AI领域的算法进步也让GPU算力提升成为可能。据悉,2012年,英伟达就发布了名叫开普勒(Kepler)的GPU架构。从2012年的“开普勒”芯片到2020年的安培(Ampere)架构,GPU的芯片性能在8年里提升了317倍。除了
半导体制造工艺的进步,这还归功于英伟达不断优化芯片架构。
/p<mD-:.M 2022年4月,英伟达首席科学家Bill Dall公开了内部的重点研究与工作项目,提到其目标是利用人工智能来改进自己的产品,比如在其GPU产品设计工作中,大量采用人工智能辅助,来加速以及最佳化GPU芯片的设计,相关设计甚至涉及供电
模拟设计、从电路到GPU规模的大型积体电路设计、架构网络以及储存系统管理等。
IhM-a
Y
y5 同时,英伟达依托人工智能芯片设计工具,可以根据标准的处理单元布局来自动产生芯片的设计图,也可以用来检验人类员工设计出来的芯片布局中有无错误。据Bill Dally当时的说法,这套工具只需要在配备两个GPU的平台上,短短几天的时间,就可以超过一组十人员工一年的工作份量。
MG8-1M 今年3月,英伟达也推出了四款推理平台。这些平台针对各种快速兴起的生成式AI应用进行优化,能够帮助开发人员快速构建用于提供新服务和洞察的 AI
驱动的专业应用。这些平台可以将NVIDIA全栈推理软件与最新的 NVIDIA Ada、Hopper 和 Grace Hopper 处理器相结合,针对AI视频、图像生成、大型语言模型部署、推荐系统推理等需求激增的工作负载进行优化。
代码生成器将帮助设计者编写芯片设计软件。来源:英伟达
I}n"6'* 最近,英伟达又推出最新430亿参数大语言模型——ChipNeMo。ChipNeMo可以通过问答服务,工程师可以快速获取关于GPU架构和设计的详细信息,而无需在海量的文档中查找;通过DEA脚本生成,工程师可以根据设计需求快速生成代码片段,大大提高代码生成的效率;通过Bug总结和分析,工程师可以快速找到并解决问题,从而提高设计的效率和准确性。
ksu:RJ- 随着ChipNeMo大语言模型的问世,所有的芯片设计工作流程都将在效率上得以提升。对此,Bill Dally表示,“这项工作标志着将大语言模型应用于半导体设计的复杂工作的重要第一步。它展示了即使是高度专业化的领域,也可以使用其内部数据来训练有用的生成式AI模型。”
xW/JItF 当然,除了英伟达之外,微软、谷歌、ARM、Cadence和Synopsys等公司和机构都在利用AI技术进行芯片设计,以提高芯片设计的效率和精度。
36J)O-Ti 例如,谷歌利用AI技术设计出了专门针对图像和视频处理的张量处理单元(TPU)芯片,该芯片在谷歌云平台上的TensorFlow框架中使用,为机器学习任务提供了高性能的计算支持。
twf;{lZ( 此外,微软研究院也利用AI技术设计出了一种基于Transformer模型的神经芯片,该芯片可以并行处理多个计算任务,提高芯片的计算效率和能效。
4d!&.Qo9 J-Sf9^G 为何要用AI设计芯片? 5w}xjOYIjV bCd! ap+# tDy1Gh/c 近几年,一方面人工智能应用的快速增长得益于计算机系统和硬件的显著进步,另一方面算法迭代的需求大幅增长,加上摩尔定律趋缓,业界需要新的硬件架构来满足指数级增长的算力需求。一般而言,芯片通常需要较长的时间来设计,同时也不得不预测和考量未来数年里的芯片性能新需求。在如今人工智能加速发展的大背景下,大幅缩短芯片设计周期,以使硬件更好地适应人工智能的快速发展,已经成为一个现实的需求。
BAzc'x&< 为此,很多科技企业都在探索新的技术解决方案,特别是利用AI技术参与到芯片设计中。早在几年前,谷歌技术团队就在利用AI设计芯片上作了相关的探索,通过一种深度强化学习方法,让AI完成芯片布局设计。目前,微软、英伟达、苹果、华为等科技巨头均已布局AI设计芯片领域。
3i>$g3G 近年来,随着人工智能算法的不断迭代和细化,过去单纯依赖GPU(图形处理器)、通用芯片的硬件基础已经不能满足算法进一步迭代的需求,促使科技企业纷纷开始利用AI设计芯片。
[<wy@W 当然,除了产业和市场的客观需求,AI设计芯片所带来的性能和成本效益也很可观。据悉,在不到6小时的时间内,谷歌研究人员利用“基于深度强化学习的芯片布局规划方法”生成芯片平面图,且所有关键指标(包括功耗、性能和芯片面积等参数)都优于或与人类专家的设计图效果相当。而人类工程师往往需要数月的努力才能达到如此效果。
QHP^1W` 因此,利用AI设计芯片带来的优势和成本效益主要体现在以下几个方面:
aFIet55o 一是提高设计效率:传统芯片设计流程需要大量的人工参与,设计效率低且容易出错。使用AI技术可以将设计流程自动化,减少人工干预,提高设计效率。
lCd^|E 二是优化芯片性能:AI技术可以通过对大量数据的分析和学习,找到最优的芯片设计方案,在很短的时间内设计出高性能、低功耗的芯片。
tSYeZ~ 三是降低制造成本:通过AI技术,可以优化芯片的制造过程,减少制造过程中的浪费和成本。
+=\S "e[F 四是加速产品上市:使用AI技术可以缩短芯片设计周期,加速产品的上市时间。
5:iril 五是应对市场变化:AI技术可以实时监测市场变化,根据市场需求调整芯片设计方案,满足不同客户的需求。
qpp:h_E 五是提高芯片的可靠性:AI技术可以对芯片进行更精细的设计和优化,提高芯片的稳定性和可靠性。
ot_jG) 毫无疑问,利用AI设计芯片带来的诸多优势可以帮助科技企业在激烈的市场竞争中获得更大的主动权。
qaw5< 据悉,中国的一些科研机构和AI芯片设计企业正在利用AI技术对芯片设计进行自动化处理。例如,今年6月,中科院计算所等机构用AI技术设计出了世界上首个无人工干预、全自动生成的CPU芯片——启蒙1号。这颗CPU采用65nm工艺,频率达到300MHz,并可运行Linux操作系统,性能与Intel 80486SX相当,设计周期则缩短至1/1000。
pNVao{::5 HeSnj-mtr} AI设计芯片的发展前景 p&