|
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区
您需要 登录 才可以下载或查看,没有账号?立即注册
×
由ChatGPT掀起的AI技术浪潮加速大模型产业的演进,昆仑芯紧密关注新时代计算产业发展的必然趋势,加速AI芯片产业化,赋能大模型应用落地。
目前,昆仑芯围绕大模型打造了多层级的产品矩阵,可支持十亿、百亿及千亿以上模型,性能领先于业界主流GPU。
基于昆仑芯2代的AI加速卡R200,可支持1-10亿参数大模型;
基于UBB服务器基板卡,AI加速器组R480-X8支持搭载8个昆仑芯2代OAM模组,数据带宽大,适用于百亿参数规模的训推一体场景;
多个AI加速器组R480-X8可组成多机多卡的集群,提供更为强大的AI算力,更适用于千亿以上大规模训推场景。
针对大模型应用,昆仑芯提供了软硬一体的技术栈,包括昆仑芯XFT大模型推理加速库、框架层等。框架层具备数据标注、微调训练、模型评估、模型优化、编排集成等能力,可为大模型提供推理服务与精调服务。
昆仑芯已与飞桨PaddlePaddle完成III级适配认证,携手打磨大模型优化方案,通过分组切片、张量模型并行、数据并行、流水线并行等技术支持大模型高效训练。同时,昆仑芯也与主流AI处理器、操作系统、AI框架完成了端到端适配。昆仑芯关注眼下技术热点,也关注产业发展趋势。
大模型时代引起了新一轮产业范式变革。以往算法工程师会通过用不同的数据集训练专用模型,再应用于电力、石油、金融等不同的行业场景。未来,底层通用大模型将集成海量通用数据,通过加注少量行业知识、数据,即可形成行业大模型,扩散至不同场景。
随着AI技术发展,将涌现越来越多的大模型,对数据与AI算力的需求相应攀升。广义物联网(IOT)将为大模型提供海量数据,在AI算力的赋能下,大模型可对数据进行处理与升华,再指导末端物联网设备的行动,二者相辅相成,形成感知-认知-决策-行动的数据飞轮。
未来,昆仑芯将继续紧密关注AI技术前沿趋势,以成熟的芯片产品构筑大模型时代的强大算力底座,携手生态伙伴构建软硬一体的芯片生态,赋能大模型产业化落地。 |
|