马上注册,结交更多好友,享用更多功能,让你轻松玩转社区
您需要 登录 才可以下载或查看,没有账号?立即注册
×
引言 人工智能(AI)系统通过模仿人类认知过程来执行复杂任务,如学习和决策制定,已经改变了我们的世界。从个人助手到智能车辆和可穿戴器件,AI应用已在日常生活中无处不在。将AI与光电子集成线路结合,为创建高效能、低能耗的系统提供了令人振奋的机会,这些系统可以改变医疗监测、高速通信和计算等多个领域[1]。
1可穿戴光子技术与人工智能 可穿戴电子器件近年来发展迅速,将机械柔性与电子功能相结合。这些器件提供与传统刚性电子器件相同的功能,但形式更加舒适,增强了人机交互体验。
除了标准的可穿戴电子器件外,利用光通信路径的可穿戴光子技术为整个可穿戴系统提供了显著优势。这些优势包括超快数据传输和无电磁干扰的高可靠性。可穿戴电子器件和光子技术已影响了我们在电子皮肤、医疗监测、柔性显示器、软体机器人、假肢和人机交互等多个应用领域的生活方式。
在人工智能和先进无线网络时代,可穿戴电子器件和光子技术预计将实现无线互连。这使得超快数据交换成为现实,促进了关于人体、周围环境的实时通信,并支持交互和干预。
图1:可穿戴光子技术示例:(a)基于聚合物波导的触觉传感器阵列。(b)利用多模聚合物波导的高速数据传输。(c)硅基光电子线路。(d)波导集成光电探测器。
随着AI技术的进步,将可穿戴电子器件/光子技术与AI和快速通信集成使这些器件能够对收集的训练集进行比传统方法更复杂和更全面的分析。例如,2019年,研究人员展示了一种称为bodyNET的体域传感器网络,该网络结合了分布在身体各处的多个无芯片和无电池的可穿戴传感器。传感器信号通过无源射频识别技术无线传输到附着在纺织材料上的柔性硅线路。
然而,随着此类网络中传感器数量的增加,电磁干扰成为问题。为了解决这个问题,可穿戴光子技术提供了一个有希望的解决方案。使用光学传感通道,可穿戴光子传感器对电磁干扰具有免疫力,并且可以轻松实现千兆赫兹数据传输速率,从而实现实时监测和反馈。
在可穿戴光子技术领域,研究主要集中在基于聚合物的柔性光子技术上,因为其具有易于制造、高柔性和可拉伸性等优势。这些柔性光子技术主要应用于近红外和可见光范围。2014年,研究人员创建了一个直接响应压力的柔性触觉传感器阵列,使用了早期的聚合物波导,如图1所示。
2全息神经网络用于语音处理 自动元音识别(AVR)作为一个入门级AI问题,标志着向自动语音识别(ASR)发展的起点。虽然完整的ASR需要深度语义理解才能达到与人类相当的性能,但AVR被设计为一个入门级任务,需要泛化能力,但对上下文信息的依赖较少。
全息神经网络(HNN)采用自下而上的策略,从神经上合理的、低级别的分布式表示开始,然后构建高级认知概念。AVR需要最少的高级处理,使其成为HNN实现的理想起点。
在AVR任务中,不同个体发音不同的单词,通常遵循辅音-元音-辅音模式(如"had"和"heed")。主要目标是准确分类由未参与训练数据的说话者产生的元音。
传统上,ASR和AVR系统由用于特征提取和分类的独立组件组成。特征提取旨在减少数据维度同时保留相关信息。所使用的方法包括梅尔频率倒谱系数(MFCCs)、常数Q变换和小波变形。
对于分类,大多数AVR系统使用有监督训练。已经测试了各种AI和机器学习技术,包括隐马尔可夫模型、支持向量机和不同的人工神经网络。循环系统在AVR中的影响目前有限,可能是因为重复对AVR目标不是必需的,因为分类器即使没有重复也通常表现良好。
研究人员已经在两个数据集上进行了自动元音识别:北德克萨斯元音数据库和Hillenbrand元音数据集。HNN分类器的性能与现有的有效自动元音识别方法相当。在一个数据集上,最高准确率为74%,相比之下人类准确率为84%;而在另一个数据集上,达到84%的准确率,而人类准确率为95%。
3用于机器学习的光子张量核心 AI在人脸和语音识别、个性化推荐和医学图像分析等领域取得了显著成功。虽然人工神经网络最初是在20世纪50年代开发的,但它们的广泛应用仅在最近几十年才出现。
几年前,谷歌认识到AI的持续发展可能导致其数据中心能源消耗增加。为了解决这个问题,他们创建了张量处理单元(TPU),通过通用可编程性和对矩阵运算的强调来节省能源。
在传统的冯·诺依曼架构中,矩阵运算是顺序执行的。然而,像图形处理单元和张量处理单元这样的专用架构已被设计用于并行进行矩阵运算,尽管这些架构消耗大量能源。在光子平台上,通过光子张量核心可以高效地进行并行处理,延迟最小,在计算中实现比GPU高两到三个数量级的性能增益。
图2:光子张量核心(PTC)和点积引擎。(a)16点积引擎是一种执行两个向量之间乘法的器件。(b)点积引擎专门设计用于执行两个向量之间的乘法运算。
光子张量核心可以执行4×4矩阵乘法和累加,而无需额外的电光线路。相比之下,当在常规中央处理单元(CPU)上执行矩阵乘法时,操作在每个时钟周期顺序执行,导致复杂的计算算法。
集成光子技术通过使用光子张量核心执行大规模矩阵运算来解决这一挑战。与严重依赖门的数字电子不同,光子系统中的乘法、累加和一般线性代数运算可以利用光的电磁特性固有的并行性进行。主要优势是光子领域的矩阵运算可以以最小的静态功耗和低延迟执行。
光子张量核心使用16个称为点积引擎的单元,这些单元执行元素乘法并结合波长分割多路复用(WDM)技术,如图2(a)所示。点积引擎计算输入矩阵A的第i行与内核B的第j列之间的点积。输入矩阵的第i行由WDM信号组成,这些信号要么在光学领域,要么由高速调制器(如马赫-曾德尔调制器)调制。
内核矩阵的第j列通过精确配置其权重状态存储在光子存储器中,利用光-物质相互作用来利用基于相变材料的光子存储器。输入通过微环谐振器(MRR)适当过滤,以选择性提取特定频谱分量。这些过滤后的输入经历量化电吸收过程,产生元素乘法。加权输入通过光电探测器求和,执行多重累加计算操作。
4光学神经网络与深度学习 人工神经网络是模仿人脑功能的模型,其灵感来源于人脑的物理神经元系统。人工神经网络可以执行高度复杂的逻辑和非线性过程,并并行分配数据。这些能力使人工神经网络在AI领域中非常重要。
虽然人工神经网络在各种机器学习任务中取得了显著成功,但增加的计算需求导致工程师寻求更快且能耗更低的替代计算方法。光学神经网络是最有希望的方法之一,提供低能耗、高效率、低串扰以及大大增强计算速度的固有并行性。
光学和光子技术非常适合信息处理,因为具有优势特性:损耗最小、功耗低、带宽宽、传播速度快且无干扰。光子可以基于时间、偏振、动量和波长等因素合并,这解决了使用电子等效物时遇到的问题。
图3:由多层组成的深度神经网络(DNN)结构。
深度神经网络(DNN)由多个处理层组成,底部有输入层,顶部有输出层,中间至少有一个隐藏层,如图3所示。
DNN的输入和输出层包含预定数量的神经元或单元。输入层大小由输入DNN的数据量决定,而输出层大小由DNN设计执行的特定任务控制。
光子DNN的早期示例展示了元音识别,实现了与64位电子计算机相当的性能。为了在训练后完全实现DNN,每个网络层由用于执行线性矩阵乘法的光学干涉单元(OIU)和作为非线性激活函数的光学非线性单元(ONU)组成。
在一个实现中,线路使用90个人说出的四种不同元音音素进行了训练和测试。在输入到纳米光子DNN之前,元音音素在计算机上进行预处理,并转换为幅度编码光脉冲产生输出。
5未来展望与结论 光子微芯片,通常称为光电子集成线路,使用光作为基本元素执行所有操作。光子技术具有很大的发展潜力,但需要全面的科学研究才能有效地操纵光完成所有任务。光子微芯片提供卓越的速度和能效,使器件能够长时间运行,同时高效部分替代微电子芯片。
光学神经网络在工业中的实施代表了该领域即将突破的技术。目前正将研究方向转向神经形态和全光量子计算,以开发未来的AI系统。与电子技术相比,光学技术因其低功耗和延迟而表现出优势—这些特性对基于AI的系统至关重要。
虽然目前基于人工神经网络的光学线路无法与电子线路相媲美,但AI计算的未来可能在于利用纳米级光子线路。通过结合三维光学集成并引入额外的空间自由度,可以通过增加人工神经元数量并实现更复杂的神经网络来增强光学神经网络的设计。
此外,光子传感器具有识别生物神经元的能力。纳米制造技术的进步预计将显著有利于光学神经网络的未来。实质上,计算的未来围绕着提高光学集成神经网络的即时响应时间、能源使用和处理更大工作负载的能力。
参考文献 [1] M. Tiwari, G. Singh, and A. Saharia, Eds., Intelligent Photonics Systems: Technology and Applications, 1st ed. Boca Raton, FL, USA: CRC Press, 2025
|