在人工智能神经网络迅猛发展的当下,大规模矩阵运算与频繁数据迭代让传统电子处理器面临巨大挑战。光电混合计算凭借光学处理与电学处理的协同集成,展现出强大的计算性能潜力,但实际应用中却遭遇诸多阻碍。训练与推理环节分离、离线权重更新等问题,导致信息熵劣化、计算精度下降,进而使得推理准确度不尽人意。
中国科学院半导体研究所科研团队取得重要突破。他们提出一种基于相位像素阵列的可编程光学处理单元(OPU),并运用李雅普诺夫稳定性理论,实现了对OPU的灵活编程。以此为基础,团队构建了端到端闭环光电混合计算架构(ECA)。该架构通过硬件—算法协同设计,达成训练与推理全流程闭环优化,有效补偿信息熵损失,成功打破光计算中计算精度与准确度之间的紧密耦合关系。
这一创新架构具备噪声自学习机制,可实现光学与电学参数联合优化以及自适应计算精度补偿。实验数据令人瞩目,采用4-bit的OPU时,在计算机视觉领域的经典任务——MNIST手写数字识别任务中,ECA的推理准确率达到90.8%,与8-bit传统计算架构(TCA)的理论极限90.9%极为接近。这充分证明,光计算系统即便在低硬件精度条件下,也能实现高精度推理,为高性能计算架构设计开辟了全新路径。
从性能参数来看,该OPU表现卓越,支持30.67GBaud/s的运算速率,具备981.3GOPS的计算能力以及3.97TOPS/mm²的计算密度。理论分析显示,该结构可进一步扩展至128×128规模,届时计算能力将提升至1005TOPS,计算密度达4.09TOPS/mm²,能效可达37.81fJ/MAC。如此优异的性能,使其在微波光子信号处理、光通信与神经形态人工智能等多个领域展现出广阔的应用前景。