
针对这一挑战,清华大学自动化系与电子工程系的研究团队联合攻关,提出了一种突破传统限制的计算架构——光电模拟芯片。该芯片实现了超越当前高性能商业芯片3000倍的算力。相关成果以《高速视觉任务中的纯模拟光电芯片》为题发表在《自然》期刊。如果将芯片信息处理速度比作交通运输速度,这款芯片相当于将原本需8小时的京广高铁运行时间压缩到8秒。
2023年诺贝尔物理学奖授予了推动阿秒激光技术发展的科研成果,光速作为宇宙中已知的最快速度,为超高速物理研究奠定了基础。然而,将光作为计算媒介面临诸多难题。与电子计算不同,光计算需要利用光波传播中的信息进行处理。尽管国内外研究团队提出多种设计方案,但要实现大规模集成、误差抑制、高效非线性处理及与电子信号的高效接口,依然存在多项国际技术瓶颈。
清华团队创新地构建了光电深度融合的计算框架,结合电磁波空间传播和基于基尔霍夫定律的模拟电子计算,突破传统芯片在数据转换速度、精度与功耗之间的瓶颈,成功解决了大规模计算单元集成、非线性处理及光电接口高速高效等三大关键难题。
实测数据显示,该光电融合芯片的整体算力较现有的高性能电子芯片提升数千倍。在智能视觉和交通场景计算任务中,芯片的能效达到74.8 Peta-OPS/W,相当于现有芯片能效的400万倍旋乐吧spin8。换言之,供现有芯片运行一小时的电量,能驱动该芯片持续运作500多年。
芯片设计采用光学部分百纳米级线宽工艺和180nm CMOS电路工艺,性能远超7纳米制程芯片,同时制造成本仅为其几十分之一。超低功耗设计显著缓解了高密度集成带来的散热难题,为下一代芯片设计提供了突破口。
这款光电融合芯片不仅在性能上实现飞跃,也为未来量子计算和存内计算等高性能技术与传统电子系统融合提供了重要启示。研究团队表示,构建适合人工智能时代的新型计算架构是科学研究的重要高峰,而将这类技术应用于实际生活,满足国家和社会的需求,是关键任务。