近日,上海交通大学科研团队在新一代光计算芯片领域取得重大突破,成功研发出全球首款支持大规模语义媒体生成模型的全光计算芯片LightGen。相关研究成果于12月19日正式发表在国际顶级学术期刊《科学》(Science)上,为破解生成式AI面临的算力与能耗瓶颈开辟了全新路径。
随着深度神经网络和大规模生成模型的迅猛演进,AI对算力和能耗的需求呈指数级增长,传统电子芯片架构受物理特性限制,性能增长速度已难以跟上需求,形成严重缺口。在此背景下,光计算等新型架构因天然具备高速、并行的优势,成为突破这一瓶颈的重要探索方向。
“所谓光计算,通俗来讲就是让光在芯片中传播,通过光场变化完成计算,而非依赖电子在晶体管中运行。”论文作者、上海交大集成电路学院助理教授陈一彤解释道。尽管光计算优势显著,但将其应用于生成式AI却面临诸多难题:现有全光计算芯片多局限于小规模、分类类简单任务,若通过光电级联或复用适配复杂任务,又会严重削弱光计算的速度优势。因此,如何让光芯片高效运行复杂生成模型,成为全球智能计算领域的公认难题。
陈一彤课题组此次提出并实现的全光大规模语义生成芯片LightGen,成功攻克了这一核心难题。该芯片的关键突破在于,在单枚芯片上同时解决了“单片上百万级光学神经元集成”“全光维度转换”“不依赖真值的光学生成模型训练算法”三项领域内的关键瓶颈,首次实现了面向大规模生成任务的全光端到端计算。
严苛的实测数据印证了该芯片的性能飞跃:即便配备性能相对滞后的输入设备,LightGen芯片在完成生成任务时,算力和能效较当前顶尖数字芯片仍实现了2个数量级的提升,即运算速度快100倍、能耗仅为原来的1%。若搭配前沿光子输入系统,理论上可实现算力提升7个数量级、能效提升8个数量级的跨越式突破,相当于将传统芯片1万秒的运算耗时缩短至0.1秒。
功能层面,LightGen芯片已实现“输入—理解—语义操控—生成”的完整闭环,能够高效完成高分辨率(≥512×512)图像语义生成、3D场景重建(NeRF)、高清视频生成及语义调控等复杂任务,同时还支持去噪、局部与全局特征迁移等多项大规模生成式任务,生成质量可与Stable Diffusion等主流数字模型相媲美。
值得关注的是,该研究成果已被《科学》杂志选为高光论文重点报道。业内认为,LightGen芯片的问世,不仅打破了全光计算在大规模生成模型应用中的技术壁垒,更让光计算从“理论优势”走向“实用价值”,为新一代算力芯片助力前沿人工智能开辟了新路径。“这一成果也为探索更高速、更高能效的生成式智能计算提供了新的研究方向。”陈一彤表示。
【文中数据来源网络,观点仅供参考,不做投资依据!】
【免责声明】:凡注明文章来源为“长江有色金属网”的文章,均为长江有色金属网原创,版权归本网站所有,任何媒体、网站或个人未经本网站书面授权不得转载。凡本网注明来源:“XXX(非长江有色金属网)”的文章,均转载自网络,版权归原作者及其公司所有。本站已尽可能对作者和来源进行了标注,若有疏忽造成漏登,请及时与我们联系,我们将根据著作权人的要求,立即更正或删除有关内容。本网站所发布的文章目的在于传递更多信息,并不构成任何投资及应用建议。