光芯片算力超英伟达百倍! 算力赛道率先突围,但马拉松才刚起跑
最近,光芯片的新闻刷爆了科技圈。
上海交大陈一彤团队研发的“全光计算芯片LightGen”登上了《Science》主刊,在特定生成任务上,它的实测算力达到了英伟达A100的百倍水平,能耗节省99%,能效比直接拉升两个数量级。如果输入设备不再是瓶颈,理论算力甚至可以提升7个数量级、能效提升8个数量级。
这条新闻一出,很多人为之振奋。但在兴奋之余,我们也需要冷静下来好好想想:这到底是中国科技“弯道超车”的号角,还是被营销号放大的高光泡沫呢?
先看突破,这部分确实是真实的,必须承认。
这不是实验室里那种只能跑“0+1=1”的样品。能跑Stable Diffusion,能生成3D模型,能调整画面风格,这意味着全光计算已经从只能“识别猫狗”的基础阶段,跨进了能“执行复杂生成任务”的门槛。
以前的光芯片最多集成几千个神经元,而LightGen单芯片就集成了超过210万个光子神经元;以前光信号看不懂语义,现在通过光学浅空间能编码图像风格;以前训练需要标准答案,现在它能自主学习。
中国团队在全球率先完成了“生成式AI+全光计算”的路线验证。这叫抢跑,不是追赶。单说这件事本身,就值得起立鼓掌。
但突破的边界,同样需要被清晰地看见。
光芯片的“快100倍”,是有条件的快。
光子天生擅长矩阵乘法这类并行运算,光一照,结果就能出来。上海交大这款芯片的核心突破,正是把这种物理优势与生成式AI的算力需求精准对齐。但换个任务,比如让这颗芯片跑一遍Windows系统,或者训练一次GPT——它目前做不到。
这不是设计缺陷,是物理原理决定的边界。模拟计算本来就擅长特定运算,不擅长通用逻辑。
“不需要光刻机”是另一个需要拆解的说法。
光子芯片确实不需要5纳米的EUV光刻机,但它离不开几百纳米级别的传统光刻工艺。像波导、调制器、探测器这些核心器件,都不是手工能做出来的,每一层都要在洁净间里经过曝光、显影、刻蚀等复杂工序。更重要的是,光芯片无法独立工作。激光器需要电来驱动,计算结果需要探测器转回电信号,控制逻辑也依然要依赖传统半导体。
光芯片能提升算力,却离不开传统半导体的配套支持。
而光芯片要真正落地,还有两道难啃的硬骨头。
第一点,是精度。
数字芯片靠的是0和1的数字信号,信号能完整还原,1+1绝对等于2。但光芯片是模拟信号,光在波导里传输会有损耗,会受温度变化的影响,会有散粒噪声。哪怕光的强度只变化0.1%,计算结果可能就从1.00变成0.99。
在图像识别里,0.99可能没什么影响。但在大模型训练的亿万次迭代中,0.01的误差会被逐层放大,最终导致梯度消失或爆炸。
这不是中国团队的问题。美国的Lightmatter、全球顶尖实验室,都在跟同一个物理难题较劲。
第二点,是生态。
英伟达的核心优势从来不是A100芯片本身,而是它身后几千万行代码、几万个应用、几十年积累的CUDA生态。全世界的AI开发者都在这套逻辑上写程序。
光子芯片的计算范式完全不同。想用它,意味着把这座软件大厦推倒重来。谁来写编译器?谁来做驱动?谁来建立开发者社区?这些问题,比研发硬件本身,更需要漫长的时间和投入。
所以,我们该怎么看光芯片呢?
我想,可以总结为两句话。
第一,这是一次真实的高光突破。我们在下一代计算赛道最前沿的位置,做出了别人还没做到的成绩,这值得我们骄傲。
第二,这也是一场漫长的马拉松。从实验室原型到工厂量产,中间要跨过工程化的难关;从量产到好用,要解决良率、封测的问题;从硬件到生态,更是隔着开发者信任的鸿沟。
中国科技不需要捧杀,也不需要妄自菲薄。我们需要的,是承认突破,也正视差距;尊重科研的节奏,也理解工程化的严苛。
光芯片确实照亮了后摩尔时代的一条新路。但它不是明天就能装进手机、后天就能替代GPU的万能钥匙。
真正的科技自信,不是喊口号喊出来的,是把千分之一毫米的精度一点点打磨好,是把实验室里的技术成果,慢慢用到工厂、用到生产线里。
路确实还很长,但我们至少已经出发了。
用数据穿透商业本质,用系统思维破解经营难题。
这里是易番番,一个只服务工业品贸易企业的ERP系统。