台积电押注非正统光学技术
在通往全光人工智能数据中心的竞赛中,一家主要企业已经将赌注押在了另一匹马身上。半导体制造巨头台湾积体电路制造股份有限公司(台积电)宣布,将与桑尼维尔初创公司 Avicena 合作生产基于微型 LED 的互连器件。这项技术是用光连接取代电连接的务实创新,旨在以低成本、高能效的方式满足越来越多 GPU 之间的通信需求。
由于大型语言模型及其同类产品的计算需求,人工智能集群在数据量、带宽、延迟和速度方面正面临着前所未有的要求。迟早有一天,连接单个人工智能数据中心机架内处理器和内存的铜线将被光学器件取代。“台积电副总裁 Lucas Tsai 说:”我们正在大力推动光连接尽可能靠近电路板。
Avicena 提供了一种独特的方法,即通过成像型光纤连接数百个蓝色 microLED 来传输数据。该公司的模块化 LightBundle 平台避免了激光器及其相关复杂性带来的问题,这些问题威胁着其他光学芯片的可靠性、成本和功耗。Tsai 说,“这非常非正统”。但它是这些短距离应用的理想选择,这正是它的有趣之处。
无激光
如今,光连接能以极高的数据传输速率在数据中心内传输数十米至数百米的大量数据。传统上,可插拔模块将光纤连接到机架,并在机架上进行电信号和光信号的转换。公司正在利用共封装光学器件(CPO)逐步淘汰这些能耗低的可插拔收发器,转而在硅芯片附近进行电光转换。网络交换机已经有了商用版本,而 GPU 的原型也在大踏步前进。最著名的光学芯片设计利用激光器和调制器将电子比特编码到多个波长的光上。
然而,基于激光的光互联面临的主要挑战是激光本身。在可靠性、制造和成本方面,激光器和光纤附件是最大的问题。此外,以多个波长形式承载数十个 GPU 到交换机链接的单根光纤还存在计算开销问题: 将每条数据通道连接到一个单独的物理通道,远比随后对一个大通道进行电子解析要简单得多。
这正是 Avicena 的优势所在。LightBundle互联系统并不是将多波长激光器送入光纤,然后再将其解析为单独的通道,而是通过多芯成像光纤将数百个蓝色微型LED连接到光电探测器阵列,每10千兆比特/秒的数据通道连接一个光电探测器阵列。发射器就像一个微型显示屏,而探测器就像一个摄像头。“Avicena 首席执行官 Bardia Pezeshki 说:”我们正在进行光互连,而没有激光的复杂性。
一条简单的光链路仅有 300 个像素,每通道 10 Gb/s 的传输速率可延伸 10 米距离,每秒净传输 3 TB。由于显示器和照相机的像素可达数百万,因此与铜线相比,该技术能以更低的能耗和更高的密度实现更高的数据传输速率。
成熟的产业
Avicena 宣扬的一个主要优势是,他们的技术可以利用 LED、摄像头和显示器:所有这些都是成熟的行业。“Pezeshki说:”与开发新的构件相比,我们可以更快地将我们的方法扩展到所需的数量和成本。尽管硅光子技术在光互连方面已经领先了 30 年,但他们还必须开发环形谐振器和梳状激光器等新元件。“他说:”这些东西需要很多时间才能成熟。相比之下,LightBundle 互连设计只需要对现有的摄像头和显示器技术稍作改动。
这也是台积电签约为 Avicena 的光学芯片生产光电探测器阵列的一个主要原因。“Tsai说:”LED已经是一个成熟的产业,有很多消费类产品。当然,LED 的功率比激光低,但对于机架内和机架间 10 米的距离来说,这已经足够了。“Tsai说:”它有可能会便宜很多,而且从本质上讲,你有很多冗余。
Pezeshki 认为,Avicena 的成果已经 “超越 ”了硅光子技术的能力。LightBundle 原型已经展示了整个链路每比特低于微焦耳的能耗,而其他光学方法 “正在努力展示 ”每比特 5 pJ 的能耗。
Pezeshki 承认,Avicena 在打造和扩展产品方面还有很长的路要走。但是,他说:”显示出巨大的成果,再加上使用成熟的构建模块,Avicena 正在赢得改装者的青睐。
你也许感兴趣的:
- RockyLinux 在 RL10 中正式支持 RISC-V!
- 英伟达技术的曙光
- felix86:在 RISC-V Linux 上运行 x86-64 程序
- 30年前的预言成真:RISC架构将改变一切
- 【外评】在 RiSC-V 上运行《巫师 3》游戏
- 【外评】英特尔称第 13 代和第 14 代移动 CPU 正在崩溃
- 【外评】英特尔酷睿 i9 CPU 死机问题看起来比我们想象的还要严重
- 【外评】Linus Torvalds 称 RISC-V 将重蹈 Arm 和 x86 的覆辙
- 谷歌扶持鸿蒙上位?
- 【外评】安卓系统的 RISC-V 支持遭遇重大挫折
这篇文章的细节非常少,而且混淆了很多东西。它将微型激光器与传统的波分复用光纤传输系统(采用边缘发射 DFB 激光器和 ECL)进行了比较,但在数据中心互联中已经有大量的光链路,它们使用的是 VCSEL(垂直腔表面发射激光器),这种激光器的制造成本要低得多。人们还将这些激光器放入阵列,并与多芯光纤耦合。这里的困难几乎都在于封装,即激光器的耦合。我不知道为什么微型激光器会更好。
此外,用 LED 传输 10 Gb/s 的速度似乎也很有难度。非相干led 的带宽很大,所以他们是在做大量的 DSP(既费钱又费力,还会带来延迟),还是在把自己限制在很短(10 几米)的链路上?
在数据中心,人们在较长距离(10 米至 2 公里)内使用光纤。在机架内,几乎总是使用铜缆。原因是激光器对于短距离来说太昂贵、不可靠,而且耗电量太大。我们认为,基于微型 LED 的链路可能会在短距离(10 米以下)内取代铜缆。与基于标准单模激光的光学器件相比,将微型 LED 装入相对较粗的光纤芯(50 微米)更易于封装。
关于距离–完全正确。目前,人工智能集群的真正瓶颈是机架内或 10 米以下的互连。这就是我们要解决的市场问题。
关于第二点–完全正确!人们通常认为 LED 速度慢、性能差。这才是真正的创新。在 Avicena,我们已经知道如何让 LED 以 10Gb/s 的速度闪烁。这确实令人惊讶和惊叹!因此,只需简单的开关调制,就无需使用 DSP 或多余的能源。文章称,台积电正在开发基于其摄像头工艺的探测器阵列,也能以 10Gb/s 的速度接收信号。事实证明,这对于像素较少(约 1000 个)的相机来说非常容易。我们使用的是硅容易吸收的蓝光。另外,欢迎随时联系 Avicena,我们很乐意回答您的问题。
那么 Gb/s 现在有新的含义了吗?每秒十亿次眨眼?
那么,toslink?
这篇文章是关于芯片互连的。比如用光通信取代 PCIe、NVLink 或 HBM/DDR RAM 总线。
文章提到的长度最长为 10 米,因此这种技术仅限于机柜内部或位置较近的机柜之间的链接。
与铜缆链路或传统的激光光链路相比,该技术的优势在于总吞吐量非常高,而且每比特的能量更低。
在更远的距离上,激光是其他任何技术都无法替代的。
我猜他们正在为每个链路进行直接调制 IMDD,因此 DSP 负担与二极管的相干性无关?此外,文章中的距离确实很短。
二极管和成像光纤的问题都在于模态色散非常大,仅传播几米就会完全破坏信号。因此,除非使用 MMSE(我认为成本太高),否则真的只能传播几米。IMDD 在这里并没有真正的作用。
我认为这是为短距离(如几厘米)设计的。CPU 到 GPU 和网卡到网卡仍将使用激光,问题是能否使用光学器件实现内核到内核或 CPU 到内存的传输。
那他们为什么要讨论多核光纤?我还以为是光纤带呢。不过你可能是对的。
> 我还以为是光纤带。
电缆只是 2D 并行光纤总线。有了这样一束光缆,你就可以用一个漂亮、厚实的 PVC(或其他材料)护套将其包裹起来,并使用一个与二维平面微led 阵列物理方案相匹配的小型方形连接器。
通过高速、低成本的微led 阵列,这是一种简单粗暴的方法。我认为这很酷。
不过,带状概念也适用于印刷电路板。
你可能是对的,他们说的是光纤束,但这与多核光纤不同(而且要大得多,这可能会造成重大问题,特别是如果我们讨论的是厘米链路)。没有解决的问题是,发光二极管在空间上很不连贯,光束发散性很强,因此它们必须使用非常大的光纤,仅通过一个连接器进行耦合可能并不容易,尤其是如果我们想避免串扰的话。
我想说的是,与 vcsel 阵列相比,我看不到任何优势。我不认为价格有什么不同。
> 你可能是对的,他们说的是光纤捆绑。
电缆和连接器的图片说明如下: “带有微型 LED 的 CMOS ASIC 通过蓝光向光纤束发送数据”。所以是的,光纤束。
> 与 vcsel 阵列相比,我看不出有任何优势
他们声称有以下优势:
所有这些至少都通过了嗅觉测试。与激光相比,发光二极管确实相当高效。他们提到,与激光光学系统相比,该系统具有 “pJ/bit ”数量级的优势。当你试图用核反应堆重启来运行庞大的人工智能集群时,省电是件好事。该系统采用并行 “导体 ”设计,很可能采用高速并行 CMOS 锁存,因此 “计算开销 ”的说法是有道理的:你要做的只是将比特锁存到 PCB 线路或集成电路引脚,因此所有 SerDes 和多路复用的成本都不复存在。他们声称可以很容易地扩展到更多像素/线条。当然,我认为:低功耗更容易做到这一点。
就是这样。非常简单。
我认为这在数据中心之外也有用武之地。对于消费者来说,铜缆传输线是一个真正的问题。光纤可以解决此类使用情况下的信号完整性问题,然而–尽管有几个著名的应用案例(Thunderbolt、Firewire)–成本问题始终阻碍着它在利基、专业或高端应用之外的广泛应用。也许基于 LED 的光学技术能使光纤在此类应用中的成本与铜缆相比更具竞争力:我们可以想象,一个非常小巧、非常低功耗、基于微型 LED 的收发器的成本仅略高于这样一根电缆两端的 USB 连接器,而电缆上可能有 4-8 根并行光纤。这里只是随便说说
他们不是还声称这样更可靠吗?我听说激光可靠性是 CPO 的一个障碍。
考虑到这是 CPO 的替代方案,我想这是用于背板和几米长的连接,而不是同一印刷电路板上的组件。
> 他们不是还声称这种方法更可靠吗?
的确如此。我忽略了这一点。
我对微型 LED 阵列及其可靠性知之甚少,所以我不会猜测这种说法的可信度: LED 的可靠性有很多因素。所涉及的电缆可能不如传统激光光纤可靠,因为必须精确组装的光纤数量要大得多。而且还可能更加脆弱。
现场制造或维修这种电缆可能并不可行。
据我所知,CPO 对可靠性的关注主要集中在激光驱动器上。如果一个芯片出现故障,更换整个芯片的成本是非常昂贵的。即使电缆是一个问题(我不知道),考虑到更换电缆的成本和简便程度(当然,在一定程度上),可靠性更高的驱动器仍然比可靠性较低的电缆要好。
> 我知道 CPO 对可靠性的关注主要是针对激光驱动器。
是的,我更换过很多坏掉的收发器,我怀疑激光驱动器是大多数收发器的故障模式。
但这并不能填补我的空白:高速、高密度微型 LED 的可靠性如何?
它们会比线性驱动光学器件(更明显的替代方案)更好吗?
LDO 只是一种集成。它当然有价值:集成几乎总是有价值的。因此,它显然是对传统串行光通信的明显优化。
台积电采用并行非相干光学的新技术则完全不同。没有 DSP。没有 SerDes。苹果和橘子。
好吧,但我只是想解决我与其他芯片通信时遇到的问题。我不介意什么是创新,什么是优化。无论采用哪种技术,与过去 20 年在这一领域基本上只采用铜和普通锯齿相比,都是一个进步。
我不确定其中有多少是台积电的工作,标题有误导性。
编辑:实际上,他们正在从事探测器方面的工作。
我们使用的是用于照明应用的硼硅酸盐纤维。例如,你可能在显微镜灯中看到过一束纤维。与单模光纤相比,它们的坚固程度令人难以置信。请注意图片中非常小的弯曲角度–弯曲半径为 3 毫米。想象一下单模光纤的弯曲半径!
> 它们的坚固程度令人难以置信
请参阅我对非数据中心应用的其他评论。在解决当代高带宽外围设备的信号完整性问题方面,存在着巨大的商机。铜质 USB 等都不好用,急需更好的媒介。
我们使用的光纤电缆基本上是由 50um 厚的光纤组成的二维阵列,与 LED 和探测器阵列相匹配。我们制作了连接器,并证明光纤之间的串扰非常低。与 VCSEL 相比,我们的优势在于总体功耗更低、成本更低(发光二极管非常便宜,而且产量极高),因为我们使用的是蓝光,所以探测器阵列更容易使用,而且可以改进相机技术,最重要的是,可靠性更高。VCSEL 的可靠性差是出了名的。
文章中的简短链接
啊,我没注意到这里提到的 10 米。不过我不确定这是否更有意义。典型的数据中心内连接为 10s-100s 米,使用的是 VCSEL,那么引入 microleds 仅仅是为了非常短的链路,而不是仅仅并行化 VCSEL 连接(这已经在做了)?如果它们能真正取代 VCSEL,我就会明白其中的意义了。
一直以来,即使是机架内也在努力尽快向光纤发展,因为铜缆越来越复杂,成本越来越高,无法更快地扩展。如果我们有一个相对经济实惠的短距离光学系统,而且不需要繁重的计算工作,这听起来就像是天赐良机,就像是在降低昂贵的布线成本的同时提高每焦耳比特数的方法。
当然,现在的光学系统可能会使用昂贵的长距离光学系统!但用这种框架来评估新技术及其可能带来的帮助可能是愚蠢的。
与此相关的一点是:在量子计算领域,光学互连和集成光学技术的发展相对较快。也许这篇文章能让我们了解未来可能发生的事情。
在量子计算中,我们不得不使用激光。基本上,我们无法用 LED 发出的经典光来传输量子信息: LED 发出的是可能的光子数分布,而不是单个光子,因此在量子层面上失去了控制)。此外,我们通常还需要激光的窄线宽,这样才能以我们希望的方式与原子相互作用。也就是说,不会激发出不必要的原子能级。因此,你会看到在陷落离子量子计算中,人们为了实现激光光学的集成而煞费苦心,通过我并不完全理解的花哨工程,如芯片内的衍射光栅,将光线衍射到离子上。如果你想制造拥有几十个以上离子的捕获离子量子计算机,这绝对是一个需要克服的关键挑战。
通过光互连将多台计算机联网也是一种选择,但同样困难重重。
那么,我从这篇 IEEE 文章中得到了什么启示呢?我认为,如果这种使用发光二极管的方法适用于这一应用案例,那么我就会承认激光集成光学技术的部分失败。毕竟,这篇文章声称集成激光器过于困难。然后,我希望看到量子计算在克服这一问题上做出巨大的努力。现阶段仍处于研究阶段,让我们拭目以待大自然是否会幸运地出牌。
捕获离子和中性原子的量子化学需要激光,因为光信号需要是相干的。这正是经典激光的主要特征。用光子数量来解释并不合适,因为即使是完美的激光也没有确定的光子数量:相干态本身在光子数量和相位上都是不确定的。但发光二极管的情况更糟,因为光信号确实是不连贯的。它甚至不是一个好的量子态,而是一个不相干光子的经典叠加态,无法真正用于任何量子控制。
不仅如此,在我看来,这还是一种纯粹的片上解决方案。对于被困离子和中性原子,你确实需要在某些时候转换到自由空间光学。
的确,正如你所指出的,这是有细微差别的。例如,你不能只是衰减激光并将其用作单光子源(相反,你会得到一个相干态)。要实现真正的单光子源,你需要一个额外的(量子)过程,如单个原子的受控激发发射,或驱动一些非线性晶体产生光子对(我认为这是使用自发参量向下转换)。而这正是激光器相干特性的关键所在。
至于全集成光学,这是量子计算机的最终目标,目前还没有任何物理限制。但要说我们是否绝对需要自由空间光学,因为不可能用其他方法来做某些光学事情,也许还为时尚早。
量子计算仍是一项未来技术。当我们还在谈论 12 量子位这一突破时,我们还有很长的路要走。光学互连是量子计算最不容易解决的问题。
然而,说激光不可靠是不对的。这种说法从根本上就是错误的,而且当今可插拔模块的现场数据也不支持这种说法。如今,数据中心已在可插拔模块中部署了数以千万计的激光器。
还需要记住的是,LED 实质上是没有反射器的激光器增益区。当激光器在现场发生故障时,其故障原因与 LED 的故障原因相同:半导体材料受潮或污染。
发光二极管对量子计算毫无用处。要创建贝尔对(2 量子位),需要相干光源来产生相关光子。像发光二极管这样的非相干光源产生的光子基本上是不相关的。
实际上,光互联是(光子)量子计算的最大问题。如果我们有足够好的光互连(即光损耗足够低),我们就已经有了容错量子计算机。请参阅 https://www.nature.com/articles/s41586-024-08406-9(另请注意,极光在每个时钟周期产生 12 种物理量子比特模式)
台积电的方法听起来很合理,但我不认为它对质量控制有多大帮助。这是一个非常不同的问题领域。困离子 QC 可以使用更昂贵/更不实用的激光器和光学器件,而且仍然有用。
据我所知(通过设计高速电子设备),铜缆数据/时钟速率的主要限制是信号完整性问题。不必要的电磁相互作用会降低信号的质量。光学无疑是解决这一问题的一种方法,但我想知道它是否/何时会遇到类似的限制。
光学技术也存在信号完整性问题。实际上,OSNR 和 SNR 限制了光学器件。切割光纤仍然会破坏光纤。微小的振动也会影响信号的相位。
相位变化不会带来任何问题,他们说的肯定是强度调制。使用像 LED 这样的非相干光源无法(轻松)实现相干调制。
对于任何通信系统来说,信噪比显然都是一个问题,但光纤的衰减比同轴电缆低几个数量级。
在这种情况下,更大的问题是模式色散,因为它们要通过 “成像 ”光纤,即光的不同空间分量相互走散,导致脉冲的时间扩散,直到它们重叠,你无法区分 1 和 0。
模式色散是与频率相关的相位变化。
那是色散,模式色散是与空间 “路径 ”相关的相位变化。振动实际上与此更为相关,因为如果不是因为振动,理论上我们可以消除模色散(不过我们需要相位信息)。
尽管如此,所有这些都与前一位发言者所说的振动引起的相位变化是一种损伤无关。这不是一个问题,振动太慢了,不可能损害光通信信号。
重力波光路如何解决振动问题?难道台积电不能做类似的事情吗?
啊哈!这对相干激光器来说是正确的。但 LED 却不是。我们不关心模式、偏振或相位。此外,也不用担心激光器的反馈,所以不需要隔离器。发光二极管要简单得多!
换句话说,在没有干扰的情况下,电子将面临阻抗并开始丢失信息。
对于任何信号来说,衰减都是一个问题,但根据我的经验,光纤可以在没有中继器的情况下传输数英里,而同轴电缆则要少一到两个数量级。[0]
[0] – 当然,同轴电缆的部分问题是由于 CTB 周围的其他问题和/或同轴电缆的挑战,你有许多频率通过,每个频率每 100 英尺有不同的衰减…………
> 而同轴电缆则是由于 CTB 周围的其他问题和/或同轴电缆中存在的难题,即在每 100 英尺内有许多频率通过,而每个频率的衰减各不相同。
事实上,光纤也是如此。在 DWDM 中(所有的互联网链接都是 DWDM,包括大多数地方的光纤到户),有许多频率并行,每个频率的衰减都不一样(不过一般是以每公里为单位测量,而不是以每 100 英尺为单位)。
光是静止的电磁波。这意味着它们不会相互干扰。电信号不是驻波。它们会相互影响。
两者的区别可以这样说:针尖上能放多少个 X(电波,但基本上是所有的东西,质子……)(或在电缆里)
1) 电波?某个有限的数字。当然可以很大,但……
2)光子(即光纤信号)?全部。实际上,整个宇宙中存在的每一个光子都会很乐意与针尖上的其他每一个光子结合在一起,而不会干扰其他任何东西。
无论如何,这就是干扰的主要机制,叫做符号间干扰。
幸运的是,光子是玻色子(如果我们能把事情推向这个极端的话)
这条评论似乎很有见地,但我不知道它是什么意思。有人能详细解释一下吗?
电子是费米子,这意味着两个电子不能占据相同的量子态(泡利排他原理)。波子没有这个限制,所以我认为这意味着你可以在低端获得更强的信号,因为你可以有多个光子传递或存储相同的信息。
外部干扰的机会也更少。
前一位发帖者的意思是,电子比光子的相互作用要强烈得多。因此,电子非常适合处理信息(如制造晶体管),而光子则非常适合传输信息。这也是为什么许多传统的 “光学计算机 ”研究从根本上就存在缺陷的原因,因为仅从第一性原理就能估计出功率要求过高。
> 这也是许多传统 “光学计算机 ”研究存在根本性缺陷的原因之一
大概也是因为我们可以使用的波长的光子非常大
费米子可以 “相互撞击”,而玻色子则可以 “相互穿过”。
(强烈强调引号的松动)。
光子-光子相互作用所需的能量密度远远超出了我们需要担心的范围,因此这不是一个问题。光子也不会无视局部势垒,在可预见的芯片设计所涉及的能量水平和尺度上进行隧穿。
P-p 相互作用不是问题,但在高带宽光纤中,我们确实有足够高的场强来解决 p-f 非线性问题。
我们已经经常在海底电缆中遇到光非线性问题。高带宽光纤中产生的瞬时电磁场强度足以导致与光纤介质的非线性相互作用,我们必须对其进行校正。
我不认为这是芯片间传输距离的一个因素。据我所知,这最多只是数据中心内几十米到几百米通信距离的问题。
文章中有他们新闻稿的链接,也许能回答一些问题:https://avicena.tech/avicena-announces-modular-lightbundle-o…
标题似乎有误导性。他们是在为某人建造探测器,而不是在 “打赌”。
赌注 “是将时间和金钱投入到可能不会产生结果的事情上。这是很常见的商业语言。
这个词主要用于金融投资推广。我猜,写这个词是为了吸引那些博主/主播,为某人赚钱。
次要的: 如果能在 HN 标题中提到台积电与之合作的 Avicena 公司就更好了。
编辑标题违反 HN 政策
但保留耸人听闻的标题也违反了 HN 的规定,dang(版主 1)经常在必要时修改标题。
此外,还有光学神经形态计算,可替代忆阻器等电子神经形态计算。这是一个令人着迷的领域,你可以使用光信号来执行模拟计算。例如
https://www.nature.com/articles/s41566-020-00754-y
https://www.nature.com/articles/s44172-022-00024-5
据我所知,在噪声信号过大之前,你只能计算相当小的神经网络,而且在光子学中也只有非常有限的一组计算能够很好地工作。
光学神经形态计算的问题在于,该领域一直在做容易的部分,即矩阵乘法。我们几十年前就知道,成像/干扰网络可以以大规模并行的方式进行矩阵运算。问题在于各层之间的非线性激活函数。人们在很大程度上忽视了这一点,或者只是将其转换回电子技术(现在你又受到了电子技术成本/带宽的限制)。
似乎很难想象他们不能利用某些非线性光学特性。
问题在于强度/功率,如前所述,光子与光子之间的相互作用很微弱,因此需要很高的强度才能获得合理的非线性响应。问题在于,光学矩阵的工作原理是将光分散到许多平行路径上,即降低每条路径的强度。也许有一些巧妙的方法可以克服这个问题,但到目前为止,每个人都避免了这个问题。他们说我们做的是 “光学深度学习”,其实他们做的是光学矩阵乘法,但如果这么说,《自然》杂志就不会发表文章了。
有,人们已经训练出了纯光学神经网络:
https://arxiv.org/abs/2208.01623
真正的问题在于如何反向传播这些非线性光学元件。你需要第二个非线性光学分量来匹配第一个非线性光学分量的导数。在上述论文中,他们通过稍微改变参数来近似导数,但这意味着训练时间与每一层的参数数量成线性比例。
注意:作者声称需要 O(sqrt N)时间,但他们忘了,如果要收敛到最小值,学习率 mu = o(1/sqrt N):
> 发射器就像一个微型显示屏,而检测器就像一个摄像头。
因此,如果我正在流式传输一部电影,那么视频在数据中心内是否真的清晰可见?
不,这只是一个比喻。实际情况是,数据经过大量调制,视频也经过编码,因此在光纤中根本看不到视觉上看起来像图像的东西。
报道称 “光纤束 ”中有 300 条光缆。让我们假设它的排列方式为 20×15,而 LED 的波长是可见的,亮度足以让人感知。因此,如果你的未编码、单色的 20×15 电影在每一帧上都对齐,并以 10E9 FPS 的速度渲染,那么是的,你的电影在其中一条光缆的末端通过放大镜就能看到。
显然,这不是视频压缩和数据包的工作原理,但为了论证起见,请考虑以下情况。文章说的是 300 光缆。每像素一位的正方形图像约有 300 个像素,大小为 17×17。这不是典型的视频分辨率。
也不是一般的帧频。
比起每次网络连接中出现一个比特时闪烁 LED 灯的情况也不尽相同。
也许是未压缩的低分辨率二进制动态图片
我不是通信专家。串行解串器会不会成为新的瓶颈?我想串行接口比并行接口占优势是有原因的,也许是通道之间的时序偏差,在这种大规模并行光并行接口中如何解决这个问题?
> 车道之间的时间偏差
这是很重要的原因。我记得在早期奔腾 4 时代,主板上的 PCB 线路上开始出现更多明显的 “斜纹”;这些斜纹的本质是 “这些线路需要更多的长度,以便与其他线路一样长,同时不会造成时序偏移”。
就文章所描述的情况而言,我想象的是一种 “线束电缆”,所有光纤的两端都有一个连接器,而电缆中的光纤本身都是一样长的,这样就不会出现时序偏移的问题。(相反,你需要担心弯曲半径的限制)。
> SerDes 是否会成为该方法的新瓶颈?
我认为是的,但同时在我的脑海中,我真的无法确定这是否是一个比普通多路复用/解多路复用更难的问题。
SerDes 已经经常并行化了。不同的是,你永远不会期望边沿甚至整个比特同时到达。在设计系统时,我们会对每个链路进行定时恢复,这样偏斜就不会成为线路速率的限制因素。
我们可以在光电边界的任何一点实现 SerDes。例如,如果我们从光纤接收 1 Tbps 的 NRZ 数据,而当前的 CMOS 技术只允许 10 GHz 时钟速度的分片器,那么我们可以使用 100x 个接收器(光电二极管、TIA、分片器),或 1x 个光电二极管、100x 个 TIA + 分片器,或 1x 个光电二极管 + TIA 和 100x 个分片器。最常见的是最后一种,它能输出 100 倍的并行数据。
如果损耗较高,需要使用 DFE,情况就会变得很有趣。这大大限制了速度,但随后铜缆解决方案转向发送多比特符号(PAM 3、4、5、6、8、16……),这也可以在光域中实现。在光域中甚至可以发送多个波长,因此有办法在不需要高时钟频率的情况下提高波特率。
>串行接口优于并行接口
半准确。例如,PCIe 在计算领域仍占主导地位。从技术上讲,PCIe 是一种串行协议,因为新版本的 PCIe(7.0 即将发布)提高了串行传输速率。不过,PCIe 也可根据性能需求通过 “通道 ”进行并行扩展,其中一个通道由总共四根线组成,排列成两个差分线对,一对用于接收(RX),一对用于发送(TX)。
PCIe 扩展到 16 个通道,因此一个 PCIe x16 接口将有 64 根导线组成 32 个差分对。在布线 PCIe 线路时,所有差分对的长度必须小于 100 密耳(我相信;我上次阅读规范已经是 10 年前的事)。这是为了解决您提到的 “通道之间的时序偏移 ”问题,PCB 设计软件中的 DRC 将确保遵守迹线长度偏移要求。
>如何在这种大规模并行光纤并行接口中解决这个问题?
从硬件角度看,在故事的 MicroLED 发射器阵列中保留几个 “像素 ”用于链路控制,而不是数据传输。例如时钟或数据帧同步信号。在软件方面,设计一种通信协议,在端点之间协商建立稳定的连接,并加入校验和。
抽象地说,随着技术的进步,串行与并行的动态变化。提高时钟频率,以更快的速度向下传输更多数据(串行改进)在一定程度上是可行的,但最终会达到当前技术的极限。还需要更多带宽?只需增加更多线路即可满足需求(并行改进)。最终,技术会不断进步,这种动态变化也会持续下去。PCIe 就是一个很好的例子。
他们正在通过每条光纤实现 10 Gb/s,为了达到 10 Gb/s,你已经在电子设备中进行了并行 -> 串行转换(你的 asics/fpgas 的时钟速率要低得多),提高串行速率实际上是瓶颈所在。实际的最佳串行速率在很大程度上取决于每个收发器的成本,例如,长途光链路的串行速率可达 1 Tb/s,而数据中心互连的串行速率为 10-25 G。
采用这种设计,他们如何将足够多的引脚从芯片连接到光收发器?是否需要芯片才能获得足够的通道?
这篇文章有误导性。台积电并没有 “押注 ”Avicena(相关初创公司)的技术。相反,Avicena 似乎只是付钱给台积电,让台积电帮助他们生产。以下是 Avicena 发布的新闻稿链接:
https://www.businesswire.com/news/home/20250422988144/en/Avi…
我还注意到,IEEE Spectrum 上过去曾有多篇关于这家初创公司的文章,我真希望这些记者没有持有这家公司的股票,或者有其他偏见。
台积电正在自掏腰包为 Avicena 开发定制探测器。他们几乎从不为初创企业做类似的事情。这就是为什么要在 Avicena 身上下注。因为他们认为这项技术具有真正的潜力。请参阅文章中的台积电引文。
我不知道在我有生之年能否看到光子 CPU。也许不会,你必须发明一种前所未见的全新材料,以某种方式实现与光信号的非线性相互作用。这简直就是魔术。
请原谅我的无知,是什么阻止了我们制造光学晶体管?
我认为最根本的原因是在光学频率下没有足够有效的非线性。因此,在普通材料中,两束光(或某些实现中的频率)往往不会相互影响,除非你有一个非常强的光源(>1 W),所以目前的全光开关演示大多使用脉冲光源。
作为一个曾试图攻读光通信专业博士学位的人来说,这百分之百是正确的。
我想知道元材料将来是否会提供这种非线性特性。
我想知道,当我们达到硅和电子所能达到的极限时,是否会在这方面投入更多的工程和研究力量。
不,这不是一个工程问题,而是一个基础物理学问题。光子不容易相互作用。但这并不意味着没有专门的光学处理应用,例如矩阵乘法实际上只是一个更复杂的透镜,因此基于此制造 ML 加速器变得非常流行。
与前面的评论者相反,光子计算肯定会有大量工程正在进行,但光子计算是否会取代电子计算(至少不会很快)并不明确,也不可能,相反,大多数人似乎认为光子计算是高度并行任务的加速器。人们认为实现这一目标的两个主要途径是使用铌酸锂设备(通过光-物质相互作用调解非线性光学效应)和带有电可调谐元件的硅光子设备。过去,人们在 III-V 半导体(砷化镓/砷化铟/氮化镓/氮化铝等)方面做了大量工作,但现在似乎已趋于平稳,转而使用铌酸锂。
在通信和线性计算领域,光子学无疑已经证明了自己的实力,但在通用(非线性)计算领域,光子学仍有很长的路要走。
是啊,我也是这么想的,有没有一种巧妙的方法可以利用光与物质的相互作用来打开/关闭栅极呢?
光子比电子更难控制。它们不会相互影响。
电信号可以在 CMOS 晶体管中按需运行和切换电流,从而制造出逻辑门,并最终制造出 CPU。然而,光信号是线性运行的–光子只是相互穿过,并不相互作用。
如果每条电缆的传输速率为 10gb/s,并使用 1 个像素来转换成电信号,这是否意味着他们需要一个每秒 10 giga 帧的传感器?
我认为这只是一个简化的例子。他们最有可能使用的不是图像传感器,而是带有宽带放大器的光电探测器。
不,不一定。如果能区分不同的振幅水平,就能做得更好。例如,四振幅调制(4AM)每个符号携带两个比特。还可以选择使用相干光学,它可以检测相位,并在相位中携带额外的信息。