![]() 香港飛龍.online 官方授權發布的第4代「香港飛龍」標誌 本文内容: 公衆號記得加星標??,第一時間看推送不會錯過。2025 年 OFC 展會明確表明:數據中心向 CPO 交換機的轉型不可避免,其主要驅動力在於 CPO 帶來的功耗節省。從黃仁勳在 2025 年 GTC 大會上展示 CPO 交換機,到衆多廠商在 2025 年 OFC 展會上演示集成在 ASIC 封裝內的光引擎,共封裝光學技術已無處不在。值得注意的是,Arista 聯合創始人、數據中心網絡領域的長期遠見者安迪?貝托爾斯海姆(Andy Bechtolsheim)尚未改變立場。在 2025 年 OFC 展會上,他繼續主張線性可插拔光學(LPO)是更優選擇。LPO 移除了板載數字信號處理器,功耗較傳統可插拔光學器件顯著降低 —— 通常減少 30-50%。更多細節可查看我的帖子。安迪的核心論點是,至少在 1600G 代際,LPO 與 CPO 的功率效率大致相當。那麼,爲何要接受 CPO 額外的複雜性呢?然而,在這些更高的 SerDes 速率下,LPO 面臨着 ASIC 與面板光器件之間電通道插入損耗的挑戰。安迪認爲,在 1600G 代際,可通過帶近封裝連接器的跨接電纜來緩解這一問題。他對 CPO 的擔憂包括:失去配置靈活性(所有端口必須使用相同類型的光器件)、光器件類型混合搭配的困難,以及潛在的廠商互操作性和可維護性挑戰。衆所周知,光模塊會出現硬故障和軟故障。即使是高質量光器件,硬故障率約爲 100 FIT,而軟故障(通常由連接器灰塵引起)更爲常見。採用 CPO 時,檢查或更換故障光器件所需時間長得多。更糟的是,封裝內嵌入的光端口故障會導致交換機吞吐量下降,且難以更換。這些擔憂並非新鮮事,但行業在過去兩年已取得顯著進展。CPO 技術如今可靠性大幅提升。展望 400G 每通道 SerDes 代際,CPO 可能成爲唯一可行選擇。在如此高的速率下,即使是最佳的 PCB 走線或跨接電纜也可能引入過多插入損耗。屆時,在封裝內實現光信號傳輸將成爲必要。因此,若轉型不可避免,爲何不更早擁抱 CPO 並助力其演進呢?看看 Arista 在爲其淺緩衝交換機產品線採用 CPO 之前能堅持多久,將是一件有趣的事!CPO 集成無論是共封裝還是作爲可插拔模塊一部分的光收發器,其光引擎通常包含電子集成電路(EIC)和光子集成電路(PIC)。在包含交換機或 XPU 核心的 ASIC 封裝內集成這些光引擎,主要有兩種方式。硅中介層方案核心裸片與電子 IC(EIC)可共置於硅中介層上(或通過英特爾 EMIB 等硅橋連接),而 PIC 則要麼 3D 堆疊在 EIC 上方,要麼放置在有機基板中。當 PIC/EIC 堆疊在硅中介層上的核心裸片旁時,它們也被稱爲光學 I/O。該方案的目標是通過利用高密度 D2D 鏈路和中介層佈線,縮短並改善核心裸片與光引擎之間的電連接。這種中介層方案允許將多箇光學小芯片更靠近主裸片放置,從而實現更小的封裝。然而,將高功耗 EIC 與核心裸片共置於中介層上會使熱管理複雜化。此外,若 PIC 堆疊在 EIC 上,EIC 的散熱將更加困難。大型硅中介層會增加封裝成本和複雜性,且中介層尺寸限制了可圍繞 ASIC 佈置的光模塊數量。爲在不增加複雜性或成本的前提下提升帶寬,光引擎需要具備更高的帶寬密度。有機基板方案第二種方案將光引擎保留在 ASIC 封裝內的有機基板上(而非硅中介層)。PIC 和 EIC 被組裝在一起(通常是 PIC 在底部堆疊於 EIC 上方),形成緊湊的光引擎模塊,然後安裝在主裸片周圍的有機基板上。核心裸片通過 SerDes 接口與 EIC 通信,在最新工藝節點中,該接口通常具有 500-1000 Gbps/mm 的帶寬密度。這意味着,一箇面積爲 625 平方毫米(每邊 25 毫米)的核心裸片可向光引擎發送約 100 Tbps 的帶寬。爲實現超過 100 Tbps 的帶寬,封裝內通常需要多箇核心裸片。該方案允許光引擎在基板上間隔佈置,從而在一定程度上放寬了對每個引擎的光帶寬密度要求。由於引擎與主裸片距離較遠,這有助於熱隔離。每個光引擎可配備獨立的微型散熱器,或通過間隔佈置使氣流或冷板能夠觸及。重要的是,將 PIC 堆疊在 EIC 下方(最靠近基板)比反向堆疊具有更好的散熱和信號性能。由於不受大型中介層的限制,若有需要,封裝可做得更大(且不會顯著增加成本)以容納更多引擎。儘管組裝過程仍然複雜,但具有模塊化特點。光引擎可在安裝到有機基板之前進行獨立測試。這是集成 CPO 的流行方案。光學器件各種集成技術示意圖。引自 ASE什麼是帶寬密度?並非所有 CPO 解決方案都相同。任何 CPO 解決方案的最終目標都是以最低功耗實現高帶寬密度。這就引出了下一個問題:帶寬密度究竟是什麼?在 CPO 和光學 I/O 的語境中,帶寬密度(通常稱爲 “前沿密度” 或 “海岸線密度”)描述的是沿光接口集成邊緣每毫米可傳輸的數據量,單位通常爲太比特每秒(Tbps)。請注意,該指標並非在面板連接器級別測量,而是在 ASIC 裸片邊緣或與 ASIC 共封裝的光子小芯片 / 光引擎邊緣測量。這些是封裝內光纖或波導耦合的物理邊界。行業來源一致採用這一定義,帶寬密度單位常爲 Tbps/mm 或光纖數 /mm,具體取決於側重點是吞吐量還是物理通道數。更高的前沿密度意味着芯片可在不增加佔用面積的情況下輸出更多光帶寬。提升前沿密度對滿足數據中心和高性能計算系統中爆炸式增長的帶寬需求至關重要。方案對比:博通 vs 英偉達現在,爲理解共封裝光學,讓我們更深入地考察博通和英偉達的 CPO 產品。封裝帶寬博通去年推出了 Bailly CPO 交換機。該交換機基於 Tomohawk-5 ASIC,封裝內集成了八個 6.4 Tbps 光引擎,總封裝外光帶寬爲 51.2 Tb/s(64×800 Gbps 或 128×400 Gbps)。博通 Bailly CPO ASIC我們預計下一代 102.4 Tbps CPO 交換機將採用演進的 CPO 架構,圍繞 Tomohawk-6 裸片部署改進的硅光子引擎(每個引擎帶寬 12.8 Tbps 甚至更高)。這些約 100 Tbps 的交換機可能在今年下半年面市。博通製造的芯片可供交換機廠商用於構建系統。已有幾家公司處於使用 Bailly 交換機開發交換機的不同階段(或已進入早期採樣)。在所有這些交換機產品中,均使用單個 Baily 芯片(面板具有 128×400G 端口)構建獨立系統。英偉達在 2025 年 GTC 大會上推出的共封裝光學平臺目標更高,可擴展至 100 Tb/s 及以上。Quantum-X InfiniBand 交換機系統將具備:144 個 800 Gb/s 端口(或 576×200 Gbps),總計 115.2 Tbps 帶寬四個採用 Quantum X800 ASIC 的 Quantum-X CPO 封裝,每個封裝具備 28.8 Tbps 帶寬(144×200 Gbps 或 36×800 Gbps)若要通過 28.8 Tbps 交換機實現 115.2 Tbps 的無阻塞交換容量,採用 Clos 架構時所需交換機數量將遠多於四個。鑑於目前似乎僅有四個交換機,這看起來並非真正的 115.2 Tbps 交換機。對此有何評論?預計 2025 年底面市。Quantum-X 光子交換機系統。引自 2025 年 GTC 大會演示Spectrum-X 光子以太網交換機系列將具備:128 個 800G 端口(或 512 個 200G 端口),提供 102.4 Tb/s 帶寬。這可能包含兩個 Spectrum-X CPO 封裝,每個封裝具備 51.2 Tbps 帶寬(64×800 Gbps 或 256×200 Gbps)還將提供更大配置,包含 512 個 800G 端口(409.6 Tb/s),可能採用 4 個 CPO 封裝與 Quantum 類似,除非在交換機機箱內使用更多交換機用於芯片間連接,否則這些並非真正的 102.4 T 或 409.6 Tbps 交換機預計 2026 年面市因此,在容量方面,博通目前擁有 51.2T 解決方案,與當前網絡需求(800G 以太網時代,100G Serdes)一致,2025 年路線圖中規劃了 100 Tbps;而英偉達則跨越式發展至 100-400T,以滿足未來百萬 GPU 集羣需求(200G Serdes)。英偉達更大的帶寬數字反映了其更激進的架構方案,專注於通過大規模集成(系統內使用多箇光子交換機芯片)實現更高基數的交換機。光引擎博通 Bailly 芯片在 ASIC 封裝內集成了 6.4 Tbps 硅光子基光引擎。這些高密度邊緣安裝的光引擎通過有機基板上的短芯片間連接直接與核心裸片交互。這種緊密集成實現了更簡單的物理佈局。英偉達的 Spectrum-X(以太網)和 Quantum-X(InfiniBand)光子交換機也集成了多箇 1.6 Tbps 硅光子基光子引擎。每個光子引擎採用臺積電 COUPE™工藝製造,將電子裸片(EIC)堆疊在光子裸片上方。三個此類引擎集羣組成可拆卸光子組件(OSA),吞吐量達 4.8 Tbps。這意味着光引擎(及其光纖接口)位於可更換模塊上,與交換機基板對接,而非像博通方案那樣永久粘合!引自 2025 年 GTC 大會演示。英偉達 CPO 可視化因此,英偉達的封裝更爲複雜,採用先進的 2.5D/3D 集成(引擎裸片使用臺積電 SoIC 堆疊)和光部件的模塊化連接系統。這在一定程度上解決了可維護性擔憂。若在製造測試中發現插件模塊故障,可更換爲其他模塊。在 Quantum-X CPO 交換機中,每個 ASIC 封裝包含 Quantum X800 28.8 Tbps 交換機 ASIC 核心,以及連接至主封裝的六個 OSA 插件模塊。總之,博通方案是光器件嵌入的單封裝交換機,而英偉達方案則是具備可拆卸光子模塊的新型封裝。Spectrum-X CPO 封裝讓我們對小芯片架構有了更多瞭解。它似乎將主核心交換機裸片與八個 I/O 裸片緊密集成(通過裸片間接口),而光子引擎(36 個)圍繞它們佈置在有機基板中。這些光子引擎是否屬於可拆卸 OSA 的一部分尚不可知。Quantum-X 和 Spectrum-X CPO 封裝。引自 2025 年 GTC 大會演示光纖耦合博通 CPO 交換機採用光引擎的邊緣耦合光纖連接,以實現高前沿密度。每個光引擎 PIC 上有承載光信號的片上波導,這些波導終止於光子小芯片邊緣。光纖被精確對準並永久粘合(通常使用環氧樹脂)到這些波導端面。博通已開發出高度自動化的高密度光纖連接工藝,可將多根光纖芯精確對準光子小芯片邊緣。這種邊緣耦合方案允許大量光通道以緊湊的佔用面積從封裝中引出。在第一代 CPO 中,博通似乎使用 400G-FR4,通過 CWDM 在單根光纖上實現四個 100G 通道。如此,每個光引擎配備 16 對光纖(發送 + 接收 = 一對)以處理 6.4T 吞吐量。然而,博通可能正在開發新版本芯片,配備 64 對光纖(每對承載 100 Gbps),以支持更大基數的交換機(512×100G 端口)。直接從光引擎引出的短光纖稱爲 “光纖尾纖”。光引擎引出的光纖尾纖必須路由至面板連接器,但這些尾纖短而脆弱,無法直接路由至面板。ASIC 引出的光纖尾纖通常通過連接器在交換機盒內部與更長、更堅固的光纖連接,後者再延伸至面板。英偉達 Quantum-X InfiniBand 交換機封裝每個 CPO 封裝有 324 個光連接。爲支持 144×200 Gbps,需要 144 對光纖(288 根光纖),剩餘 36 個用於連接 ASIC 的激光器 ——18 個光子引擎各獲得兩個激光輸入。四對光纖(4×200 Gbps)每組匯聚爲一箇 DR4,並在面板處端接至單個 MPO(多光纖推入式)連接器。因此,配備 4 個 CPO 封裝的交換機系統在面板處有 144 個 MPO。儘管耦合方法的細節尚未完全公開,但英偉達很可能也在光子引擎上使用邊緣耦合。總之,博通和英偉達都必須解決大規模光纖耦合問題。博通在第一代 CPO 交換機中依靠 WDM 減少光纖數量,而從 GTC 演示中的光纖數量來看,英偉達似乎未使用 WDM。激光器集成CPO 設計中最大的考量之一是如何處理爲光引擎內調製器提供光源的激光器。博通和英偉達的設計均將所有高功率激光器置於主交換機封裝之外,轉而使用外部可插拔激光模塊(外部激光源或 ELS)。這些模塊可插入面板 LC 端口,接受熱插拔激光 cartridges。光纖跳線將連續波光從這些激光模塊傳輸至共封裝光引擎。該策略可保持 CPO 的低功耗並提高其可靠性。激光器的退化可能快於其他組件,因此外部激光器可輕鬆更換,而無需干擾交換機 ASIC。Bailly 交換機使用 16 個高效可插拔激光模塊,每個 6.4 Tbps 光引擎配備兩個模塊。英偉達的方案更進一步,大幅減少了所需激光源的總數。在 Quantum-X 光子交換機系統中,僅 18 個面板連接的激光模塊爲所有 144×800G 光通道提供光源。每個模塊集成八個激光器,爲八個 1.6 Tbps 光子引擎提供光源。因此,英偉達架構的可插拔激光模塊數量(按每單位帶寬的模塊數計算)比博通方案少 4 倍。更少的激光器意味着需要冷卻和監控的組件更少,但這也意味着若某個激光模塊故障,受影響的通道會更多。調製器調製器是光引擎內將電信號轉換爲光信號的組件。它們從激光器獲取穩定光,並通過將光轉換爲強度或相位調製的光數據流,將高速數據 “印刻” 在其上。深入理解這些調製器的工作原理是一箇超出我專業領域的技術話題。簡而言之,博通很可能使用馬赫 - 曾德爾調製器(MZM)。這類調製器對激光不穩定性較不敏感,對溫度變化的耐受性更好,但功耗更高且佔用面積更大(尺寸更大)。儘管 MZM 適用於 100 Gbps 信號傳輸,但在擴展至~200G 通道和數百 Tbps CPO 封裝時,會面臨密度和功耗限制。這可能就是英偉達 CPO 方案選擇微環諧振器調製器(MRM)的原因。MRM 佔用面積更小(可很好地擴展),所需驅動電壓更低,因此功耗更低。這些調製器還原生支持 WDM;每個環針對一箇波長,非常適合每根光纖 8-16 個波長的系統。但這些調製器需要更多調諧(因其熱敏感性)和強大的 DSP 邏輯來減少串擾。英偉達選擇 MRM 表明其在 CPO 方案中對功耗節省的激進追求。MRM 的功耗約爲 1-2 pJ/bit,而 MZM 爲 5-10 pJ/bit。波分複用博通在每根光纖上使用粗波分複用(CWDM),採用 4 通道 4λ×100G 配置承載 400G。其文檔未解釋如何實現 800 Gbps 端口配置,可能涉及非標準配置,如聚合兩條 400G FR4 鏈路,或可能正在開發支持 DR 鏈路(直接傳輸,無 WDM,每根光纖承載 100G)的新版本 CPO 交換機。從每個 CPO 封裝的光纖對數量來看,英偉達 Quantum-X 似乎不支持 WDM,這與 200G 端口數量一致。功率效率與散熱共封裝光學的主要動機之一是提升功率效率。博通和英偉達均報告稱,與傳統可插拔收發器相比,單位比特功耗顯著降低。博通聲稱其共封裝光學每個 800 Gb/s 端口功耗約 5.5W,而等效可插拔模塊約爲 15W。這 3 倍的降幅意味着滿載的 64 端口(每個 800G)交換機可節省數百瓦功率。5.5W 的功耗轉化爲光鏈路 6-7 pJ/bit 的功耗,這在 2024 年屬於領先水平。冷卻此類系統比冷卻包含數十個 15W 可插拔器件的等效交換機更容易。儘管如此,51.2T CPO 交換機的 ASIC 封裝功率密度集中,仍會散發出大量熱量,需要冷板液冷。不過,其單元很可能也可使用高性能風冷。英偉達同樣宣揚效率大幅提升:通過使用微環調製器和更少的激光器,其硅光子交換機的網絡鏈路功率效率提升 3.5 倍。與博通類似,這些交換機需要液冷以有效散除 ASIC 封裝的熱量。事實上,GTC 大會上的 Quantum-X CPO 演示顯示,交換機 ASIC 採用冷板液冷。簡而言之,兩種方案均實現了更低的 pJ/bit 功耗,使超高帶寬網絡更具可持續性。突破帶寬牆 —— 未來方向垂直耦合傳統光引擎常使用邊緣耦合,將光纖對準芯片邊緣的波導端面。帶 V 型槽光纖陣列的邊緣耦合是一種已知方法,可精確排列光纖(間距通常爲 50-250 μm)並將其被動對準波導。邊緣耦合器可實現低插入損耗,且易於連接光纖帶。然而,由於光纖必須並排佈置且間距最小,它們會消耗大量邊緣長度。另一種方法是垂直耦合,使用片上衍射光柵耦合器或反射鏡將光從芯片頂面耦合出去。這允許光 I/O 佈置在芯片區域內,而不僅限於周邊。垂直耦合器加上微透鏡陣列可實現相當高的耦合密度,並可在光子裸片上方的任意位置靈活佈置。其權衡通常是在擴展至多根光纖時損耗更高且對準更復雜。儘管邊緣耦合目前占主導地位(因其成熟度和效率),但垂直耦合正在研究實驗室和部分公司中積極探索,以克服邊緣長度限制。多芯光纖與光纖間距縮小若每根光纖可承載多箇纖芯(光路),則對於給定的通道數,邊緣的光纖數量可減少。多芯光纖(MCF)在單個光纖包層內封裝多箇獨立纖芯,通過在單個光纖橫截面內堆疊通道,高效利用有限的前沿面積。例如,4 芯光纖可使每根光纖的通道數增至 4 倍,立即將邊緣通道密度提升 4 倍。儘管尚未在商用 CPO 產品中標準化,但它被視爲解決光子前沿受限問題的 “有吸引力的方案”。MCF 的缺點在於,若系統需要連接至不同服務器 / NIC 的更多低帶寬端口基數,在單根光纖內聚合更多帶寬並非良策。另一種增加光纖密度的方法是縮小間距。標準單模光纖帶間距約爲 250 μm,通過使用更細光纖或去除緩衝層,可實現 50 μm 甚至更小的間距。IBM 已在可靠組裝中演示了 50 μm 光纖通道間距,實驗室中使用定製聚合物光纖甚至實現了 18 μm 間距。如此小的間距可大幅增加 “每毫米光纖數”,使 ASIC 封裝能夠輸出更大帶寬。先進耦合器、透鏡與連接方法隨着光纖間距縮小和數量增加,對準容差成爲挑戰。正在開發光柵耦合器與微透鏡陣列等技術,以緩解對準限制,這可能實現光子芯片上方非常密集的 3D 堆疊光纖連接器陣列。光纖連接方法也在演進。如今許多 CPO 實現仍依賴光纖陣列的精確放置,然後用環氧樹脂固定。展望未來,預計會看到更多連接器化解決方案,如英偉達的可拆卸模塊或初創公司提供的 “即插即用” 光插座小芯片。WDM 是當前實現每根光纖更多通道的方法,垂直耦合、多芯光纖、密集光纖和新型連接技術正在興起,以進一步提升前沿密度。每種技術解決不同方面的問題(幾何密度 vs. 每光纖容量 vs. 對準)。下一代 CPO 實現正在探索結合多種方法,以在給定邊緣長度內提升總封裝外帶寬。CPO 部署挑戰主要挑戰並非核心技術本身,更多在於 CPO 對現有生態系統和運營模式的影響:生態系統顛覆:CPO 從根本上改變了供應鏈。客戶不再從多家廠商購買可互換的可插拔模塊,而是必須從單一系統廠商或緊密合作的夥伴處採購集成的 CPO 交換機或服務器。這降低了採購靈活性,增加了廠商鎖定。運營複雜性:現場更換和故障管理變得更加複雜。光引擎故障可能需要更換整個 CPO 交換機線卡或服務器主板,而非僅更換可插拔模塊。大規模開發適用於 CPO 系統的穩健測試、診斷和修復策略是一項重大任務。可靠性驗證:儘管 CPO 通過消除可插拔連接器接口(常見故障點)有望提供更高可靠性,但這需要通過大規模長期部署來證明。CPO 可靠性數據已開始出現,但仍需更多驗證。成本:目前,CPO 與高容量可插拔光學器件相比無顯著成本優勢。隨着產量上升,這種情況有望改變。熱管理:在 ASIC 封裝內集成對熱敏感的光組件帶來顯著熱管理挑戰,液冷成爲必需。鑑於這些挑戰以及 1.6T 可插拔光學器件的快速成熟,在 200G / 通道代際,CPO 不太可能在橫向擴展應用中實現大規模部署。但行業預計將看到越來越大的 CPO 測試部署,以驗證技術和運營模式,可能爲下一代大規模部署鋪平道路。CPO 用於縱向擴展?CPO 在縱向擴展用例(機架內連接)中的前景似乎更爲光明。在此場景中,整個機架解決方案(包括加速器、交換機和互連)更可能從單一廠商(如英偉達)或緊密集成的合作伙伴處採購。這簡化了生態系統挑戰,使 CPO 集成更爲直接。在 2025 年 GTC 大會上,黃仁勳推出了 NVL144(基於 Rubin GPU),該產品在 200 Gbps 通道速率下繼續使用銅纜進行 NVLink 互連。在這些速率下,銅纜可能體積龐大,電纜管理可能混亂。光背板 / 中板鏈路在電纜和傳輸距離方面提供了巨大改進。單根帶狀光纖可承載多箇波長,取代數十根銅纜,這大大減輕了重量和擁塞,這不僅對散熱重要,對信號完整性也至關重要。光學器件還允許機箱尺寸擴展,並創建跨多箇機架的超大規模縱向擴展集羣,而無需將所有組件限制在數米範圍內。配備用於 NVLink 互連的 CPO 的 GPU 和縱向擴展交換機(如 NVSwitch)支持這些光背板。欲瞭解更多信息,可參考我關於寬總線光子背板及光背板其他趨勢的帖子。然而,無源銅纜在功率方面仍具優勢,只要英偉達能在更低功耗下使其工作(即使必須在中間添加重定時器),就會繼續在縱向擴展系統中使用銅纜。縱向擴展系統中 GPU(或其他加速器)的合理選擇可能是先過渡到 CPC(共封裝銅纜),這將消除 PCB 走線,完全依靠跨接銅纜實現背板連接,然後在鏈路速度達~400 Gbps 及以上時過渡到 CPO 和光互連。對此你有何想法 / 觀點?下一步是什麼?光子織物 / 中介層?除邊緣佈置光引擎的傳統 CPO 外,另一種方案是使用置於核心裸片下方的光子中介層或織物。可將其視爲 3D 堆疊配置,其中激光器、波導和光交換 / 路由位於基礎層,計算或存儲小芯片可安裝在其上方,這本質上爲小芯片提供了光主板。由於光子中介層可以很大(3-4 倍光罩尺寸),它可提供非常長的 “邊緣”—— 一箇用於光 I/O 的連續 2D 表面。因此,每毫米邊緣的有效帶寬可能遠高於分散佈置的多箇獨立光引擎所能實現的帶寬。過去幾年,多家初創公司一直在積極探索這一領域,2025 年 OFC 展會上也有許多演示證明了其可行性。Photonic fabrics 或中介層示意圖。引自 LightMatterPhotonic fabrics 的主要挑戰在於基礎層的光引擎會散發出大量熱量,使這種 3D 堆疊配置中的熱管理相當困難。儘管演示主要展示頂部的測試芯片(僅包含 Serdes 和最小邏輯),但在真實的 3D 光子織物芯片中,核心裸片和光基礎層消耗大量功率,其熱管理情況將十分有趣。一些初創公司也在研究Photonic fabrics ,以連接封裝內的多箇 XPU。當封裝內有多箇核心時,Photonic fabrics 可在非相鄰核心之間提供連接,延遲遠低於通過有機基板路由的傳統方法。光子中介層另一示意圖。引自 Celestial.ai光互連的另一應用是將 XPU 連接至板上獨立 ASIC 封裝中容納的內存池(HBM)。由於光纖延遲低,這可實現內存與 ASIC 的解耦。然而,任何光連接的電光 - 光電轉換都會消耗大量功率。若超大規模集成的替代方案涉及多箇 ASIC 封裝和 PCB 走線,光子織物方案可能成爲更優解決方案。儘管如此,這些均屬於長期發展。當今的重點是交換機用 CPO,因爲這是迫在眉睫的痛點,行業正爲此興奮不已。CPO 交換機的成功部署將在技術、供應鏈和對光學技術的信任方面爲光子技術向其他領域擴展鋪平道路!未來令人興奮……注:本入門指南主要聚焦於博通和英偉達的 CPO 解決方案。然而,許多廠商提供 CPO 中使用的各種組件以及在 XPU / 交換機中集成 CPO 的技術。本文更多是技術綜述,不打算涵蓋該生態系統中的所有廠商。*免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅爲了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯繫半導體行業觀察。今天是《半導體行業觀察》爲您分享的第4072期內容,歡迎關注。加星標??第一時間看推送,小號防走丟求推薦 (本文内容不代表本站观点。) --------------------------------- |