隨著 AI 與雲端流量持續攀升,在2020年至2024年間,數據中心之間的頻寬採購量成長了 330%。到 2025 年,營運商已經跨越 400G,以800G 成為主流,並開始試點推進到 1.6T、224 Gb/s PAM4 鏈路。然而,供應仍落後於需求。2024 年初,北美主要市場的機房空置率僅 2.8%。交換機的特定應用積體電路(ASIC,亦稱客製化晶片)目前整合了高頻寬記憶體(HBM),並將網路結構(fabric)延伸至 60 英里,以滿足 AI 叢集的需求。在整個核心系統中,一切依然取決於光收發器,它能將太位元(terabit)等級的電訊號,以更低的能耗轉換為低損耗的光子。
高速光收發模組的技術基礎
單一通道(lane)的傳輸速率可達 100 至 200 Gb/s,同時透過提高符號率並疊加新技術來提升效能。PAM4以每符號編碼兩個位元,使傳輸速率翻倍。然而這會縮小訊號的「眼圖(eye diagram )」,因此需要低雜訊驅動器與 DSP數位訊號處理 均衡器來補償。相干光學技術則透過振幅、相位與雙偏振來傳輸訊號,讓 DSP 在光纖末端能有效解開色散問題。矽光子(Silicon Photonics)技術將雷射、調變器與偵測器整合在 CMOS 晶圓上,不僅降低功耗與體積,亦使得高密度的共封裝設計成為可能。這些技術為光收發模組的演進路徑奠定基礎,使其能向 800G、1.6T,甚至更高容量、高埠數傳輸的標準光纖應用。
800G 崛起,400G 持續部署
部署與應用案例
超大規模雲端服務商如AWS、Azure、Google、Meta是可插拔式光模組的最大使用者。這些超級數據中心仰賴都會區與長途光纖網路,照些網路需要頻寬升級與向下相容硬體。隨著流量每年以超過 30%的速度成長,營運商同時部署400G與800G光收發模組於葉脊式(leaf-spine)與脊核式(spine-cor)架構。ZR與ZR+可擴展至資料中心之間的點對點連結,而 DR4、FR4、AOC則提供更多彈性網路建置的選項。綜合而言,400G 與 800G 已成為新機櫃的標準選擇。
光收發模組規格:QSFP-DD 與 OSFP
QSFP-DD 保持既有 QSFP 外觀,在交換器上實現高埠數密度。前的 QSFP-DD 模組功耗至少 12 瓦,而 DD800 世代的設計目標功耗更高達 25 瓦,對散熱能力帶來巨大壓力。OSFP 的尺寸稍大,並內建散熱片,這使得它能在約 15 瓦的功耗下能不降訴的運作。兩者皆支援 8 × 50G PAM4 通道,而 DR4 與 FR4 可提供 4 × 100G通道。常見選擇還包括 LR4 與 SR8 光模組。
為什麼產業轉向 800G AI 叢集和邊緣網路(edge fabrics)的流量,已足以讓 400G 的上行鏈路達到飽和。此外,隨著傳輸速度達到 50G 通道,銅纜的訊號損耗也隨之增加,同時較高的功耗更會壓縮機櫃內部的散熱空間。早期的 800G 可插拔式光收發器,能分解成兩個 400G 通道,以方便用戶過渡升級。隨著 100G 通道交換器晶片與 IEEE 802.3df 規範逐漸成熟,新一代的光收發器必須在功耗限制內,達到 800G 的傳輸速率。
典型應用
AI 訓練叢集非常需要高頻寬傳輸。單一 64 x 800G 交換機能夠為多個 GPU 建立一個無阻塞的網路架構。邊緣與核心路由器也常將兩個 800G 連接埠配對,為脊幹層(spine layers)提供便捷的 1.6T 上行鏈路。此外,乙太網路記憶體池(Ethernet memory-pooling)專案,則透過 800G 鏈路來傳輸 DRAM,以滿足推論伺服器(inference servers)的需求。
部署挑戰
大多數可插拔式光收發器的功耗在 16 至 18 瓦之間,這對交換器面板的電力預算和氣流散熱都帶來壓力。在高密度的機箱中,溫差(delta-T)會更高,因此設計師會增加散熱片或採用液體冷卻來保護雷射的穩定運作。由於混合使用基於 DSP 和線性可插拔式光收發器時,互通性依然是個難題,這也是為什麼營運商會仰賴 CMIS 管理層和 MSA 合規性測試的原因。
外型規格
QSFP-DD800 維持了經典的 18.35 毫米寬度,讓交換器能重複使用 QSFP 的插槽,同時將通道數量增加一倍。OSFP 800G 則有 22.6 毫米的寬度,並透過較高的頂部散熱片來散熱,這為它帶來更多的散熱空間。這兩種外型外殼都能容納光收發器的電子元件,同時不改變現有的光纖接腳配置,因此營運商可以隨著需求增長來混搭使用。
1.6T 光收發模組:網路基礎設施的未來
CPO 與矽光子整合
共封裝光學(Co-Packaged Optics, CPO)技術將矽光子晶片直接靠近交換 ASIC,這有助於降低晶片和光學元件之間的電氣瓶頸。矽光子整合則將調變器、雷射和 DSP 整合在同一個平台上。總體而言,這些技術為 1.6T 光收發模組實現了高密度、低延遲的傳輸鏈路。
標準化進展
IEEE 802.3df 正在定義 200G 與 400G 通道,它們將彙整成 一個1.6T 乙太網埠。進行中的 802.3dj 草案進一步增加傳輸距離與訊號等級。OIF 的 CEI-224G 專案則鎖定抖動遮罩和測試程序,以確保來自不同供應商的 224G SerDes(串列解串器)能夠互通操作。業界正根據這些草案,使用工具對全速率埠進行測試,以幫助供應商達成這個不斷變動的目標。
應用場景
擁有數萬個 GPU 的 AI 訓練叢集渴望 100 Tb/s 的網路架構,這就是雲端建置商正在對 1.6T 模組進行取樣測試的原因。在這樣的「AI 工廠」中,採用 CPO 的交換機埠可以降低網路的功耗。
超大規模業者也正在考慮將 1.6T 可插拔式光收發器用於都會區的 資料中心互連(DCI)。至於邊緣站點,則可以將四個 400G 上行鏈路整合到一個光收發器中,以簡化邊緣到核心流量的光纖管理。
技術瓶頸
在 224 Gb/s 的速度下,等化(equalization)、抖動控制和低損耗基板(laminates)主導了訊號完整性的預算。CPO 封裝將 ASIC、光子晶粒和雷射堆疊在一起,造成散熱環境非常緊湊,且光纖對準極為困難。
多晶粒的良率損失使模組成本居高不下,且每個先進封裝目前都像是一個客製化專案。額外的 FEC 區塊和重定時器(retimers)會消耗電力,因此設計師必須在增加傳輸距離和 IEEE 研究設定的能源預算之間取得平衡。
3.2T 光收發器:下一代技術前沿
超越1.6 T的新興技術
研究人員正致力於突破 1.6 Tb/s 光收發器的限制。其中一條路徑是利用新型調變器(如薄膜鈮酸鋰或量子限制史塔克效應 EAM),結合矽光子平台。將電光頻寬推向 100 GHz 以上。
矽光子與共封裝光學(CPO)
OIF 的 3.2 Tb/s CPO 規範已將雷射與交換機 ASIC 緊密結合的趨勢正式化,該規範詳細制定了適用於手掌大小模組的熱學、光學和電氣標準。部分平台已展示將 1.6T 和 3.2T 矽光子引擎直接焊接到基板上,以取代可插拔式光收發器。整合商認為,相較於 OSFP-XD,CPO 可以減少面板 I/O 並降低每位元的功耗。
3.2T 的應用定位
下一代光收發器設計旨在支援 AI 叢集和雲端超大規模網路架構的龐大資料需求。目前 AI 加速器可能需要每個 GPU 搭配兩個 800G 連接埠,這進一步推動了對 1.6T 或 3.2T 互連的迫切需求。全球超大規模資料中心和未來的 5G/6G 回傳網路都需要更高的密度和低延遲鏈路,因此這類收發器是關鍵的促成技術。
大眾控光收發模組賦能次世代網路
應用場景
園區主幹網路多採 400/800G SR-/FR-class 鏈路;都會區網路關注 800G–1.6T 相干可插拔式光收發模組;長途傳輸網路轉向 800G ZR+ 與早期 1.6T ZR;超大規模資料中心的葉脊式 leaf-spine 結構則已廣泛部署 800G,同時預留 1.6T 與 3.2T 的機房電力與散熱空間。
造訪 大眾控 光收發模組,探索我們完整的 400G、800G、1.6T 與 3.2T 解決方案。作為領先的電子製造服務供應商,運用先進 SMT、PCBA、COB、CPO 與矽光子(SiPh)技術。我們擁有從早期的 SFP 模組到現今的 800G 和 1.6T 平台的成熟專業知識,為 AI、雲端、超大規模和下一代網路基礎設施提供可靠且節能的產品。