【導讀】在阿里繼重磅開源Qwen3.5-397B-A17B之后,再次釋放Qwen3.5系列三款中等規模模型(35B、122B及27B版本)之際,國產算力生態迎來了又一次關鍵的協同升級。摩爾線程迅速響應,宣布其旗艦級AI訓推一體全功能GPU MTT S5000已率先完成對這三款新模型的全方位適配。這一舉措不僅標志著MUSA生態在應對前沿大模型時的成熟度與完備性得到了有力驗證,更通過原生MUSA C支持與深度兼容Triton-MUSA兩大核心能力,為開發者構建了從CUDA生態無縫遷移至國產算力的高效橋梁。
此次高效支持充分展示了摩爾線程MUSA生態的成熟度與完備性。在本次Qwen3.5系列模型的適配過程中,MUSA生態賦能開發者的兩大核心能力得到了有力驗證:
原生MUSA C支持:允許開發者直接使用MUSA C進行內核開發,大幅降低CUDA生態遷移門檻;
深度兼容Triton-MUSA:開發者可使用熟悉的Triton語法編寫高性能算子,并通過Triton-MUSA后端,無縫運行在摩爾線程全功能GPU上。
在底層技術層面,針對Qwen3.5多模態模型采用的混合注意力機制,摩爾線程實現了原生優化。基于muDNN計算庫和MATE開源算子庫,摩爾線程為混合注意力機制中的長序列處理提供高效支撐,成功在MTT S5000上實現了該模型的高性能推理。
總結
從GLM、MiniMax到Kimi,再到此次Qwen3.5系列的極速適配,摩爾線程已將對SOTA大模型的快速支持轉化為一種“新常態”,充分印證了MUSA架構卓越的無縫兼容性與全功能GPU強大的生態承載力。通過底層針對混合注意力機制的原生優化及muDNN、MATE算子庫的高效支撐,摩爾線程不僅解決了長序列處理等關鍵技術難題,更筑牢了堅實、易用的國產算力底座。






