MoE推动AI大模型降本之路,交换机迎来 新发展机遇

发布于: 雪球转发:0回复:0喜欢:0

【东北通信】

MoE混合专家模型相比传统Transformer模 型具备更高的效率和更低的成本:MoE的核心优势在于 能在远低于稠密模型所需计算资源的情况下进行高效训 练; DeepSeek V2做为MoE模型典范,相比目前LLM 开源大模型在各项性能方面均位于行业顶级水平: DeepSeek V2引入MLA算法,显著提高推理效率,相比 DeepSeek V1节省42.5%的成本,单API调用输入价格1 元每百万Tokens,是目前所有大模型中最低价格; MoE大模型有望成为全球AI大模型主流技术路线,对通 信网络更高需求推动高性能交换机加速落地:MoE模型 会推动单交换机峰值速率提升,以及交换机总需求量增 加 重点推荐标的:锐捷网络紫光股份菲菱科思共进股份