- 博客(6)
- 收藏
- 关注
原创 神经网络组件详解-MoE混合专家模型
MOE:Mixture of Experts,可以简单理解为“”组成的神经网络。如Google 的论文中提出的一种MOE结构,通过进行,然后选择对应的。
2024-04-15 00:16:32 2342
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
MOE:Mixture of Experts,可以简单理解为“”组成的神经网络。如Google 的论文中提出的一种MOE结构,通过进行,然后选择对应的。
2024-04-15 00:16:32 2342
TA创建的收藏夹 TA关注的收藏夹
TA关注的人