今天一点才到实验室
LN和BN:【机器学习】LayerNorm & BatchNorm的作用以及区别_敲代码的quant的博客-CSDN博客
两个线性层:第一层为了 投到另外一个空间 第二层 是为了矫正维度
position embedding:
定义域无限 , 相邻位置差距大:
明天面试 八点就离开实验室了
今天一点才到实验室
LN和BN:【机器学习】LayerNorm & BatchNorm的作用以及区别_敲代码的quant的博客-CSDN博客
两个线性层:第一层为了 投到另外一个空间 第二层 是为了矫正维度
position embedding:
定义域无限 , 相邻位置差距大:
明天面试 八点就离开实验室了