对于向量
x
T
=
[
x
1
,
.
.
.
,
x
n
]
E
=
e
m
b
e
d
d
i
n
g
=
[
a
11
.
.
.
a
1
m
.
.
.
.
.
.
.
.
.
a
n
1
.
.
.
a
n
m
]
x^T=[x_1,...,x_n]\\ E=embedding= \begin{bmatrix} a_{11}& ... & a_{1m}\\ ... & ... & ... \\ a_{n1} &... &a_{nm}\\ \end{bmatrix}
xT=[x1,...,xn]E=embedding=⎣⎡a11...an1.........a1m...anm⎦⎤
x
T
E
=
y
=
[
y
1
,
.
.
.
,
y
m
]
x^TE=y=[y_1,...,y_m]
xTE=y=[y1,...,ym]
在这个矩阵计算中,E中的每一列就是embedding层的node,在每个node中输入x的每个元素都被加权求和得到y中对应位置的输出元素。
所以x和E中的每一列的乘法就是x通过embedding层的过程。上图中就是x通过了m个embedding node,将x从n维变成了m维。
这个embedding层可以用Dense(m)表示。
关于Embedding层的理解:就是一个矩阵乘法运算
最新推荐文章于 2024-06-13 03:05:14 发布