K.batch_dot
K.batch_dot是一个Batchwise dot,使用的范围就是两个data in batches,通常的shape (batch_size,:)
函数定义 batch_dot(x, y, axes=None)
注意:batch_size 是不参与矩阵运算的,如果除了batch这个维度,只有一个维度,则会自动补一个维度
axes指定两个数据矩阵相乘的维度,axes里提供的两个data的维度对应的数值是相同的,这也是矩阵相乘的基本条件。举几个源码里的例子
x = [[1, 2], [3, 4]]
and y = [[5, 6], [7, 8]]
batch_dot(x, y, axes=1) = [[17], [53]]
怎么理解呢,x和y的维度都是(2,2),axes=1表示x和y都是维度1参与矩阵计算
首先batch不参与运算,则剩下第二个维度(,2),我们expand_dims到(1,2),则剩下两个维度x.dot(y.T) = (1,2).dot((1,2).T)运算结果维度(1,1),加上batch的维度(2,1) 计算维度的过程可以这样理解哈
同样的
x=(100, 20)
和y =(100, 30, 20)
K.dot(x,y,(1,2))的结果维度(100,30)
再一个例子:
x_batch = K.ones(shape=(32, 20, 1))
y_batch = K.ones(shape=(32, 30, 20))
xy_batch_dot = K.batch_dot(x_batch, y_batch, axes=(1, 2))
K.int_shape(xy_batch_dot)
(32,1,30)
但是,不知道是改了函数,现在的batch_dot
矩阵相乘,前面的维度是分别做矩阵乘法的,这个跟我们通常的用处貌似不符合。
a = K.ones((9, 8, 7, 4, 2))
b = K.ones((9, 8, 7, 2, 5))
c = K.batch_dot(a, b, (4,3))
print(K.int_shape(c))
(9, 8, 7, 4, 8, 7, 5)
但是tf.linalg.matmul
是只乘最后两个维度的,那这里我们就要保证前面的维度相同。
a = K.ones((9, 8, 7, 4, 2))
b = K.ones((9, 8, 7, 2, 5))
c = tf.linalg.matmul(a,b)
print(K.int_shape(c))
(9, 8, 7, 4, 5)