Keras K.batch_dot解释

K.batch_dot

K.batch_dot是一个Batchwise dot,使用的范围就是两个data in batches,通常的shape (batch_size,:)
函数定义 batch_dot(x, y, axes=None)
注意:batch_size 是不参与矩阵运算的,如果除了batch这个维度,只有一个维度,则会自动补一个维度
axes指定两个数据矩阵相乘的维度,axes里提供的两个data的维度对应的数值是相同的,这也是矩阵相乘的基本条件。举几个源码里的例子
x = [[1, 2], [3, 4]] and y = [[5, 6], [7, 8]]
batch_dot(x, y, axes=1) = [[17], [53]]怎么理解呢,x和y的维度都是(2,2),axes=1表示x和y都是维度1参与矩阵计算
首先batch不参与运算,则剩下第二个维度(,2),我们expand_dims到(1,2),则剩下两个维度x.dot(y.T) = (1,2).dot((1,2).T)运算结果维度(1,1),加上batch的维度(2,1) 计算维度的过程可以这样理解哈
同样的
x=(100, 20)y =(100, 30, 20)
K.dot(x,y,(1,2))的结果维度(100,30)

再一个例子:

x_batch = K.ones(shape=(32, 20, 1))
y_batch = K.ones(shape=(32, 30, 20))
xy_batch_dot = K.batch_dot(x_batch, y_batch, axes=(1, 2))
K.int_shape(xy_batch_dot)

(32,1,30)
但是,不知道是改了函数,现在的batch_dot矩阵相乘,前面的维度是分别做矩阵乘法的,这个跟我们通常的用处貌似不符合。

a = K.ones((9, 8, 7, 4, 2))
b = K.ones((9, 8, 7, 2, 5))
c = K.batch_dot(a, b, (4,3))
print(K.int_shape(c))  
(9, 8, 7, 4, 8, 7, 5)

但是tf.linalg.matmul是只乘最后两个维度的,那这里我们就要保证前面的维度相同。

a = K.ones((9, 8, 7, 4, 2))
b = K.ones((9, 8, 7, 2, 5))
c = tf.linalg.matmul(a,b)
print(K.int_shape(c))  
(9, 8, 7, 4, 5)
  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值