tf.scatter_nd特殊用法——按索引aggregate

一般用法见:https://blog.csdn.net/zlrai5895/article/details/80551056

简单地说,scatter_nd根据indices来将updates中的元素“散布”到形状为shape并初始化为0的tensor中(称其为output),所以一般来说,shape的某个维度大小会比updates的对应维度的大小更大(小的tensor散布到大的tensor中),如下图所示:

在这里插入图片描述

然而在某个Github项目中见到一个特殊用法,shape的某个维度大小比updates的对应维度的大小更小,此时很难理解怎么“scatter(散开)”updates中的元素到一个更小的tensor中。如下面的例子,将1到12分散到只有4个位置的tensor中(解释见后文)。

    indices = tf.constant([[0],[1],[2],[3],[0],[1],[2],[3],[0],[1],[2],[3]])
    updates = tf.constant([1,2,3,4,5,6,7,8,9,10,11,12])
    shape = tf.constant([4])
    scatter = tf.scatter_nd(indices, updates, shape)
    with tf.Session() as sess:
    print(sess.run(scatter))
    # output is [15 18 21 24], 15=1+5+9, 18=2+6+10 and so on

实际上,由于updates的维度更大,故会有多个元素会被分到shape的同一个位置,而最后的结果是将分到同一个位置的tensor加起来,作为该位置的最终结果。例如,上面例子中,updates中的159对应indices的下标都是0,因此都被分到了结果中的位置0,因此15=1+5+9才是该位置的最终结果。同理,结果中下标为1的18是由indices中下标为1对应的updates中的元素的求和,即18=2+6+10。其他同理。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值