为什么 Torch 是动态的

为什么 Torch 是动态的

计算图要变动. 最典型的例子就是 RNN, 有时候 RNN 的 time step 不会一样, 或者在 training 和 testing 的时候, batch_size 和
time_step 也不一样, 如果用一个动态计算图的 Torch, 我们就好理解多了, 写起来也简单多了.

动态RNN(其他代码同rnn回归)

#!!!!!!!!!!修改部分!!!!!!!!!!
for step in range(100):
    dynamic_steps = np.random.randint(1, 4)  # 随机 time step 长度
    start, end = step * np.pi, (step+ dynamic_steps)*np.pi   # time steps 都是一样长的
    # sin 预测 cos
    step += dynamic_steps
    steps = np.linspace(start, end, 10 * dynamic_steps, dtype=np.float32)


    print(len(steps))  # print how many time step feed to RNN
    #######################  这下面又一样了 ###########################
    x_np = np.sin(steps)    # float32 for converting torch FloatTensor
    y_np = np.cos(steps)
    ...
    10
30
30
30
10
20
10
30..
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值