A total variation loss

import matplotlib
import torch

x = torch.FloatTensor([1,1,1,1,1,2,2,2,2,2,2,3,3,3,3,3,3,3,3,1,1,1,1,1,0,0,1,1,1,1])
#x = torch.FloatTensor([1,1,1,1,1,20,20,20,20,20,20,3,3,3,3,3,3,3,3,1,1,1,1,1,0,0,1,1,1,1])
m = torch.distributions.normal.Normal(torch.tensor([0.0]),torch.tensor([0.3]))

noise = torch.squeeze(m.sample((x.size()[0],)))

x_ = x + noise
x_ = torch.autograd.Variable(x_)
#matplotlib.pyplot.plot(x_.numpy())
#matplotlib.pyplot.plot(x.numpy())

y = torch.zeros([x_.size()[0]])
y = torch.autograd.Variable(y,requires_grad=True)

#optimizer = torch.optim.Adam([{'params':[y]}])
#torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, #amsgrad=False)
optimizer = torch.optim.SGD([{'params':[y], 'lr':1.0e-2}])
#torch.optim.SGD(params, lr=<required parameter>, momentum=0, dampening=0, #weight_decay=0, nesterov=False)

lamda = 0.3#0.5



for iter_ in range(5000):
    #print(iter_)
    #y.zero_grad()
    optimizer.zero_grad()
    #print(y.data.numpy())
    #print(y.grad)
    '''cal loss'''
    tv_loss = torch.pow((y[1:] - y[:y.size()[0]-1]),2).sum()
    mse_loss = torch.nn.MSELoss(reduction='sum')
    E_
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值