【程序】DTWNet 中 config_sample.py

注1:

Model.DTWNET_SINGLE -> 
DTWNET->
DTWNET_BASE->
nn.Module

注2:

Model.DTWLAYER ->
nn.Module

import sys
import numpy as np
import torch
from torch import nn, optim
import visdom
import Util
import Model
import time

 
## hyper params
batch_size = 10
n_class = 2
n_filter = 1
kernel_len = 10
lr_dtw = 1e-2
lr_linear = 5e-4
# alpha = 0.0
# dtw_model = 'DTW_SPRING_EPS'
dtw_model = 'DTW_FULL_DTWCO'
# dtw_model = 'DTW_FULL'

## synthetic datatset
dir = './'
dataset_name = 'synthetic'
downsample_rate = 0


## output file and redirection
output_file = 'log/'+dataset_name+'_model_'+dtw_model+'_ds_'+str(downsample_rate)+'_filter_'+str(n_filter)+'_lr_'+str(lr_dtw)
# sys.stdout = open(output_file, 'w')


## load dataset
train_loader, sampleX, sampleY, feature_len, _ = Util.load_train(dir, dataset_name, batch_size, downsample_rate)
test_loader, _, __ = Util.load_test(dir, dataset_name, downsample_rate)


## model
dtw_list = []
for i in range(n_filter): 
  dtw_list.append(eval('Model.'+dtw_model+'(kernel_len, feature_len)'))
dtwlayer_list = [Model.DTWLAYER(dtw_list)]
model = Model.DTWNET_SINGLE(n_class, dtwlayer_list)


## optimizer
optimizer = optim.Adam([{'params': model.dtwlayers.parameters(), 'lr': lr_dtw}, {'params':model.mlps.parameters(), 'lr': lr_linear}], lr=5e-3)


## scheduler
scheduler = optim.lr_scheduler.MultiStepLR(optimizer, milestones=[100,200,300,400], gamma=0.1)

# ################ MLP model#################
# model = Model.MLP(3, feature_len, n_class)
# optimizer = optim.Adam(model.parameters(), lr=lr_linear)
# #############################################

## loss function
loss_func = Util.loss_function_crossentropy
# loss_func = Util.loss_function_crossentropy_shape

## training and testing
train_func = Util.train
test_func = Util.test

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序猿的探索之路

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值