record3

记录下了上课的一些指令,有些自己也没有全部理解,嗯。。用的时候可以有参考的资料:

20190304
1.echo  '100'  有打印的意思。
2.bc        Linux的计算器
3.‘’最傻的符号,命令变量都不认得。
4.()最聪明,两个都认识。
5.“”介于两者之间。
6.touch 创建一个文件,没有东西。
7.touch /date/`date +%F`.log 创建一个带日期的文件‘’应该是反斜杠符号(变成英文Esc下面的键就是反单引号)。

2019/3/6
1.rmdir 删除文件夹
2.mkdir 创建文件夹
3.mv 移动文件
4.cp 复制
5.tree(--tree)以树状图列出目录的所有文件
6.rmdir 删除空文件夹
7.ln -s 创建软连接
8.cmd --help -h 查帮助
9.history 查命令历史
10.df -h
11.df -i
12.screen 共享桌面
13.ntpdate serverip
14.  软硬链接 (区别:1.跨分区。2.inode number 3.链接数 4.目录  根本区别:硬链接本质是一个文件,多个名字,软连接本质是多个不同文件)

这里的软硬链接自己用的时候应该再查查,现在看视频到10集完,应该看11集啦。Linux基础这两集感觉自己没好好听一样,感觉不太好。可能是看的有点累。

转载于:https://my.oschina.net/u/4085422/blog/3018968

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
def train(train_loader, model, optimizer, epoch, best_loss): model.train() loss_record2, loss_record3, loss_record4 = AvgMeter(), AvgMeter(), AvgMeter() accum = 0 for i, pack in enumerate(train_loader, start=1): # ---- data prepare ---- images, gts = pack images = Variable(images).cuda() gts = Variable(gts).cuda() # ---- forward ---- lateral_map_4, lateral_map_3, lateral_map_2 = model(images) # ---- loss function ---- loss4 = structure_loss(lateral_map_4, gts) loss3 = structure_loss(lateral_map_3, gts) loss2 = structure_loss(lateral_map_2, gts) loss = 0.5 * loss2 + 0.3 * loss3 + 0.2 * loss4 # ---- backward ---- loss.backward() torch.nn.utils.clip_grad_norm_(model.parameters(), opt.grad_norm) optimizer.step() optimizer.zero_grad() # ---- recording loss ---- loss_record2.update(loss2.data, opt.batchsize) loss_record3.update(loss3.data, opt.batchsize) loss_record4.update(loss4.data, opt.batchsize) # ---- train visualization ---- if i % 400 == 0 or i == total_step: print('{} Epoch [{:03d}/{:03d}], Step [{:04d}/{:04d}], ' '[lateral-2: {:.4f}, lateral-3: {:0.4f}, lateral-4: {:0.4f}]'. format(datetime.now(), epoch, opt.epoch, i, total_step, loss_record2.show(), loss_record3.show(), loss_record4.show())) print('lr: ', optimizer.param_groups[0]['lr']) save_path = 'snapshots/{}/'.format(opt.train_save) os.makedirs(save_path, exist_ok=True) if (epoch+1) % 1 == 0: meanloss = test(model, opt.test_path) if meanloss < best_loss: print('new best loss: ', meanloss) best_loss = meanloss torch.save(model.state_dict(), save_path + 'TransFuse-%d.pth' % epoch) print('[Saving Snapshot:]', save_path + 'TransFuse-%d.pth'% epoch) return best_loss
06-02
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值