-
配置好了tensorboard. pytorch使用tensorboard需要pip tensorboard,tensorboardX。 tensorflow非必须,提示说不安装tensorflow功能会减少,但目前还没有用到高深的技巧。在服务器端训练好网络后,想要在本机浏览器打开,需要提前将服务器的tensorboard端口重定向到本机的端口,然后在浏览器使用本机的端口才可以打开。
-p 端口号
16006为本机端口,6006为服务器端的tensorboard端口。
-
写了weekly review。
-
FLOPS (S大写) 是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。
FLOPs(s小写),是floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。文章里大多数用的是这个。
#torch.repeat(tensor,(row_times, column_times)), torch.repeat_interleave(tensor, repeats, dim=None)
#torch.repeat()的第二个参数为每一个维度复制几次。如果只有两个维度,那么就是行和列,如果还有其他维度,那么就是在那个维度上复制几次。不过这个函数是整体复制,不能一行复制4次,然后下一行再复制4次。repeat_interleave()是做这个工作的
#torch.repeat_interleave()类似numpy.repeat.会按照元素复制。
x = [[1,2],[3,4]]
x = torch.tensor(x)
torch.repeat_interleave(x, 2)
# x = tensor([1,1,2,2,3,3,4,4]) ,如果不写维度就会将所有元素复制repeat次,然后拼接成一维tensor.
torch.repeat_interleave(x, 2, dim=1)
# x = tensor[
#[1,1,2,2],
#[3,3,4,4]
#]
torch.repeat_interleave(x, 2, dim=0)
# x = tensor([
# [1,2],
# [1,2],
# [3,4],
# [3,4]
# ])
- (存疑)batch_size是16,但运行的时候程序自动给我调成了8。可能是因为卡容量不够?