—0440呜呜全新的一天开始啦!!!今天任务更多,也会过得更加充实,成长速度也会更快!
刚刚在kaggle找了找相关比赛,发现没有,于是只好自己改啦!!!
.view作用
用来改变张量形状
https://blog.csdn.net/WhiffeYF/article/details/104251419
torch.size(0),torch.size(1)中0和1的意思
第0维、第1维有几个数据。
torch.cat
map函数作用
map() 会根据提供的函数对指定序列做映射
https://www.runoob.com/python/python-func-map.html
volatile=False
volatile=True意味着不用反向求导,=false,则需要反向求导。
https://blog.csdn.net/qq_27292549/article/details/78768317
gpu转换不报错,但不成功
重新赋值后解决
这篇pytorch坑集不错。
https://zhuanlan.zhihu.com/p/91485607
pytorch的nn.CrossEntropyLoss()函数使用方法
y直接写明正确的index即可;
ignore_index忽略某一类别。
“nll_loss_forward_reduce_cuda_kernel_2d_index” not implemented for ‘Double’
我怀疑是得用float16
问题在于CE损失函数会自动把y的标签转换成one-hot,所以y的标签应该为int。
通过搜索问题:
https://blog.csdn.net/Arthur_Holmes/article/details/105716965
--------0837呜呜呜修了一早上,train终于run起来了。去做个核酸
—0950基本上跑通了。
test时可以用batch吗
呜呜,想念李沐大大了,翻翻书,至少是可以的。
下面研究下:test时不同的batch_size会不会影响准确率
鹅鹅鹅,然后发现了个愚蠢的事情
我也忘写model.eval()了。。。
又一个。。。xswl
max使用方法——在test时使用
可以返回值和索引。0是按列看
https://zhuanlan.zhihu.com/p/89465622
softmax和log_softmax的区别
log_softmax就是在softmax外加了一层log
改来改去,数据类型又改回去了。
这里相当于是一一对应了,而不是标签的index,所以要求为float了
如何统计tensor中true的数量
双向GRU
batch_first,输入时batch在第一个维度。
还是看李沐大大的书叭,应该是直接连接了,维度*2
注意:初始的hidden_state长度要*2
—1852呜呜呜,睡醒以后,好像把BiGRU也改完了???
—2106跑了6km感觉不累了,膝盖微疼。。。
----2133困困
但是还想刷个算法,我魔怔了。。。
786
还不错,虽然没那么顺,但是都是自己想出来的。
n,k = map(int,input().split())
a = list(map(int,input().split()))
def quick_sort(q,l,r,k):
if l>=r:
return q[l]
x = q[l+r>>1]
i,j = l-1,r+1
while i<j:
i+=1
j-=1
while q[i]<x:
i+=1
while q[j]>x:
j-=1
if i<j:
q[i],q[j] = q[j],q[i]
res = j-l+1
if res>=k:
return quick_sort(q,l,j,k)
else:
return quick_sort(q,j+1,r,k-res)
print(quick_sort(a,0,n-1,k))
```