NLP-D38-nlp比赛D7-pytorch踩坑&&继续刷题

46 篇文章 0 订阅
29 篇文章 0 订阅

—0440呜呜全新的一天开始啦!!!今天任务更多,也会过得更加充实,成长速度也会更快!
刚刚在kaggle找了找相关比赛,发现没有,于是只好自己改啦!!!

.view作用

用来改变张量形状
https://blog.csdn.net/WhiffeYF/article/details/104251419

torch.size(0),torch.size(1)中0和1的意思

第0维、第1维有几个数据。

torch.cat

在这里插入图片描述

map函数作用

map() 会根据提供的函数对指定序列做映射
https://www.runoob.com/python/python-func-map.html

volatile=False

volatile=True意味着不用反向求导,=false,则需要反向求导。
https://blog.csdn.net/qq_27292549/article/details/78768317

gpu转换不报错,但不成功

重新赋值后解决
在这里插入图片描述
这篇pytorch坑集不错。
https://zhuanlan.zhihu.com/p/91485607

pytorch的nn.CrossEntropyLoss()函数使用方法

y直接写明正确的index即可;
ignore_index忽略某一类别。
在这里插入图片描述

“nll_loss_forward_reduce_cuda_kernel_2d_index” not implemented for ‘Double’

我怀疑是得用float16
问题在于CE损失函数会自动把y的标签转换成one-hot,所以y的标签应该为int。
在这里插入图片描述
通过搜索问题:
在这里插入图片描述

在这里插入图片描述
https://blog.csdn.net/Arthur_Holmes/article/details/105716965

--------0837呜呜呜修了一早上,train终于run起来了。去做个核酸

—0950基本上跑通了。

test时可以用batch吗

呜呜,想念李沐大大了,翻翻书,至少是可以的。

在这里插入图片描述

在这里插入图片描述
下面研究下:test时不同的batch_size会不会影响准确率
鹅鹅鹅,然后发现了个愚蠢的事情
我也忘写model.eval()了。。。
在这里插入图片描述
又一个。。。xswl
在这里插入图片描述

max使用方法——在test时使用

可以返回值和索引。0是按列看
在这里插入图片描述

https://zhuanlan.zhihu.com/p/89465622

softmax和log_softmax的区别

log_softmax就是在softmax外加了一层log

改来改去,数据类型又改回去了。

这里相当于是一一对应了,而不是标签的index,所以要求为float了
做softmax的loss时需要用float,

如何统计tensor中true的数量

在这里插入图片描述

双向GRU

在这里插入图片描述
batch_first,输入时batch在第一个维度。
在这里插入图片描述
还是看李沐大大的书叭,应该是直接连接了,维度*2
在这里插入图片描述

注意:初始的hidden_state长度要*2
在这里插入图片描述

—1852呜呜呜,睡醒以后,好像把BiGRU也改完了???

—2106跑了6km感觉不累了,膝盖微疼。。。

----2133困困
但是还想刷个算法,我魔怔了。。。

786

还不错,虽然没那么顺,但是都是自己想出来的。

n,k = map(int,input().split())
a = list(map(int,input().split()))

def quick_sort(q,l,r,k):
    if l>=r:
        return q[l]
    x = q[l+r>>1]
    i,j = l-1,r+1
    while i<j:
        i+=1
        j-=1
        while q[i]<x:
            i+=1
        while q[j]>x:
            j-=1
        if i<j:
            q[i],q[j] = q[j],q[i]
    res = j-l+1
    if res>=k:
        return quick_sort(q,l,j,k)
    else:
        return quick_sort(q,j+1,r,k-res)

print(quick_sort(a,0,n-1,k))
    ```

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值