深度学习
文章平均质量分 94
一只楚楚猫
这个作者很懒,什么都没留下…
展开
-
PyTorch中令人恼火的tensor
view”使用与原始张量相同的内存块,因此该内存块中的任何更改都会影响所有视图以及与其关联的原始张量视图可以是连续的或不连续的。一个不连续的张量视图可以转换为连续的张量视图,并且会复制不连续的视图张量到新的内存空间中,因此数据将不再与原始数据块关联stride位置公式:给定一个stride(A,B,C),索引 (j, k, v) 在 1D 数据数组中的位置为 (A∗jB∗kC∗vA∗jB∗kC∗vview() 不能应用于 '非连续的张量/视图,它返回一个视图;原创 2024-07-20 19:13:48 · 661 阅读 · 0 评论 -
性能优于BERT的FLAIR:一篇文章入门Flair模型
Flair是由Zalando Research开发的一个简单的自然语言处理(NLP)库。Flair的框架直接构建在PyTorch上,PyTorch是最好的深度学习框架之一。名称-实体识别(NER):它可以识别单词是代表文本中的人,位置还是名称。词性标注(PoS):将给定文本中的所有单词标记为它们所属的“词性”。文本分类:根据标准对文本进行分类(标签)。原创 2023-11-04 00:27:08 · 1400 阅读 · 0 评论 -
classification_report
行名:“类别(0:错误;1:正确)”、“准确率(accuracy)”、“算术平均(macro avg)”、“加权平均(weighted avg)”列名:“精确率(precision)”、“召回率(recall)”、“F1值(f1-score)”、“样本数(support)”想要理解什么是精确率、什么是召回率、什么是F1值,我们首先需要了解混淆矩阵。weighted avg:本身的比例乘以该样本占全部样本的比例。若一致,如副对角线上,则为T;凡是预测为1的都是阳性-P,凡是预测为0的都是隐性-N。原创 2023-09-14 23:48:08 · 209 阅读 · 0 评论 -
你真的理解PyTorch中的dimension嘛?
Numpy中的sum()方法和PyTorch中的sum()方法几乎相同,除了PyTorch中的dim在Numpy中被称作axis之外。我们首先指定行(2行),然后指定列(3列)。我们可以得出一个结论,第一个维度(dim=0)用于行,第二个维度(dim=1)用于列。当我们观察3D张量的形状时,我们会注意到新的维度被预处理并占据第一个位置(下面用粗体显示),即dim=0代表第三个维度。这个三维张量的第一个维度(dim=0)是最高的,包含3个二维张量。当我们描述二维张量的形状时,我们说它包含一些行和一些列。原创 2023-05-09 13:44:08 · 402 阅读 · 0 评论 -
强化学习之入门笔记(二)
关于AC,很多书籍和教程都说AC是DQN和PG的结合。个人觉得道理是怎么个道理,但其实是不够清晰,也很容易产生误读,甚至错误理解ACPG利用带权重的梯度下降方法更新策略,而获得权重的方法是蒙地卡罗计算G值蒙地卡罗需要完成整个游戏过程,直到最终状态,才能通过回溯计算G值,这使得PG方法的效率被限制那我们可不可以更快呢?相信大家已经想到了,那就是改为TD但改为TD还有一个问题需要解决:在PG,我们需要计算G值;那么在TD中,我们应该怎样估算每一步的Q值呢?原创 2023-03-25 19:09:25 · 587 阅读 · 0 评论 -
使用bert进行中文文本分类
使用bert进行中文文本分类原创 2022-12-07 10:40:42 · 3465 阅读 · 0 评论 -
Bert:一切过往,皆为序章
一篇文章入门Bert原创 2022-11-23 20:55:29 · 605 阅读 · 0 评论 -
一篇文章入门LSTM和GRU
一篇文章入门LSTM和GRU原创 2022-11-07 10:32:00 · 1216 阅读 · 0 评论 -
一篇文章入门循环神经网络RNN
循环神经网络RNN原创 2022-11-05 12:48:16 · 1928 阅读 · 0 评论 -
一篇文章入门pytorch和深度学习
一篇文章入门pytorch&深度学习原创 2022-10-29 18:37:40 · 816 阅读 · 0 评论