- 博客(147)
- 收藏
- 关注
转载 pandas\numpy的sum函数的axis和keepdim参数详解
二维数组一些函数如sum中axis=0表示压缩行,axis=1表示压缩列但是dataframe.drop中的axis=0却表示选中行,axis=1表示选择列https://www.jb51.net/article/207447.htmhttps://www.jb51.net/article/207388.htm
2022-03-22 21:20:33
446
转载 pd.get_dummies()
https://www.jianshu.com/p/5f8782bf15b1https://blog.csdn.net/maymay_/article/details/80198468对官网提供的example进行测试,发现有以下几点需要注意的地方:1、Series里的整数会按照one-hot进行编码,但是在DataFrame里面不会2、特征的维度数量会有所增加...
2022-03-22 19:05:15
122
原创 安装nlgeval报错
按照https://blog.csdn.net/qq_38247544/article/details/106650471安装,报错如下Installed d:\programfiles\anaconda3\envs\pytorch\lib\site-packages\nlg_eval-2.3-py3.7.eggProcessing dependencies for nlg-eval==2.3Searching for gensim~=3.8.3Reading https://pypi.org/si
2022-03-09 22:22:45
944
转载 ImportError: IProgress not found. Please update jupyter and ipywidgets although it is installed
https://stackoverflow.com/questions/67998191/importerror-iprogress-not-found-please-update-jupyter-and-ipywidgets-although
2022-02-28 20:00:34
242
转载 协同训练(co-training)
协同训练(co-training)是非常有效的半监督学习方法,但必须将特征集自然分割成两个可以充足构造分类器的子集合,并且要求它们之间在给定的类别下条件相互独立。Q:那是不是说如果数据有多视角的情况下,co-training比self-training好,而数据只有单一视角的时候,两者差不多呢?A:co-training就是因为有多视图才叫co-training,如果只有单一视图,就没有co-training。Q:co-training里面每组数据有两个特征x1和x2指的是什么呢?有点不明白,您可以解
2022-02-22 21:41:45
4042
转载 pytorch gather用法
https://blog.csdn.net/liuweiyuxiang/article/details/84668384https://zhuanlan.zhihu.com/p/352877584
2022-02-04 12:50:42
132
转载 LSTM和GRU
LSTMhttps://zhuanlan.zhihu.com/p/32085405有关实现https://zhuanlan.zhihu.com/p/104475016GRUhttps://zhuanlan.zhihu.com/p/32481747
2022-02-02 15:58:25
108
原创 安装spacy,报错OSError: [E050] Can‘t find model ‘en‘. It doesn‘t seem to be a shortcut link
pip install spacypython -m spacy download en网上流传要这样:python -m spacy download en_core_web_sm其实安装的时候,用管理员权限即可,因为会自动创造符号链接将en链接到en_core_web_sm附en_core_web_sm-2.3.0的下载链接https://github.com/explosion/spacy-models/releases/tag/en_core_web_sm-2.3.0...
2022-01-27 22:00:37
1151
转载 上下文无关语法(CFG)
参考https://www.zhihu.com/question/21833944 上下文无关文法就是说这个文法中所有的产生式左边只有一个非终结符,比如: 从形式上来看,就是产生式的左边都是单独一个非终结符,即形如 S-> …,而不是非终结符左右还有别的东西,例如 aSb -> … 在推导过程中S的产生式体选择不受S左右的文法符号串影响1.上下文无关S -> ab2.上下文有关aSb -> aaSbb严谨表达对于文法G=(V,T,P,S):V(中间变量
2022-01-25 21:49:13
761
原创 pytorch求 tensor的元素个数 | python中*args和**kwargs的含义
在学pytorch的过程中遇到了要求tensor元素个数的操作,从而有了以下代码:import torchimport numpy as npdef test(): torch.manual_seed(1) a = torch.randn(3, 4) print(a) print(a.size()) print(*a.size()) print(np.multiply(*a.size()))test()输出:所以* 表示是解包,将size
2022-01-24 13:55:33
1809
原创 pytorch的size和shape用法
有别于numpy中size的用法(用来计算数组和矩阵中所有元素的个数),pytorch的size具有和shape一样计算矩阵维度大小的作用。上代码~import torchimport numpy as nptorch.manual_seed(1)a=torch.randn(3,4)b=np.arange(1,5)b=b.reshape([2,2])# print(a)print(b)print("torch size():",a.size(1))print("torch.sha
2022-01-24 13:24:02
4024
原创 python中cls和self的不同及使用
文章目录1.在类中不同方法2.cls是什么3.cls和self的不同4.补充写在最后在讲正式内容之前,先讲一下背景知识1.在类中不同方法静态方法类方法实例方法这里就详细说一下类方法类方法绑定到一个类而不是类的对象。这些方法可以在没有类的实例的情况下调用。我们可以使用classmethod()方法或装饰器@classmethod创建类方法。类方法接受cls作为参数,指示该方法指向类而不是对象实例。class Sample: var = "Class Variable" @c
2022-01-23 14:33:33
10212
4
原创 安装torchtext导致pytorch版本与torchvision和torchaudio不兼容
安装torchtext(pytorch) D:\Study\Python\pythonProject>pip install torchtext -i https://pypi.tuna.tsinghua.edu.cn/simple如图ERROR: pip’s dependency resolver does not currently take into account all the packages that are installed. This behaviour is the
2022-01-18 21:24:49
5593
1
原创 sklearn.metrics报错
import sklearnsklearn.metrics.pairwise.cosine_similarity(word1_embed, word2_embed)报错经过查阅https://blog.csdn.net/fanyingkk/article/details/105577244,发现改成from sklearn import metricsmetrics.pairwise.cosine_similarity(word1_embed, word2_embed)才行,具体原因不太清楚
2022-01-17 19:55:06
3119
原创 Scipy和Sklearn的余弦相似度函数
scipy.spatial.distance.cosine与sklearn.metrics.pairwise.cosine_similarity的区别scipy求余弦相似度可以看到输入是两个一维数组,然后计算公式是1-cosinesimilaritysklearn的余弦相似度函数输入是两个matrix,公式不用1-cosinesimilarity,而是直接cosinesimilarity...
2022-01-17 17:58:14
1064
原创 安装python包报错->换清华源/豆瓣源
pip install jupyter_contrib_nbextensions -i https://pypi.tuna.tsinghua.edu.cn/simple
2022-01-17 13:43:03
206
转载 pytorch保存模型等相关参数,利用torch.save(),以及读取保存之后的文件
转载自https://www.cnblogs.com/qinduanyinghua/p/9311410.html本文分为两部分,第一部分讲如何保存模型参数,优化器参数等等,第二部分则讲如何读取。假设网络为model = Net(), optimizer = optim.Adam(model.parameters(), lr=args.lr), 假设在某个epoch,我们要保存模型参数,优化器参数以及epoch一、先建立一个字典,保存三个参数:state = {‘net':model.state
2022-01-17 13:04:17
3600
转载 DSL(Domain Specific Language)
转载自https://www.cnblogs.com/codershell/archive/2013/07/18/3199174.html领域特定语言(Domain Specific Language, DSL)是一种为解决特定领域问题而对某个特定领域操作和概念进行抽象的语言。领域特定语言只是针对某个特定的领域,这点与通用编程语言(General purpose Language)不同,如Java既可以适用于网站开发,也可以适用于手机开发。一旦领域特定语言离开了相关领域,它就会变得不适用。但针对某个特定的
2022-01-16 21:59:19
1460
转载 python3.9安装nb_conda报错
https://stackoverflow.com/questions/66359821/conda-environment-and-jupyter-notebook-python-3-9-2简单来说,换成安装ipykernel即可
2022-01-15 14:20:03
7597
5
转载 pickle的dump和load,序列化对象和反序列化对象
https://www.cnblogs.com/whiteprism/p/6201451.htmlPython中的Pickle模块实现了基本的数据序列与反序列化。一、dump()方法pickle.dump(obj, file, [,protocol])注释:序列化对象,将对象obj保存到文件file中去。参数protocol是序列化模式,默认是0(ASCII协议,表示以文本的形式进行序列化),protocol的值还可以是1和2(1和2表示以二进制的形式进行序列化。其中,1是老式的二进制协议;2是新二
2022-01-09 16:40:24
124
原创 PyTorch的 nn.CrossEntropyLoss()报错
nn.CrossEntropyLoss()中两个参数,其中的标签必须为long型(int64)的,不能是float32hwLabels = torch.Tensor(hwLabels).long()loss_func = nn.CrossEntropyLoss() for epoch in range(EPOCH): for step, (b_x, b_y) in enumerate(train_loader): # gives batch data, normalize x
2021-12-09 09:39:20
1925
转载 区别 |python |[-1]、[:-1]、[::-1]、[2::-1]的使用
格式list[start :end :方向]start——>开始下标位置end——>结束下标位置方向——> 读取方向。默认正向,-1表示反方向读取import numpy as npa=[1,2,3.4,5]print(a)[ 1 2 3 4 5 ] print(a[-1]) # 正向读取最后一个元素[5] print(a[:-1]) # 正向除了最后一个全部读取[ 1 2 3 4 ] print(a[::-1]) # 反向读取全部元素[ 5 4 3.
2021-11-29 13:34:03
376
转载 PyTorch之前向传播函数forward
https://blog.csdn.net/u011501388/article/details/84062483以一个Module为例:调用module的call方法module的call里面调用module的forward方法forward里面如果碰到Module的子类,回到第1步,如果碰到的是Function的子类,继续往下调用Function的call方法Function的call方法调用了Function的forward方法。Function的forward返回值module的f
2021-11-26 17:08:22
311
转载 n-grams
含义假设有一个字符串s,那么该字符串的N-Grams就表示按长度 N 切分原词得到的词段,也就是s中所有长度为 N 的子字符串。设想如果有两个字符串,然后分别求它们的N-Grams,那么就可以从它们的共有子串的数量这个角度去定义两个字符串间的N-Gram距离。...
2021-11-22 15:57:21
391
转载 fairseq——Beam search通俗理解
https://towardsdatascience.com/an-intuitive-explanation-of-beam-search-9b1d744e7a0f
2021-08-09 18:59:08
467
转载 --label-smoothing
https://towardsdatascience.com/what-is-label-smoothing-108debd7ef06
2021-08-09 17:50:41
119
转载 梯度爆炸解决办法——梯度截断--clip-norm 0.0
https://blog.csdn.net/csnc007/article/details/97804398https://blog.csdn.net/a1b2c3d4123456/article/details/90718413https://neptune.ai/blog/understanding-gradient-clipping-and-how-it-can-fix-exploding-gradients-problem
2021-08-09 16:11:26
542
转载 Adam优化算法
Adam(自适应矩估计 Adaptive moment estimation)转载https://blog.csdn.net/m0_37944102/article/details/104340723细节讲解(英文好的同学可以看看)https://towardsdatascience.com/adam-latest-trends-in-deep-learning-optimization-6be9a291375c...
2021-08-09 14:11:57
173
原创 PyTorch中view、permute、reshape对比
view用法Tensor.view(*shape) → Tensor通俗理解: 把原先tensor中的数据按照行优先的顺序排成一个一维的数据(这里应该是因为要求地址是连续存储的),然后按照参数组合成其他维度的tensor。比如说是不管你原先的数据是[[[1,2,3],[4,5,6]]]还是[1,2,3,4,5,6],因为它们排成一维向量都是6个元素,所以只要view后面的参数一致,得到的结果都是一样的。比如,a=torch.Tensor([[[1,2
2021-07-24 18:45:44
1284
3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅