- 博客(9)
- 资源 (1)
- 收藏
- 关注
转载 tf-idf --转载
参考地址:https://www.cnblogs.com/chenbjin/p/3851165.html 一个句子的tf-idf是由句子中的每一个词的tf-idf概率和相加得到的。
2018-05-31 14:24:51 166
原创 python 2.7判断数据编码是unicode还是其他的
python 2.7判断数据data编码是unicode还是其他的 :用type(data)来查看
2018-05-30 16:25:35 4648
原创 python 看包所在的位置
1,输入python 2,第一行代码 (假如是sys模块)import sys 3,第三行代码: sys.path 这样就显示了sys模块在你的电脑中的存储位置
2018-05-29 20:18:09 13194 1
原创 用conda创建的虚拟环境所在位置
放在了anaconda下面了,比如我的电脑就放在了/Users/username/anaconda3下了
2018-05-29 18:48:04 26756 1
转载 numpy以及pandas中axis = 0及axis = 1时的运算方向
axis = 0表示运算是按照上下方向来的;axis=1表示运算时按照左右方向来的。 参考地址:https://www.zhihu.com/question/58993137
2018-05-10 16:37:35 655
原创 vim界面去掉^M符号
1、txt文件在vim界面中有^M字符,我们可以通过:%s/^M $//g命令,来去掉^M(其中^M是通过ctrl+M来实现的。) 2、如果想把^M字符换成回车符,可以使用命令:%s/^M/\r/g ,这个可以实现将^M替换成回车。 参考地址:https://www.cnblogs.com/lipijin/p/3837619.html 参考地址:https://linuxtoy.or...
2018-05-04 15:33:27 3080
转载 LSTM的深入理解
LSTM最主要的就是对cell的理解,最初看的是这篇经典博客,看完感觉自己每个分部都看懂了,但是整体整合不起来,然后看到了这位大神写的总结博客,把整个lstm的结构整合起来了。1,LSTM cell最常见的结构图: 注:LSTM中可以理解为有三个门、一个cell。其中输入门控制输入(新记忆)的输入幅度;遗忘门控制之前记忆状态的输入幅度;输出门控制最终记忆的输出幅度。2,我觉得最帮...
2018-05-03 16:35:09 2252
原创 模型中的一些细节问题
embedding层:在导入预训练的词典后,embedding层的参数是怎么来的,以及参数数目是怎么计算的。添加dropout层【将dropout层单独加进去】,没有产生额外要训练的参数。LSTM、GRU等RNN,当return_sequences=False时表示不会将所有的时刻的隐层输出最终输出出来,所以会发生降维;当return_sequences=True时,表示会将所有的时刻输出,...
2018-05-03 10:57:52 314
背包九讲pdf
2017-03-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人