- 博客(16)
- 收藏
- 关注
原创 王道-线性表2.3.7 递归链表删除元素
王道-线性表2.3.7 递归链表删除元素王道-线性表2.3.7王道-线性表2.3.7设计一个递归算法,删除不带头节点的单链表L中所有值为X的节点void Del_X_3(LinkList &L,ElemType x) { LNode *p; //p指向待删除结点, if(L==NULL) //递归出口 return ; if(L->data==x) { p=L; L=L-&g
2020-08-03 21:36:36 238
原创 keras 全连接手写识别 coursera week2
Exercise 2In the course you learned how to do classificaiton using Fashion MNIST, a data set containing items of clothing. There’s another, similar dataset called MNIST which has items of handwriting...
2019-09-01 11:02:40 1204 1
原创 keras线性回归 coursera week1
In this exercise you’ll try to build a neural network that predicts the price of a house according to a simple formula.So, imagine if house pricing was as easy as a house costs 50k + 50k per bedroom...
2019-09-01 10:19:58 481
原创 Attention text
class Attention(Layer): def __init__(self, step_dim, W_regularizer=None, b_regularizer=None, W_constraint=None, b_constraint=None, bias=True, **k...
2019-08-18 20:45:29 274
原创 TextCNN学习笔记
参考博客:https://www.cnblogs.com/bymo/p/9675654.htmlTextCnn:将卷积神经网络CNN应用到文本分类任务,利用多个不同size的kernel来提取句子中的关键信息(类似于多窗口大小的ngram),从而能够更好地捕捉局部相关性。网络结构:详细结构学习代码:https://www.kesci.com/home/project/5d22f153...
2019-08-14 19:53:08 148
原创 Fasttext 笔记
详细python简单版实现 https://www.kesci.com/home/project/5b63f0c86a25e70011ec80afimdb文本分类原本的句子输入是 sequences = [[1, 3, 4, 5], [1, 3, 7, 9, 2]]在这基础上加入 Bigram =>[1, 3, 4, 5, 1337, 2017], [1, 3, 7, 9, 2,...
2019-08-12 14:34:47 154
原创 LSTM 隐藏层维度和输入维度的问题
报错如下:ValueError: Dimensions must be equal, but are 1024 and 1536 for 'lstm_1to15/lstm_cell/MatMul_1' (op: 'MatMul') with input shapes: [1,1024], [1536,2048].我要实现的是 第一个LSTM单元输入(1,1024),输出(1,512).第二个L...
2019-08-11 13:54:28 18331 4
原创 python os模块目录笔记
写一个函数,接受一个参数,如果是文件,则执行这个文件,如果是文件夹,就执行这个文件夹下的所有py文件import osdef func(path): #先判断这个path是文件还是文件夹,isdir,isfile #如果是文件,.py结尾的 if os.path.isfile(path) and path.endwith(''.py) #执行这个文件 os.system("pyt...
2019-08-11 00:24:15 108
原创 负采样 笔记
如果还是不清楚的可以看动手深度学习 https://www.bilibili.com/video/av18512944?from=search&seid=5689761888129178461 还有一个讲的很精简的https://www.bilibili.com/video/av48065084?p=2...
2019-08-10 13:05:26 402
原创 python实现word2vec
https://towardsdatascience.com/an-implementation-guide-to-word2vec-using-numpy-and-google-sheets-13445eebd281https://www.leiphone.com/news/201812/2o1E1Xh53PAfoXgD.html两个链接对照着看实现的是skip_graw模型text ...
2019-08-09 15:14:10 259
原创 .IMDB,THUCNews数据集下载和探索
IMDB参考Tensorflow官网代码模型如下vocab_size = 10000model = keras.Sequential()model.add(keras.layers.Embedding(vocab_size, 16))model.add(keras.layers.GlobalAveragePooling1D())model.add(keras.layers.Dens...
2019-08-07 20:54:19 910
转载 任务4
1朴素贝叶斯朴素贝叶斯的原理利用朴素贝叶斯模型进行文本分类朴素贝叶斯12SVM模型SVM的原理利用SVM模型进行文本分类3LDA主题模型pLSA、共轭先验分布LDA使用LDA生成主题特征,在之前特征的基础上加入主题特征进行文本分类LDA数学八卦 lda2 合并特征1)NLP系列_用朴素贝叶斯进行文本分类 精髓https://blog.csdn.net/han_xiaoya...
2019-06-30 19:10:41 128
转载 自然语言处理任务3
TF-IDF原理。文本矩阵化,使用词袋模型,以TF-IDF特征值为权重。(可以使用Python中TfidfTransformer库)互信息的原理。使用第二步生成的特征矩阵,利用互信息进行特征筛选。一1. TF-IDF原理。在文本挖掘预处理之向量化与Hash Trick中我们讲到在文本挖掘的预处理中,向量化之后一般都伴随着TF-IDF的处理,那么什么是TF-IDF,为什么一般我们要加...
2019-06-27 20:43:06 1242
转载 自然语言处理任务二
正向最大匹配法在词典中进行扫描,尽可能地选择与词典中最长单词匹配的词作为目标分词,然后进行下一次匹配。算法流程:假设词典中最长的单词为 n 个,那么最大匹配的起始子串字数也为 n 个(1)扫描字典,测试读入的子串是否在字典中(2)如果存在,则从输入中删除掉该子串,重新按照规则取子串,重复(1)(3)如果不存在于字典中,则从右向左减少子串长度,重复(1)逆向最大匹配法在词典中进行扫描...
2019-06-24 20:57:49 126
原创 第一天 学习笔记 IDMB影评分类
tensorflow 版本1.12import tensorflow as tffrom tensorflow import kerasimport numpy as npimdb = keras.datasets.imdb(train_data, train_labels), (test_data, test_labels) = imdb.load_data('路径/imdb.np...
2019-06-21 20:47:39 377
原创 pycharm升级pip19版本后,还是显示pip10的版本的问题
pycharm升级pip19版本后,还是显示pip10的版本的问题在pycharm里的Terminal或者在cmd里cd到工程scipts路径(我的工程目录在F盘)然后输入easy_install -U pip 安装完后 查看pip的版本 pip --version小发现 :工程目录下venv里查看 pip 版本 (pip --version)和scripts文件夹下的pip版本不一样 ...
2019-03-17 13:04:18 3755 4
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人