机器学习
文章平均质量分 92
fff2zrx
这个作者很懒,什么都没留下…
展开
-
word embedding之skip gram理解
所谓word embedding我的理解就是把词通过上下文之间的联系转换成词向量skip gram是其中一种,是由中心词到周围词小周亲手画的上图中,首先输入中心词的onehot编码,与矩阵W1相乘,获取中心词的词向量;接着与矩阵W2相乘,相当于中心词的词向量与每一个其他词的词向量相乘,向量内积可以代表余弦相似性,然后输入softmax层,即输出词库里各个词汇的概率实现即把中心词的onehot编码当做输入,上下文里的词出现的概率做输出,以此来进行训练,其实真正想要的原创 2020-08-09 20:20:15 · 544 阅读 · 0 评论 -
当poi遇上embedding
最近看到一篇关于poi的论文,把poi各个类别通过邻接关系利用Word-embedding训练成了词向量,这样原本属于不同大类下的子类但是功能很相近的类别就在词向量空间里显得比较近,更符合实际情况。相比于之前的分开看各种poi类别比例,这样可以更好地表达出城市内的poi配置情况。论文提要Liu K, Yin L, Lu F, et al. Visualizing and exploring POI configurations of urban regions on POI-type semanti.原创 2020-08-08 20:26:09 · 1579 阅读 · 3 评论 -
利用GMM对鸢尾花聚类
文章目录数据选取和数据情况利用高斯混合模型聚类模型原理GMM实现k-means生成模型初始参数EM算法迭代训练模型预测模型聚类效果数据选取和数据情况本次聚类实验仍然选取鸢尾花数据集(http://archive.ics.uci.edu/ml/datasets/Iris)数据包含5列,分别是花萼长度、花萼宽度、花瓣长度、花瓣宽度、鸢尾花种类。鸢尾花属种类包含三种:iris-setosa, iris-versicolour, iris-virginica。鸢尾花的种类不参与聚类,最后用于计算准确率作原创 2020-08-09 13:31:33 · 4020 阅读 · 3 评论 -
基于conv-lstm方法预测共享单车需求
基于conv-lstm方法预测共享单车需求终于不用写期末作业了,我来营业了。公众号居然破500关注了,一颗赛艇。本期分享下我们小组的数据挖掘期末(划水)大作业,小组成员还有李天豪and张振同学。主题是:基于conv-lstm方法预测共享单车需求主要参考的论文是:Bao J, Yu H, Wu J, et al. Short-term FFBS demand prediction with multi-source data in a hybrid deep learning framework原创 2020-06-28 16:14:24 · 3773 阅读 · 16 评论 -
利用C4.5算法对鸢尾花分类
文章目录数据选取和数据情况利用C4.5算法分类离散化连续变量C4.5原理C4.5实现应用训练好的决策树分类数据选取和数据情况本次实验选取鸢尾花数据集(http://archive.ics.uci.edu/ml/datasets/Iris)数据包含5列,分别是花萼长度、花萼宽度、花瓣长度、花瓣宽度、鸢尾花种类。鸢尾花属种类包含三种:iris-setosa, iris-versicolour,...原创 2020-04-17 20:54:06 · 5471 阅读 · 14 评论 -
keras中如何将不同的模型联合起来(以cnn/lstm为例)
可能会遇到多种模型需要揉在一起,如cnn和lstm,而我一般在keras框架下开局就是一句model = Sequential()然后model.add ,model.add , ......到最后model.compile(loss=["mae"], optimizer='adam',metrics=[mape])这突然要把模型加起来,这可怎么办?以下示例代码是将c...原创 2020-02-15 22:35:04 · 10422 阅读 · 5 评论 -
如何加载训练完毕后的模型文件继续训练模型
训练完成后得到了模型文件,下一次想接着上次的基础继续进行训练,这可怎么办?小周来支招,打一顿就好了 基于keras框架得到的h5文件 第一次训练模型得到的h5文件:model = Sequential()model.add(LSTM(150, input_shape=(train_x.shape[1], train_x.shape[2]),return_sequences...原创 2020-02-14 23:07:19 · 7580 阅读 · 4 评论 -
tensorflow使用笔记
1.如何利用tensorboard记录训练中的细节过程并可视化概括起来就是利用tf.name_scope命名各个层,各个层的权重,偏置项,再记录在summary里详情点击大佬的知乎文章需要注意的一点是最后想要tensorboard生成可视化的时候,在命令行里的命令末尾注意加上--host=127.0.0.1如:tensorboard --logdir=D:\Python3...原创 2020-01-12 14:27:43 · 247 阅读 · 0 评论 -
做完线性回归后应该知道的知识
线性回归听着很简单,很早也就学过,以前就只会拟合模型,拟合出来看看R方就完事了,到最近一次作业才有一些真正的理解,正好看到一篇不错的文章,转载过来。理解什么是线性回归线性回归也被称为最小二乘法回归(Linear Regression, also called Ordinary Least-Squares (OLS) Regression)。它的数学模型是这样的:y = a+ b* x+...转载 2019-12-08 18:44:07 · 789 阅读 · 0 评论 -
HMM(隐马尔科夫算法)学习笔记1_维特比算法
Q:所有可能隐含状态的集合V:所有可能观测状态的集合S:长度为T的状态序列 O:长度为T的观测序列 A:状态转移矩阵 表示在t时刻处于状态的条件下转移到状态的概率B:观测概率矩阵 表示在t时刻处于状态的条件下生成观测的概率:初始状态概率矩阵 表示在时刻1处...原创 2019-10-12 22:17:37 · 339 阅读 · 0 评论 -
离散数据处理_one-hot编码
毕设想用lstm进行分类,模型的输入是特征数据,输出是分类标签,共5类标签,我最初直接用序号,A,B,C,D,E直接转化为1,2,3,4,5分类效果不好,搜索查到了one-hot编码转化分类标签,离散数据处理也是一样的道理one-hot 编码即独热编码 ,又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都由他独立的寄存器位,并且在任意时候,其中只有一位有效...原创 2019-06-18 14:43:15 · 1086 阅读 · 0 评论 -
Tensorflow中屏蔽warning的方法
本文转自https://www.cnblogs.com/lfri/p/10425631.html问题使用sudo pip3 install tensorflow安装完CPU版tensorflow后,运行简单的测试程序,出现如下警告:I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instruc...转载 2019-06-18 11:31:55 · 3482 阅读 · 0 评论 -
Not An Element Of Tensor Graph(多线程、分布式环境下tensorflowModel的恢复)
Not An Element Of Tensor Graph错误:TypeError: Cannot interpret feed_dict key as Tensor: Tensor Tensor(“Placeholder_2:0”, shape=(500, 500), dtype=float32) is not an element of this graph.Exception i...转载 2019-04-30 14:59:54 · 360 阅读 · 0 评论 -
利用sklearn.svm分类后如何画出超平面
利用sklean的svm模块我们可以很容易做到分类:x_train,x_test,y_train,y_test=model_selection.train_test_split(x,y,random_state=1,test_size=0.3)classifier=svm.SVC(kernel='linear',gamma=0.8,decision_function_shape='ovo'...原创 2019-04-17 20:50:25 · 15562 阅读 · 15 评论 -
Tensorflow中tf.nn.conv2d理解
转载于:https://blog.csdn.net/mao_xiao_feng/article/details/53444333, https://blog.csdn.net/u013713117/article/details/55517458,做了小部分改动函数解释:tf.nn.conv2d(input, filter, strides, paddi...转载 2018-11-03 21:48:41 · 524 阅读 · 0 评论 -
Tensorflow使用正则化避免过拟合
在TensorFlow中使用正则化非常方便,仅需将下面的运算结果加到损失函数后面即可:reg = tf.contrib.layers.apply_regularization(tf.contrib.layers.l1_regularizer(lamda), tf.trainable_variables())reg = tf.contrib.layers.apply_regularizati...原创 2019-03-15 20:42:40 · 361 阅读 · 0 评论 -
基于Keras构建LSTM
前言:之前构建LSTM网络是通过Tensorflow,虽然也不错,可是接触到keras后觉得Keras真香!(虽然Tensorflow为默认后端)Keras是一个高层神经网络API,Keras由纯Python编写而成并基Tensorflow、Theano以及CNTK后端。Keras 为支持快速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras:简易和快速的...原创 2019-03-20 15:39:10 · 6285 阅读 · 13 评论 -
基于TensorFlow构建LSTM
RNN全称循环神经网络(Recurrent Neural Networks),对于处理有序的数据很有效,预测序列化的数据在传统的神经网络模型中,从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多关于时间序列的问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN之所以称为循...原创 2018-11-05 14:29:31 · 21271 阅读 · 12 评论 -
训练集、验证集、测试集以及交验验证的理解
在人工智能机器学习中,很容易将“验证集”与“测试集”,“交叉验证”混淆。一、三者的区别训练集(train set) —— 用于模型拟合的数据样本。 验证集(development set)—— 是模型训练过程中单独留出的样本集,它可以用于调整模型的超参数和用于对模型的能力进行初步评估。 在神经网络中, 我们用验证数据集去寻找最优的网络深度(number of ...转载 2019-03-14 14:12:53 · 475 阅读 · 0 评论