- 博客(125)
- 资源 (10)
- 收藏
- 关注
转载 Java中 Controller、Service 、Dao/Mapper层的区别
Java中 Controller、Service 、Dao/Mapper层的区别
2022-11-08 15:54:03 1047
原创 【Tensorflow】线性模型
线性模型一元线性回归多元线性回归逻辑回归常见的线性模型有两种:线性回归和逻辑回归。线性回归常用语分析变量之间的关系,并试图通过从给定的数据中学习到的信息模型来预测以后的值。一般而言,它预测的结果一般是一个连续值。逻辑回归:也称为对数概率回归,用于判断输入值和比较对象的“是”与“否”关系,逻辑回归本质上而言是一种“分类”算法。一元线性回归import tensorflow as tf...
2020-01-16 16:38:05 430
原创 【TensorFlow】之基本运算
算术运算符加法tf.addtf.math.add减法tf.subtract乘法tf.multiplytf.scalar_mul除法tf.div加法tf.addtf.add(x,y,name=None)参数说明:x:一个张量,必须是下列类型之一:bfloat16/half/float32/uint8/int8/int16/int32/int64/complex64/complex128/...
2020-01-16 14:24:37 484
原创 机器学习之模型融合(详解Stacking,Blending)
模型融合Ensemble Generation常见模型融合的方法boostingbaggingStackingblending各种模型融合的区别集成学习和多模型融合的区别集成学习是指多个弱分类器(子模型)集成为强分类器,这种弱分类器是同质的分类器,比如GBDT,Adaboost,RF等。根据弱分类器之间的关系,可以分为相关(第i个弱分类器依赖于第i-1个弱分类器)和独立(每个弱分类器相互...
2020-01-16 13:49:36 5233 4
转载 机器学习算法集锦:从贝叶斯到深度学习及各自优缺点
转载自:https://zhuanlan.zhihu.com/p/25327755在我们日常生活中所用到的推荐系统、智能图片美化应用和聊天机器人等应用中,各种各样的机器学习和数据处理算法正在尽职尽责地发挥自己的功效。本文筛选并简单介绍一些最常见的算法类别,还为每一个类别列出了一些实际算法并简单介绍了它们的优缺点。相关连接:https://static.coggle.it/diagram/...
2020-01-14 17:20:37 1030
原创 【TensorFlow】基本概念篇
文章目录Tensor(张量)Variable(变量)Placeholder(占位符)Session(会话)Operation(操作)Queue(队列)QueueRunner(队列管理器)Coordinator(协调器:线程之间的同步)Tensor(张量)Tensor用于在图中进行数据传递,是Tensorflow中最基本的数据结构。张量生成方法:固定张量:例如,tf.zeros、tf.on...
2020-01-10 14:04:00 215
原创 训练集、测试集、验证集与交叉验证
引言当我们训练好一个模型时,我们不只希望这个模型只在训练集上表现的好,更重要的是希望这个模型后续能表现的好
2019-12-17 16:38:34 2059 1
原创 相关性分析(二)之离散特征
信息熵基础xix_ixi的自信息: 反映特征的某个值,具有非负、单调减、可加和不确定性。表示收到某消息获得的信息量(即,收到某消息后获得关于某事件发生的信息量),公式如下:I(xi)=f[p(xi)]=−logrp(xi),r=2I(x_i)=f[p(x_i)]=-log_rp(x_i),r=2I(xi)=f[p(xi)]=−logrp(xi),r=2条件的自信息量:I(xi...
2019-12-16 16:25:57 3922
原创 相关性分析(一)之连续特征
相关性分析分析两个特征的相关程度叫做相关性分析,比如“身高”与“体重”两个特征,就可以使用相关性分析找到两者的相关关系。正相关/负相关/不相关图表分析两组数量不大的数据时,可以用图表法,常见的图表法有以下两种:折线(时间维度):双坐标折线图散点图图表可以清晰的展现相关关系,但无法准确度量,且缺乏说服力。协方差协方差公公式如下:x和y分别表示的是两个特征,这两个特征都有n条:...
2019-11-29 14:58:44 1075
原创 样本相似度度量
样本相似度度量分类时,有时需要估算样本之间的相似度,这时候就需要进行相似度度量。常见的相似度度量有以下几种:欧氏距离两个样本a(x11, x12, x13, … ,x1n)和b(x21, x22, x23, x2n)的欧氏距离:欧氏距离基于各维度特征的绝对数值,因此欧氏距离需要保证各维度指标在相同的刻度级别标准化欧氏距离标准欧氏距离是针对欧氏距离的缺点而作的一种改进。其基本思路为...
2019-11-07 11:14:05 5720
转载 【SQL学习】必须掌握的29种SQL语句优化
转载自:https://www.cnblogs.com/Little-Li/p/8031295.html对查询进行优化,应尽量避免全表扫描,首先应考虑在where及order by 涉及的列上建立索引。应尽量避免在where子句中使用!=或<>操作符,否则引擎将放弃使用索引而进行全表扫描。如:应尽量避免在where子句中对字段进行null值判断,否则将导致引擎放弃使用索引而进行...
2019-07-08 14:31:06 283
转载 GitLab工具之SmartGit
破解smartgit需要输入序列号解决方法,找到路径:%APPDATA%\syntevo\SmartGit<main-smartgit-version> 然后删除: settings.xml 再重新打开smartgit。步骤一:windows+R,输入%APPDATA%\syntevo\SmartGit\查找,或直接输入地址在文件夹栏输入:找到18.2文件夹内的setting...
2019-07-01 16:18:34 2250
转载 【Tensorflow】防止过拟合之正则化
Referencehttps://stackoverflow.com/questions/41841050/tensorflow-adding-regularization-to-lstm?noredirect=1&lq=1https://blog.csdn.net/huqinweI987/article/details/82957034防止过拟合之正则化原理1. L2正则化原理...
2019-04-29 16:50:21 1135 1
原创 linux基础知识之常见的问题[深度学习版]
Linux基础知识之常见坑Python安装1. Python安装第三方库,超时报错—Read timed out2. ImportError: cannot import name pywrap_tensorflowPython安装1. Python安装第三方库,超时报错—Read timed out1. 问题描述Traceback (most recent call last):Fil...
2019-04-26 10:57:59 257
原创 linux基础知识之常用命令[深度学习版]
linux基础知识之常用命令Linux系统的文件(一) 编辑器中的行号(二)文件内容搜索(三)查看 文件/文件夹 的修改时间python中的库(一)查看python中库的版本及其安装路径磁盘空间(df、du)(一)查看磁盘空间使用情况GPU(一)查看GPU的使用情况(二)tensorflow中指定CPU/GPU使用GPUsLinux系统的文件(一) 编辑器中的行号设置行号:在vi或者vim...
2019-04-26 10:35:18 807
转载 linux基础知识之环境变量
linux基础知识之环境变量(一)Linux下的变量1. Linux的变量种类2. 设置变量的三种方法3. 环境变量的查看4. 环境变量的删除(unset)常用的环境变量PATHLD_LIBRARY_PATH参考资料:新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPant...
2019-04-24 11:10:40 263
转载 LSTM神经元中参数个数
LSTM的神经元个数1. LSTM简单介绍上图中间位置就是一个LSTM cell,红框框从左到右,依次是:忘记门层: 决定从细胞状态中丢弃什么信息,通过当前时刻输入(xtx_{t}xt)和前一个时刻输出(ht−1h_{t-1}ht−1)决定。细胞状态: 确定并更新新消息到当前时刻的细胞状态中。输出门层: 基于目前的细胞状态决定该时刻的输出。2. 简单假设样例假设现有一个样本,S...
2019-04-23 17:03:30 6976 2
原创 数据预处理(三)数据变换
文章目录数据变换一、特征二值化二、特征归一化(一)、总和标准化(二)、标准差标准化(三)、极大值标准化(四)、极差标准化(区间放缩法,0-1标准化)三、连续特征变换四、定性特征哑编码:One-hot编码数据变换数据变换即对数据进行规范化处理,以便于后续的信息挖掘。常见的数据变换包括:特征二值化、特征归一化、连续特征变化,定性特征哑编码等。一、特征二值化特征二值化的核心在于设定一个阈值,将特...
2018-11-27 10:24:12 19159
原创 数据预处理(一)直观分析
一、直观分析:作图通过作图可以观察数据的分布情况,一般观察图上的几点:找到数据的平均值、标准差、众数、中位数、置信区间、局部峰值等分析数据变化情况及变化的原因。...
2018-11-02 16:46:52 587
原创 数据预处理(二)数据清理
文章目录一、直观分析:作图二、数据清理数据去重错误数据纠正格式标准化异常值处理三、数据变换特征二值化特征归一化连续特征变换特征哑编码四、特征离散化五、数据集成六、正负样本均衡一、直观分析:作图二、数据清理数据去重错误数据纠正格式标准化异常值处理三、数据变换特征二值化特征归一化连续特征变换特征哑编码四、特征离散化五、数据集成六、正负样本均衡...
2018-11-02 16:46:28 1554
原创 机器学习思维导图
机器学习思维导图机器学习思维导图思维导图解释需求分析与数据获取数据预处理特征工程算法模型模型评估机器学习思维导图思维导图解释需求分析与数据获取在需求分析与数据获取中,我们往往要考虑以下几个方面:确定模型目标根据目标得到所需的相关因素?特征的定义方式(比如,一周用户心情,是要取平均值还是方差呢)?这些特征该是连续的还是离散的呢?离散特征应该如何划分比较合理?对于数据...
2018-11-01 14:12:18 10196
原创 深度学习笔记——理论与推导之Reinforcement Learning(十三)
Reinforcement Learning(强化学习)Reinforcement Learning机器学习的分支: 有监督学习是机器学习任务的一种,它从有标记的训练数据中推导出预测函数。有标记的训练数据是指每个训练实例都包括输入和期望的输出。即:给定数据,预测标签。 无监督学习是机器学习任务的一种,它从无标记的训练数据中推断结论。最典型的无监督学习就是聚类分析,它可以在探索性数据分析阶段用于
2017-08-16 13:20:30 7965 1
原创 深度学习笔记——理论与推导之Structured Learning【NLP】(十二)
Language TechnologyMeaning of Word(一个vector表示一个word)Predicting the next word给一串sequence of words,预测下一个单词 我们现在要做的就是将wi-1和wi-2描述成一个feature vector,1- of -N encoding: 假设只要对着几个词汇做word2vec:lexicon = {apple,
2017-08-15 11:43:33 759
原创 深度学习笔记——理论与推导之Structured Learning【Markov Logic Network】(十一)
Markov Logic NetworkGraphical Model是Structured Learning里一种用Graph描述evaluation的方式。Graphical Model有很多中,比如深度学习笔记——理论与推导之Structured Learning【Markov Random Field】(十)中的Factor Graph和MRF都是属于Undirected Graph,Ma
2017-08-14 14:53:08 3864 2
原创 深度学习笔记——理论与推导之Structured Learning【Markov Random Field】(十)
Graphical Model & Gibbs Sampling(Sturctured Learning) Graphical Model是Structured Learning中的一种。Structured Learning复习 Structured Learning中两个存在困扰的地方: 1. 如何设计feature vector(即Φ(x,y)): 2. Inference
2017-08-10 17:03:54 2228 1
原创 深度学习笔记——理论与推导之Structured Learning【Learning with Hidden Information】(九)
引言: Different Kinds of Learning: 1. Supervised Learning: Data: 2. Semi-supervised Learning Data: 3. Unsupervised Learning Data: 4. Hidden variable Learning Data:Example A
2017-08-10 11:45:12 1918
原创 深度学习笔记——理论与推导之Structured Learning【Sequence Labeling Problem】(八)
Sequence Labeling(序列标注问题),可以用RNN解决,也可以用Structured Learning(two steps,three problems)解决 常见问题: - POS tagging(标记句子中每个词的词性): 如:John saw the saw–>PN V D NHidden Markov Model(HMM)问题引入生成一个
2017-08-10 11:45:00 3408
原创 深度学习笔记——理论与推导之Structured Learning【Structured SVM】(七)
Separable case1. 定义:2. 用来计算weight的Structured Perceptron演算法:如果我们能找到一个满足上图的feature function,那么我们就可以用Structured Perceptron演算法找到我们所要的weight(这些在深度学习笔记——理论与推导之Structured Learning【Structured Lin
2017-08-10 11:44:48 3755
原创 深度学习笔记——理论与推导之Structured Learning【Structured Linear Model】(六)
Structured LearningSturctured Learning 引入定义: 输入X,输出Y 都是有结构的对象(objects with structures)Object:例如sequence,list,tree,bounding box等函数:
2017-08-10 11:44:24 3983
原创 深度学习笔记——理论与推导之RNN的训练过程BPTT(五)
Training RNN——BPTT 由于RNN和时间序列有关,因此我们不能通过Backpropagation来调参,我们使用的是Backpropagation through time(BPTT)回顾Backpropagation Backpropagation through Time(BPTT)我们可以将RNN变成如下形式: 参照之前的BP我们发现,反向传播
2017-08-10 11:43:39 4360 3
原创 深度学习笔记——理论与推导之Neural Network的记忆力(四)
Neural Network with Memory 记忆力的重要性:如进位这个问题,你可以设计如下模型来实现这个记忆力: 如上图所示,左边的神经元是将两个数字相加后,如果大于10则输出1,反之输出0,输出后存在Memory cell里一份,然后将值乘以-10做为红色神经元的输入;右边的神经元则是将输入相加,相加后做为红色神经元的输入,红色神经元则是将左右两个输入相加。如,现在传入
2017-08-10 11:43:20 740
原创 深度学习笔记——理论与推导之DNN(三)
DNN目录激励函数(ReLU以及ReLU的变形,梯度消失问题)成本函数 数据处理优化一般化激励函数:Rectified Linear Unit(ReLU)选择Relu的原因: 计算速度快生物原因类似于具有不同偏差的无限个sigmoid可以解决梯度消失问题sigmoid的问题(梯度消失问题): sigmoid function的微分函数是蓝色
2017-08-10 11:43:02 1229
原创 深度学习笔记——理论与推导之Backpropagation(二)
Backpropagation(反向传播):背景——Cost Function与Gradient DescentCost Function: Gradient Descent: backpropagation是一种高效计算网络中gradient的方法对权重wij求偏导由于C的变化与z有关,z的变化与w有关,因此,需要分为如下两部分求解: z对w求偏导: z对
2017-08-10 11:42:22 1855 3
原创 深度学习笔记——理论与推导之概念,成本函数与梯度下降算法初识(一)
一、机器学习介绍 1. 概念:Learning ≈ Looking for a Function 2. 框架(Framework): 3. What is Deep Learning? - 比起过去的语音识别技术,DeepLearning的所有function都是从数据中进行学习的。 - 深度学习通常指基于神经网络的方法。 二、只有一个神经元的机器学习:
2017-08-10 11:41:56 4948
原创 在Ubuntu上配置TensorFlow,Eclipse+PyDev遇到的问题
TensorFlow 1. install:http://blog.csdn.net/wizen641372472/article/details/72675549Problem: E: Could not get lock /var/lib/apt/lists/lock - open (11: Resource temporarily unavailable) http://www
2017-07-21 18:03:02 956
原创 TensorFlow代码实现(二)[实现异或门(XOR)]
第一个实验:用神经网络实现异或门 测试数据如下: [0,0]->[0] [1,0]->[1] [1,1]->[0] [0,1]->[1] 数据量很小,但异或门远没有我想象的好写,原来在第一层的时候我使用的激活函数是relu,第一层有两个神经元;输出层使用的激活函数是softmax;学习率是0.01;loss function选的是梯度下降算法,weights和biases都是随机产生的非
2017-07-14 17:32:42 4741 2
原创 深度学习笔记——深度学习框架TensorFlow之MLP(十四)
MLP多层感知器的使用,多层感知器,常用来做分类,效果非常好,比如文本分类,效果比SVM和bayes好多了。感知器学习算法基本介绍单层感知器: 感知器(Single Layer Perceptron)是最简单的神经网络,它包含输入层和输出层,而输入层和输出层是直接相连的。 上图是一个单层感知器,很简单的结构,输入层和输出层直接相连。 下面介绍一下如何计算输出端: 利用格式1计算输
2017-07-12 11:09:33 4748
原创 深度学习笔记——深度学习框架TensorFlow之DNN深度神经网络的实现(十四)
DNN与CNN的本质差不多,只不过CNN加上了卷积层C以及池化层。做了卷积操作,参数共享减少了网络之间的连接参数。DNN就是去掉C之后,使用全连接层+dropout下降+relu激活,一层一层的WX+B的网络模式。
2017-07-11 18:00:47 2144
原创 深度学习笔记——深度学习框架TensorFlow之Model(十三)
TensorFlow的模型存储,恢复与使用在tensorflow中保存 模型 恢复模型的 类是tf.train.Saver() 默认 是所有的变量 当不传参数,默认就是所有的变量 保存模型:#save(sess,save_path,...)save_path = saver.save(sess,"/root/alexnet.tfmodel")从文件中恢复模型(此时restore恢复
2017-07-11 16:54:32 864
ADT23part2
2016-01-20
ADT23.0.0part1
2016-01-20
hibernate-annotations-3.4.0.GA与slf4j-1.5.8.zip
2014-07-02
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人