自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 Reinforcement Learning: An Introduction 2nd Edition(强化学习)英文原文读后感

利用大约120小时左右的时间,看完了这本书的英文原文,对强化学习入门都至关重要,可以系统全面的帮我们入门,刚开始到前八章,都能看懂,但是就是不知道为什么这么干,令人有些不适,直到第九章才慢慢了解作者的思路或者RL发展的历史过程。敬请期待后续更新…...

2019-08-06 16:26:51 837

原创 numpy 切片:整切与索引切片

代码:x = np.arange(12).reshape(3,4)print('整切:\n',x[:,[2,3]])# 整切:目标为整行整列# print(x[[0,1,2],[1,2]]) 索引切片:维度不同会报错print('索引切片:\n',x[[0,1,2],[1,2,3]])输出整切: [[ 2 3] [ 6 7] [10 11]]索引切片: [ 1 6 1...

2019-09-20 15:50:24 179

原创 tf.gradients/optimizer.compute_gradients/optimizer.apply_gradients 联合使用极简demo

代码tf.reset_default_graph()optim = tf.train.AdamOptimizer(0.01)a = tf.Variable(initial_value=0.,name='a')b = 2*ay = a+btvars = tf.trainable_variables()# grads = tf.gradients(y,tvars)# app = op...

2019-09-19 14:26:43 3280

原创 tf.nn.moments笔记: axes到底咋回事?

x = np.arange(12,dtype=np.float32).reshape(3,4)a = tf.nn.moments(tf.constant(x),[0])b = tf.nn.moments(tf.constant(x),[1])# 相当于展开[0,1]维度, 在所有数上计算均值和方差c = tf.nn.moments(tf.constant(x),[0,1])d = tf....

2019-09-19 11:34:43 714 1

原创 [xgboost]自定义目标函数推导

XGboost 以下自定义目标函数经常用def log_reg(y_hat,y): p = 1.0/(1.0+np.exp(-y_hat)) g = p - y.get_label() #一阶梯度 gradient h = p*(1.0-p) #二阶导hession return g,h下面进行推导:逻辑回归形式:hθ(x)h′θ(x)p(y=1...

2018-08-04 15:58:56 1405 1

转载 一张表说明判别模型和生成模型的区别与联系

类别 判别模型 生成模型 特点 在有限样本下建立判别函数,寻找不同数据间的最优分类面,目标是实现分类 首先建立样本的联合概率分布,再利用模型推理预测。要求已知样本无穷或尽可能的大 区别 估计条件概率分布p(y|x)p(y|x)p(y|x) 估计联合概率分布p(x,y)p(x,y)p(x,y) 联系 生成模型可推导出判别模型 判别模...

2018-07-29 22:48:37 677

原创 sigmoid/逻辑回归/多元逻辑回归/softmax 区别

sigmoid function:二项逻辑回归 (binomial logistic regression model):多元逻辑回归(multi-nomial logistic regression model):多分类,Y的取之集合为{1,2,...,K}softmax :...

2018-07-28 23:39:26 2730

原创 [NLP]发现新词

思路:1、对新文本进行对其断句、分词、去除停用词,2、计算文档的二阶共现、三阶共现、四阶共现频率 3、发现两个字符串合并的新词:针对统计的二阶共现频率,计算词语的互信息:左右熵:基于对应三阶共现结果将结果进行加权求和,最后排序,根据经验阈值确定新词,然后使用词典过滤后加入词典4、发现三个字符串合并的新词,与3 同理,统计三阶共现概率互信息计算需要 对n-gr...

2018-07-26 17:40:58 1329

原创 [stanford NLP] 原理小结

1、中文分词包:Stanford Word Segmenter ,基于crf模型实现论文:Huihsin Tseng, Pichuan Chang, Galen Andrew, Daniel Jurafsky and Christopher Manning. 2005. A Conditional Random Field Word Segmenter. In Fourth SIGHAN Wo...

2018-07-26 10:35:30 1143

原创 [论文翻译]A Fast and Accurate Dependency Parser using Neural Networks

论文地址:https://cs.stanford.edu/~danqi/papers/emnlp2014.pdf论文名称:一种使用神经网络(三层)的精准快速的依存句法分析特征提取是基于Transition-based Dependency Parsing 基于转移的依存句法分析,从而可以有效精简特征数量例如:词特征18个:1、栈区和缓存区分别提取前三个词  合计6个特征...

2018-07-25 18:02:22 1287 2

转载 [MCMC]马尔科夫链蒙特卡罗方法

  1 蒙特卡罗方法:假设某个分布近似样本分布,通过接受-拒绝方法进行采样2 MCMC:1)输入我们任意选定的马尔科夫链状态转移矩阵QQ,平稳分布π(x)π(x),设定状态转移次数阈值n1n1,需要的样本个数n2n22)从任意简单概率分布采样得到初始状态值x0x03)for t=0t=0 to n1+n2−1:         a) 从条件概率分布Q(x|xt)Q(x|...

2018-07-20 10:13:50 592

原创 LDA 精简笔记

2018-07-19 20:42:31 107

原创 [CRF] 条件随机场 统计学习方法例11.3 代码实践

def viterbi_CRF(y, t, s): """ 统计学习方法例11.3 :param y: 输出序列 :param t: 转移特征 [序列*y标记矩阵*[yi-1,yi]] :param s: 状态特征 [序列*y标记] :return: 最优路径的状态索引、概率最大值矩阵、节点矩阵 """ y_lable = len(t...

2018-06-30 20:32:30 372

原创 [最优化]牛顿法和拟牛顿法

针对 无优化问题:min f(x)  (f(x)二阶可导)牛顿法:对原函数进行二阶泰勒展开 ,在对展开式求一阶梯度▽f(x),并令▽f(x)=0,得 令x=xk 获得迭代公式,每次迭代可求得较小的值的x拟牛顿法:因为 海森矩阵求逆比较复杂,使用符合▽f(x)=0条件的矩阵代替...

2018-06-29 17:59:21 559

原创 [机器学习] 熵、交叉熵、相对熵、互熵、KL散度、互信息、信息增益、条件熵 根本区别与联系!

2018-06-27 15:50:48 1490

原创 [HMM]统计学习方法 隐马尔科夫模型 例10.3 维特比算法代码实现

# !/usr/bin/python# -*- coding:utf-8 -*-import numpy as npdef optimal_path_viterbi(pi,A,B,O): """ :param pi: 初始概率 :param A: 状态转移概率 :param B: 观测概率 :param O: 观测序列 :return:...

2018-06-26 13:36:12 268

原创 [tensorflow] 一句话揭露 tf.Variable() 和tf.get_variable()、tf.name_scope()和tf.variable_scope() 的本质区别!

tf.Variable() :局部变量。    特点:永远生成新的变量,不会与已存在的variable重名tf.name_scope():局部空间。    特点:永远生成新的命名空间,不会与已存在的name_scope冲突 ,也就是说name_scope也是局部的、临时的tf.get_variable():全局变量。    特点:可共享,不能重复,解决了众多方法调用时 参数来回传递的困境, tf....

2018-06-06 11:02:35 579

原创 [CNN] 卷积神经网络中feature map和卷积核个数的概念解释

feature map(下图红线标出) 即:该层卷积核的个数,有多少个卷积核,经过卷积就会产生多少个feature map,也就是下图中 `豆腐皮儿`的层数、同时也是下图`豆腐块`的深度(宽度)!!这个宽度可以手动指定,一般网络越深的地方这个值越大,因为随着网络的加深,feature map的长宽尺寸缩小,本卷积层的每个map提取的特征越具有代表性(精华部分),所以后一层卷积层需要增加featur...

2018-06-05 14:01:18 25912 13

原创 [leetcode] 72.Edit Distance 编辑距离-史前最简明清晰的解答

题目:给定两个单词 word1 和 word2,计算出将 word1 转换成 word2 所使用的最少操作数 。你可以对一个单词进行如下三种操作:插入一个字符删除一个字符替换一个字符输入: word1 = "horse", word2 = "ros"输出: 3解释: horse -> rorse (将 'h' 替换为 'r')rorse -> rose (删除 'r')ros...

2018-04-25 23:39:54 662

原创 [spark] macbookpro 本地单节点配置standalone 模式任务出现无限等待的解决办法

问题描述:本地配置spark standalone 模式 下边的日志 无限 重复打印 webUI 显示WAITING 2018-04-11 13:37:23 WARN  TaskSchedulerImpl:66 - Initial job has not accepted any resources; check your cluster UI to ensure that workers are...

2018-04-11 16:16:46 739 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除