训练
rebirth_2020
这个作者很懒,什么都没留下…
展开
-
CRF Layer on the top of BiLSTM-5_trans
https://createmomo.github.io/2017/11/11/CRF-Layer-on-the-Top-of-BiLSTM-5/ 在4中解释了如何计算S(i),在这节中说明如何计算P(total) P(total)可以直接求解,但是效率非常低。 根据之前的loss定义,我们加上一个log,会变成了负数,再加上一个负号,求当前loss的最小值了。【和P(real)/P(total...翻译 2020-02-25 23:10:21 · 167 阅读 · 0 评论 -
CRF Layer on the top of BiLSTM-4_trans
https://createmomo.github.io/2017/10/17/CRF-Layer-on-the-Top-of-BiLSTM-4/ 2.3中,假设每个可能的标注序列有一个分值P(i),一共有N个可能的标注序列,总分值为如下: 很明显在N条可能的路劲中必然有一条是真正的标注序列。例如在1.2的例子中START B-Person I-Person O B-Organization O...翻译 2020-02-25 23:00:04 · 129 阅读 · 0 评论 -
CRF Layer on the top of BiLSTM-3_trans
https://createmomo.github.io/2017/10/08/CRF-Layer-on-the-Top-of-BiLSTM-3/ CRFloss由真实标签序列分数和所有可能标签序列的分值组成。真实标签序列的分数在所有可能的标签序列中,应当是得分最高的一个。 如下图所示,假设一个句子由5个单词组成,这个句子的所有标签序列的可能结果有N个,第i个标签序列的分值为p(i)。 那么总分...翻译 2020-02-25 22:54:05 · 147 阅读 · 0 评论 -
CRF Layer on the top of BiLSTM-2_trans
https://createmomo.github.io/2017/09/23/CRF_Layer_on_the_Top_of_BiLSTM_2/### ### 回顾: CRF层可以对训练集进行训练,得到一个最终的概率最高的标签序列。 CRF layer 在CRF lyaer的loss函数中,有两种score。一种是发射(emission)score,一直是转移(transition)score。...翻译 2020-02-25 22:38:41 · 178 阅读 · 0 评论 -
CRF Layer on the top of BiLSTM-1_trans
https://createmomo.github.io/2017/09/12/CRF_Layer_on_the_Top_of_BiLSTM_1/ 概览 介绍 在NER任务中,BiLSTM后接的CRF层 详细解释CRF层运作step-by-step 使用chainer完成一个CRF层 知识储备 只需要了解什么是NER即可(通俗地说,只要是用户想要了解的实体,即可以认为是实体识别)。在文中将会提...翻译 2020-02-25 22:30:54 · 218 阅读 · 0 评论 -
分类模型_数据整理
1- make_classification 构造虚拟数据集,主要通过n_samples,n_features, n_classes,weights来进行构建,后期可能会使用到n_redunant和n_informative等进行特征之间相关度的分析。 X,y=datasets.make_classification( n_samples=2000, n_features=1...原创 2019-05-12 21:11:10 · 547 阅读 · 0 评论 -
gbdt
参考:https://www.cnblogs.com/pinard/p/6140514.html 前向分布算法 就是一步一步计算每个弱学习器的参数的思想,和boosting相同。 负梯度拟合 负梯度拟合就是在某个弱学习器得到的结果和真实值之间的误差的基础上,在减少这个误差的方向上构建新的CART回归树做一个拟合。由于负梯度是函数对变量进行求导,所以对原生的分类问题没办法做处理,需要对分类问题转换为...原创 2019-04-07 13:44:30 · 163 阅读 · 0 评论 -
xgboost总结
参考:https://blog.csdn.net/xiu351084315/article/details/89192983 算法原理 xgboost是在gbdt的基础上做了一些优化。 gbdt是基于CART的集成算法,使用回归树,可以处理分类和回归问题,通过每轮样本训练的训练,不断减小残差,修正合适的损失函数来构建树。 xgboost在损失函数中引入了正则项,减少过拟合;将一阶导数改为二阶导数;...原创 2019-04-10 21:33:16 · 117 阅读 · 0 评论 -
随机森林算法梳理
参考:https://www.cnblogs.com/pinard/p/6131423.html 集成学习 集成学习面对的是一个强学习器,由多个个题学习器,通过一定的策略组合而成。 个体学习器 分为两种: 同质学习器(同类算法得到的模型) 通常使用CART决策树和神经网络等,根据模型之间的关联强度分为两种: 强关联 串行,例子boosting 弱关联 并行,例子bagging和随机森林 ...原创 2019-04-04 20:08:09 · 454 阅读 · 0 评论 -
asm训练(纯小白文高手勿看)
1.首先prepare.sh是不能用的,下载不了,简单看下里面的代码就能明白作用是下载,遍历下载文件提取的,那么手动下载好放到指定位置即可。 2.然后根据readme里面的步骤1 ./prepare.sh即可。会有几个list文件生成。需要在编译的时候在最后加上 `pkg-config --cflags --libs opencv`。这个时候会发现作者写的许多库不对,刚开始以为链接问题,各种原创 2016-10-22 20:42:35 · 632 阅读 · 0 评论 -
am_tools timface学习
前几天有点乱,不过总算是努力看了的没白看。导师让换课题,幸好里面的技术还是沿用了。 看了两天asm,找到am_tools,然后想先跑通了,差不多从昨天这个时候开始跑,到现在终于通了。下午再详细看是怎么回事,期间遇到一些小问题,依依写出来,为记录也为分享。以下是参考的两个网址,1个中文一个英文,不得不说中文给了很大帮助,但一定要继续像英文转化,毕竟经过翻译会有一些出入或者错误。 http://w原创 2016-06-15 12:05:23 · 1248 阅读 · 0 评论 -
opencv批量切割图片
在获取负样本时就算用Ps进行切片也比较麻烦,上了几千就麻烦的要死,好吧,网上找合适的程序好麻烦,自己动手写了个小程序。由于不熟悉,参考别人的代码,直接上 `#includeincludeinclude原创 2016-06-03 16:29:34 · 1103 阅读 · 0 评论 -
opencv训练过程中遇到的小问题
1.首先是正负样本的选取,虽然找了一个数据集,正样本用qq截图获取,负样本用ps切图。切图保存路劲下不能有中文...而且保存之后格式为gif的,需要用格式工厂转为bmp,单纯修改后缀是没有用的。 2.跟着百度一布一步来的,但是想当然给负样本也标记了位置信息,其实是不需要的...导致后来训练失败。链接为:http://jingyan.baidu.com/article/4dc40848f50689原创 2016-06-03 08:53:04 · 493 阅读 · 0 评论