- 博客(18)
- 资源 (1)
- 问答 (4)
- 收藏
- 关注
原创 【Linux】wc/cut/nohup/grep/
wc -l xxx 统计xxx文件的行数➜ address_v5_filter lsconfig4 rnn_attention.py try.pyfeature.py total_mob2_uniq v5➜ address_v5_filter wc -l config4 23 config4备注:config4中有23行内容Linu...
2019-04-21 18:03:25 232
原创 【Python】Python面向对象
封装,继承,多态是面向对象的三大特点。类和实例小结:类是创建实例的模板,而实例则是一个一个具体的对象,各个实例拥有的数据都互相独立,互不影响;方法就是与实例绑定的函数,和普通函数不同,方法可以直接访问实例的数据;通过在实例上调用方法,我们就直接操作了对象内部的数据,但无需知道方法内部的实现细节。和静态语言不同,Python允许对实例变量绑定任何数据,也就是说,对于两个实例变量,...
2019-04-21 11:39:12 524
原创 【机器学习】Xgboost(上)理论和安装
xgboost对应的模型是什么?答案就是一堆CART树。(也可以是其他线性模型)机器学习算法中 GBDT 和 XGBOOST 的区别有哪些? - wepon的回答 - 知乎 xgboost为什么使用CART树而不是用普通的决策树呢?简单讲,对于分类问题,由于CART树的叶子节点对应的值是一个实际的分数,而非一个确定的类别,这将有利于实现高效的优化算法。xgboost出名的原因一是准,二是...
2019-04-20 21:39:26 362
原创 【笔试】选择题
下面有段数字处理函数的伪代码,阅读后,请给出handle(12354)的返回值1handle( num ){ result = 0; i = num; while (i !=0 ) { i = i/10*10; result = result * 10 + num - i; i = i ...
2019-04-20 14:32:16 924
原创 【机器学习】密度聚类DBSCAN与异常检测
聚类有以下几种(1)K均值聚类步骤:1.随机选择k个样本作为初始均值向量;2.计算样本到各均值向量的距离,把它划到距离最小的簇;3.计算新的均值向量;4.迭代,直至均值向量未更新或到达最大次数。缺点:需要输入k,算法速度依赖于初始化的好坏,不能处理非球形簇。(2)密度聚类步骤:DBSCAN,找到几个由密度可达关系导出的最大的密度相连样本集合。1.找到任意一个核心点,对该核心点进行扩充;2....
2019-04-20 13:49:15 3494
原创 【Tensorflow】TensorFlow 保存模型为 PB 文件
参考:TensorFlow 保存模型为 PB 文件 - lonlon ago的文章
2019-04-19 17:06:56 1116
原创 【Tensorflow】指定GPU训练
以下假设使用第3块GPU训练1.在代码中添加第一种方法:tf.device(‘/gpu:2’)第二种方法:import osos.environ[‘CUDA_VISIBLE_DEVICES’]=’2’如果要指定1,3块GPU来训练,则:os.environ[‘CUDA_VISIBLE_DEVICES’]=’0,2’2.在命令中添加CUDA_VI...
2019-04-19 16:57:41 15682
原创 【机器学习】GBDT梯度提升树
梯度提升树(Gradient Boosting Decison Tree, 以下简称GBDT)属于Boosting家族。在解决回归问题时,如果损失函数是均方误差损失函数则求解残差为(真实值-预测值)。但是当损失函数是其他的时候,我们用损失函数的负梯度在当前模型的值,将它作为残差的估计。对于平方损失函数,它就是所说的残差;对于一般损失函数,它是残差的近似。对于二分类问题,提升树(注意是...
2019-04-14 21:12:01 1581 1
原创 【机器学习】决策树
1、决策树概念决策树也称为分类树(分类)或者回归树(数值预测)。是一种有监督的机器学习算法,是一个分类算法。在给定训练集的条件下,生成一个自顶而下的决策树,树的根为起点,树的叶子为样本的分类,从根到叶子的路径就是一个样本进行分类的过程。决策树:是一个树结构(可以是二叉树或非二叉树)。其每个非叶节点表示一个特征属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别...
2019-04-10 15:34:15 967
原创 【深度学习】Dropout
Dropout是通过修改神经网络本身来解决过拟合问题。为什么dropout对于过拟合有效果?dropout的训练过程,相当于训练了很多个只有半数隐层单元的神经网络(后面简称为“半数网络”),每一个这样的半数网络,都可以给出一个分类结果,这些结果有的是正确的,有的是错误的。随着训练的进行,大部分半数网络都可以给出正确的分类结果,那么少数的错误分类结果就不会对最终结果造成大的影响。Hintion的直观解释和理由如下: 1. 由于每次用输入网络的样本进行权值更新时,隐含节点都是以一定概率随机出.
2019-04-10 09:48:28 335
原创 【Linux】ps/aux/uniq/awk/sed/top
一、psLinux ps命令用于显示当前进程 (process) 的状态# ps -ef //显示所有命令,连带命令行利用 ps 怎么显示所有的进程?ps -ef (system v 输出)各列的含义如下:UID //用户ID、但输出的是用户名PID //进程的IDPPID //父进程IDC //进程占用CPU的百分比STI...
2019-04-07 17:38:35 681 1
原创 【Python】itertools内置函数
permutations import itertools# from itertools import permutations# permutations返回list的全排列print(list(itertools.permutations([1, 2, 3])))# 后一位2# [(1, 2), (1, 3), (2, 1), (2, 3), (3, 1), (3, 2)...
2019-04-07 12:18:49 1001
原创 【机器学习】VC维
VC维的直观定义对一个指示函数集,如果存在h个样本能够被函数集中的函数按所有可能的2^h种形式分开,则称函数集能够把h个样本打散。 函数集的VC维就是它能打散的最大样本数目h。 若对任意数目的样本都有函数能将它们打散,则函数集的VC维是无穷大。VC维是一个评判模型复杂程度的工具。VC维越大则模型的复杂度越高。线性函数的VC维VC维:将N个点进行分类,如分成两类,那么可以有2^N...
2019-04-06 14:41:11 4546
原创 【深度学习】初始化参数
TensorFlow的过程中初始化参数的时候要注意哪些?感觉这道题就是问“神经网络参数初始化需要注意哪些问题”观察sigmoid的函数其输出值在0-1之间,而x过大时,激活函数会变得很平缓,也就是斜率很小,这样不利于学习新的权重。观察上面计算更新权重值的表达式,权重的更新取决于激活函数的梯度,梯度太小限制神经网络的学习能力,也就是所谓的饱和神经网络。因此我们不应该让输入值太...
2019-04-05 19:33:11 467
原创 【计算机视觉】CTPN算法
CTPN的网络结构(图1):Fig. 1: (a) Architecture of the Connectionist Text Proposal Network (CTPN). Wedensely slide a 3×3 spatial window through the last convolutional maps (conv5)of the VGG16 model [27]....
2019-04-05 16:49:47 3226 4
原创 【Tensorflow】基本概念复习
TensorFlow 中的几个关键概念:Tensor,Operation,Graph,Session前言:TensorFlow是一种符号式编程框架,首先要构造一个图(graph),然后在这个图上做运算。打个比方,graph就像一条生产线,session就像生产者(人)。生产线具有一系列的加工步骤(加减乘除等运算),生产者把原料投进去,就能得到产品。不同生产者都可以使用这条生产线,只要他们的加...
2019-04-03 21:27:02 388
原创 【机器学习】有偏估计与无偏估计
有偏估计有偏估计(biased estimate)是指由样本值求得的估计值与待估参数的真值之间有系统误差,其期望值不是待估参数的真值。在统计学中,估计量的偏差(或偏差函数)是此估计量的期望值与估计参数的真值之差。偏差为零的估计量或决策规则称为无偏的。否则该估计量是有偏的。在统计学中,“偏差”是一个函数的客观陈述。无偏估计无偏估计是用样本统计量来估计总体参数时的一种无偏推断。估计量...
2019-04-03 19:56:57 9342
计算机图形学纹路和隐藏面
2015-10-29
安卓开发怎么与服务器进行连接
2015-10-27
opengl怎么把图片由平铺改为填充
2015-10-21
关于asp网页的显示问题
2015-10-16
TA创建的收藏夹 TA关注的收藏夹
TA关注的人