- 博客(5)
- 资源 (6)
- 收藏
- 关注
原创 python lambda 和 map
lambda 作为一个表达式,定义了一个匿名函数。trunc_normal= lambda stddev : tf.truncated_normal_initializer(0.0,stddev)这里lambad是一个表达式,定义了一个函数,函数的输入是stddev,输出是这个表达式。map() 会根据提供的函数对指定序列做映射。map(function, iterable, ....
2017-04-26 13:47:54 355
原创 统计学习方法:决策树
5.1 决策树模型与学习 5.1.1 决策树模型 分类决策树模型是一种描述对实例进行分类的树形结构,由结点和有向边组成,结点由内部结点和叶节点,内部节点表示一个特征或者属性,叶节点表示一个类。 可以将决策树看做if-then规则的集合。 决策树还表示给定特征条件下类的条件概率分布。 决策树学习的目标是根据给定的训练数据构建一个决策树模型,使它可以对实例进行正确的分类。 决策树学习的算
2017-04-19 16:26:54 615
原创 统计学习方法:朴素贝叶斯方法
基于贝叶斯定理和特征条件独立假设的分类方法,朴素贝叶斯的基本假设是条件独立性 4.1 朴素贝叶斯法的学习和分类 4.1.1 基本方法 设输入空间是一个n维向量的集合,输出空间是类标记集合,输入为特征向量x,输出为类标记y,X是定义在输入空间的随机向量,Y是定义在输出空间的随机变量。P(X,Y)是X和Y的联合概率分布。 朴素贝叶斯法通过训练数据集学习联合概率分布。
2017-04-12 17:39:17 1076
原创 统计学习方法:k近邻法
k近邻法输入是实例的特征向量,对应特征空间的点,输出为实例的类别,可以取多类。 3.1 k近邻算法 给定一个训练数据集,对于新输入的实例,找到与该实例最相近的k个实例,这k个实例又属于某个类,就把该输入实例分为这个类。 3.2 k近邻模型 k近邻模型有三个基本要素:距离度量,k值的选择,分类决策规则 3.2.1 模型 特
2017-04-11 15:41:57 432
原创 统计学习方法:感知机
1 感知机模型 感知机是一个二分类的线性模型,输入是实例的特征向量,输出是实例的类别,感知机对应于分离超平面。 2 感知机的学习策略 2.1 数据集线性可分 2.2 感知机学习策略 为找出一个超平面,即确定感知机的W和b,需要确定一个学习的策略,即定义经验损失函数并将其最小化。感知机采用的损失函数是误分类点到超平面的总距
2017-04-04 18:26:05 482
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人