人工智能
文章平均质量分 68
Fitz_p
这个作者很懒,什么都没留下…
展开
-
线性回归、对数几率回归的部分数学基础
原创 2019-12-09 00:05:50 · 364 阅读 · 0 评论 -
我对机器学习的整理理解
在机器学习通常来说,特征工程对模型性能影响最大,参数调优一般提升不如特征工程提升。 首先需要对数据进行充分探索,如属性是字符串类型、日期类型 还是 数值类型;若提供的数据存在几张表中,表中数据是否存在关联,是否可以进行统计、聚合;从业务理解上,可能影响模型性能的因素有哪些,表中数据能否构造该因素。 其次,我们需要对数据进行预处理。对字符串、categories 一般来说我们可以: ...原创 2019-12-08 23:51:41 · 448 阅读 · 0 评论 -
实战fashion-mnist图像分类
1.分类原理(以crossentropy为例) 分类误差: 通过梯度下降 w:=w-d(L)/d(w) 来更新w的值,使得w朝梯度=0的方向变化,减少分类误差.2.下面来上代码2.1数据加载import matplotlib.pyplot as pltimport matplotlib as mpl%matplotlib ...原创 2019-09-21 21:20:03 · 2201 阅读 · 0 评论 -
决策树-处理连续值(5)
一.决策树根据属性进行一步步判断,连续值存在无限可能,故为了能够处理连续值,需要将连续值转化为离散值二.连续属性离散化技术:二分法(最简单)三.二分法做法:将连续值划分为 >t,<t,两类遍历属性所有值,按从小到大排序 则Ta={(ai+ai+1)/2 | 0<i<n } 遍历Ta,考察划分点,这里采用信息增益的方式, 选取信息增益最大的划分点 a...原创 2019-02-04 23:59:27 · 603 阅读 · 0 评论 -
决策树-后剪枝(4)
1.目的:提高泛化性能,2.后剪枝做法:先生成完整的决策树 由最底层结点开始考察,若把其替换成叶节点(取样例数最多的一类),比较验证集精度,如果精度提升,则将其替换为叶节点(剪枝);否则不进行剪枝; 参考书籍:机器学习-周志华...原创 2019-02-04 23:52:01 · 441 阅读 · 0 评论 -
每天学点算法->强化学习->Q_learning走迷宫
今天给大家分享如何用Q_learning算法来实现走迷宫,我们的红色方块会一次次的尝试不同的格子,直到落入黑格子,获得惩罚*1;或者走进黄格子,获得奖励*1为止。每一次游戏都会更新Q_table的权重,以实现红色方块下一次能够更加快速的找到黄格子。本文参照了莫烦python的博客:https://morvanzhou.github.io/tutorials/machine-learning...原创 2018-10-08 23:34:26 · 3033 阅读 · 5 评论 -
每天学点算法->进化策略->遗传算法简单例子解读
假设草原上有一群斑马,这群斑马里面,有些斑马跑的比较快,有的跑的慢,而狮子每次捕猎能抓到跑的慢的斑马,那么经过一代代的繁衍,根据达尔文进化论,留下的大部分斑马都是跑的比较快的。进化策略也是基于这优胜略汰,适者生存的套路,通过模拟一个种群的进化过程,逐步优化参数,最终使得目标函数达到最优.在这个例子中目标函数:max=sin(10*x)*x + cos(2*x)*x ; x属于[0,5]...原创 2018-10-12 00:34:21 · 735 阅读 · 0 评论 -
算法-图的几种表示方法
表示如下的一个图有哪些方法呢,import numpy as np1.邻接矩阵图的一种常见的表示方法就是邻接矩阵了,这种表示的主要不同之处在于,它不在列出每个节点的所有邻居节点,而是会将每个节点的可能的邻居位置排成一排 也就是一个数组,用于对应图的每一个节点,然后用某种值,如True或false来表示相关节点是否是当前节点的邻居。其最简单的形式也可用嵌套list来实现。a,...原创 2018-07-28 18:23:00 · 4368 阅读 · 0 评论 -
TensorFlow实现基础CNN,两层卷积+2层全连接网络demo
TensorFlow实现基础CNN,两层卷积+2层全连接网络demo,代码如下,注释都有import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#加载数据集mnist=input_data.read_data_sets('MNIST_data',one_hot=True)#每个批次的大小bat...原创 2018-06-27 23:59:47 · 4539 阅读 · 0 评论 -
神经网络-实现学习率随迭代次数变化
1.需要变化的学习率的原因:经历一段时间的学习之后,我们距离目标值越来越近,此时如果学习率太大,则会造成训练在最优值附近来回波动,这时候我们就需要减少学习率2.实现:学习率是在Optimizer中使用,我们每次迭代通过tf.assign修改学习率3.note: tf.assign(ref, value, validate_shape=None, use_locking=None, name=...原创 2018-07-09 22:08:27 · 6079 阅读 · 0 评论 -
为什么有的机器学习应用公司必将失败?
作者 | Cassie Kozyrkov编译 | Leo出品 | 人工智能头条告诉大家一个秘密:当人们说起“ 机器学习 ”时,听起来好像只是在谈论一门学科,但其实是两门。如果企业不了解其中的差异,那么就可能招惹来满世界的麻烦。▌两个关于机器学习的故事在机器学习方面,企业经常犯的错误类似于:请一位厨师来制造烤箱或请一位电气工程师去烘烤面包。假设你是一家面包店的店主,你需要聘请的是一位经验丰富的面包师...转载 2018-07-08 19:29:04 · 227 阅读 · 0 评论 -
神经网络使用drop_out消除过拟合+MNIST
1.drop_out的原理为:通过将某神经元的输出设置为0,达到使其失活的效果,消除网络中过分依赖某个神经元2.过拟合一般出现在网络过分复杂,且训练数据较少的情况,数据较少而未知参数太多,则较易产生过拟合3.核心代码:layer1=tf.nn.dropout(layer1,drop_out)#3-3 MNIst数据集使用drop-out提升准确率,消除部分过拟合import tensorflow ...原创 2018-07-08 19:25:49 · 4722 阅读 · 1 评论 -
神经网络HelloWorld
神经网络界 的 HelloWorld代码,了解神经网络过程1.输入2.通过参数拟合曲线,Helloworld中使用 y=∑ax+b,3.训练,反向传播,修改a,b的值修正拟合曲线#3-2 MNIst数据集分类简单版本import tensorflow as tf;import numpy as np;from tensorflow.examples.tutorials.mnist import i...原创 2018-07-08 19:18:44 · 522 阅读 · 0 评论 -
tensorflow入门,完成1元1次方程拟合
tensorflow入门,完成1元1次方程拟合该一元一次方程为:x_data = np.float32(np.random.rand(2, 100)) # 随机输入y_data = np.dot([0.100, 0.200], x_data) + 0.300由于是x_data是随机数,故而无法画出图形,若我们定义x为等差数列[[0,1,2,...100],[101...200]]则y=ax+b为分...原创 2018-06-30 10:37:13 · 886 阅读 · 0 评论