人工智能
普通网友
这个作者很懒,什么都没留下…
展开
-
学习人工智能第五周:深度学习的项目(下)
以图分类 需求:通过机器学习的方式,让机器学习认字 分类问题:输入图像,输出类别0_910类,+其他类 用dnn模型进行分类,输出函数用什么函数? 如果各个类别互斥,softmax 如果不互斥,如图像的情感分析 拒绝类怎么来:最好的方式随机生成,正常类有规律,拒绝类千奇百怪 图像存储 32*32像素, 将图像作为输入,应该怎么输入,二维拉一维,图像归一化 1确定神经网络的输入纬度m*n 2所有输入的图像,都经过resize过程,归一化m*n 一维输入……自由发挥(先用简单网络,慢慢变复杂)……softma原创 2021-06-20 15:17:06 · 256 阅读 · 0 评论 -
学习人工智能第五周:深度学习(上)
深度学习 深度学习:是机器学习的一个分支 逻辑回归不能处理线性不可分的情况,这个时候我们需要讲一些数据转换, 坐标移动,比如在向量上变成椭圆 深度学习软件:caffe pytorch tensorflow keras cpu vS gpu gpu就会算,处理不了逻辑 深度学习实质: x--一层--两层--多层--输出(多分类使用softmax,二分类使用LR) 每一层可以理解为特征组合,中间的这些被称为线性交换+激活 把神经网络做的窄而深更好,模型变深还有很多学习上的障碍需要解决 深度学习的梯度下原创 2021-06-20 15:15:31 · 48 阅读 · 0 评论 -
学习人工智能第四周:聚类和自然语言处理
Kmeans聚类: 聚类是属于无监督学习 聚类的缺点 1初始值的影响 2被异常点影响,解决方案:去掉最高和最低分,求平均,这里的异常点是从整体上来看的。 3某些场合缺少物理化,比如年龄可以平均,但是男女不能平均 4数值问题,身高和体重,体重变化明显,但是身高不变 5,k值不好计算,也就是说,k表示分几类,最少是1,最大是样本数,,我们利用拐点来计算 聚类真实的场景: 很多的文章,先聚类为4类,比如政治,财经,娱乐,汽车,每一个聚类都有对应的专家,当一篇新的文章进来时,给政治专家,看是否是政治,也就是政治专家原创 2021-06-06 13:47:49 · 222 阅读 · 0 评论 -
学习人工智能第三周:集成学习之三个臭皮匠
首先:我们学模型要先学他的思想,从宏观角度出发 一.随机森林:m个模型一起学习,减少抖动 随机森林到底在干什么?减少抖动 例子:预测一个人得重病的概率,真实是0.3 通过模型预测是0.2,0.4(增加保费,别人不买)都会使赔的可能性大 二.adaboost:m个模型串行学习每一轮样本的权重不一样,每个模型增加权重(对学不会的着重学,其他少学) 三.m个模型串行学习,每一轮学上一轮的残差,各个分类器求和(学学不会的) 例子: 语文60,数学70,英语80 GBDT:学语文40,数学30,英文20,不会的部分原创 2021-05-30 17:28:27 · 114 阅读 · 0 评论 -
学习人工智能第二周:逻辑回归(上)
逻辑回归与线性回归的对比 线性回归:x-->模型-->y 知道坐标的一部份,求y 逻辑回归:x-->模型-->类别(猫,狗) 知道完整的坐标,看在 直线的上面,还是下面 分类:多类别,二分类 二分类简化:是不是猫,概率相加为1 二级分类:要么是1,要么是0,这样的话有点太硬了 逻辑回归公式 公式怎么用 x-->模型-->f 通过寻找w来找到合适的直线 线性回归是mse,而逻辑回归是kl举例来求概率的距离 多分类 遇到多分类的情况,把原创 2021-05-16 20:37:27 · 55 阅读 · 0 评论 -
学习人工智能第二周:逻辑回归(上)
逻辑回归与线性回归的对比 线性回归:x-->模型-->y 知道坐标的一部份,求y 逻辑回归:x-->模型-->类别(猫,狗) 知道完整的坐标,看在 直线的上面,还是下面 分类:多类别,二分类 二分类简化:是不是猫,概率相加为1 二级分类:要么是1,要么是0,这样的话有点太硬了 逻辑回归公式 看图图展示 ###### 公式怎么用 x–>模型–>f 通过寻找w来找到合适的直线 线性回归是mse,而逻辑回归是kl举例来求概率的原创 2021-05-16 20:30:01 · 71 阅读 · 0 评论 -
学习人工智能第一周:线性回归(下)
上期回顾 应用场景--->向量化--->模型-->结果 人工智能主要围绕模型展开,模型可以理解为公式 模型之一:线性回归 模型是直线,让直线拟合这些点,所以叫线性回归 需求:给出一组数据x,y,给出点的分布情况(给出一个公式),类似于y=ax+b 也就是说,通过调整a,b的值,让直线拟合这些点 (调整w,b的值就是机器在学习的过程,要知道,不管怎么调整,都是由误差的,机器学习的目的 就是找到合适w,b让误差最小) 优化之后,我们得到w=2,b=原创 2021-05-09 21:55:59 · 106 阅读 · 0 评论 -
学习人工智能第一周:线性回归(上)
学习之前 学习人工智能的学习曲线: 入门难,大多数人会在入门开始就放弃; 模型--深度学习---项目 如下图: ![image](https://note.youdao.com/favicon.ico) 学习AI,就是要掌握方法论,才能一通百通,以不变应万变 在AI中有句话:无法量化的事情,就无法优化 图片的向量化 看成图片的处理: 将每一个点都看成红(0-255)绿(0-255)蓝(0-255) 200*200像素的图片就是200*200*3 遇到图片大小不一:原创 2021-05-09 21:54:11 · 87 阅读 · 0 评论