机器学习概述


摘要

本周主要是学习了机器学习与深度学习的概念,在机器学习的步骤中,首先是猜测函式的关系,其次是从训练数据中定义损失函数,以找出合适的参数,最后是对函式进行优化,使得损失最小、模型更加准确。

Abstract

This week, I mainly learned the concepts of machine learning and deep learning. In the steps of machine learning, the first is to guess the relationship between functions, the second is to define the loss function from training data to find appropriate parameters, and the last is to optimize the function to minimize the loss and make the model more accurate.


1 机器学习概述

机器学习即Machine Learning,目的是让计算机模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断完善自身的性能。简单来说,机器学习就是人们通过大量的数据来训练机器。

1.1 机器学习的概念

1.1.1 人工智能

人工智能涵盖范围最广,任何学习都可以叫做人工智能,它关注的问题和方法也是最复杂,包括知识推理、逻辑规划以及机器人等方面。

1.1.2 机器学习

实现人工智能的方法,需要手动设计特征和模型,并学习数据分布。计算机利用已有的数据(经验),得出了某种模型,并利用此模型预测未来的一种方法。

1.1.3 深度学习

侧重于从大量数据中直接学习高维、复杂的数据特征。

2 机器学习过程

2.1猜测函式

以频道点阅人数的预测为例,开始时我们需要猜测一个带有未知参数的函式,举例来说可以先做一个初步的猜测,例如:
y = b + wx1

说明:b, w 在文献中通常称为 Parameter,b的含义是bias,w的含义是weight, x1是 Feature,在这里是前一天的点阅人数。

其中,y 是我们准备要预测的东西,w 和b是两个未知数,为什么会这么猜测呢,就是因为在不知道真实函式的情况下进行猜测,使用w作为前一天点阅人数的一个倍数,再使用 b进行校正,这样就可以得到一个相对准确的今天点阅人数的预测值。

2.2 定义损失函数

如何选出合适的参数:损失函数的参数中含有b和w,如何设置这两个值,首先假设一个初始的预定值,从训练数据中得到一系列的lable(利用假设好的损失函数,根据训练数据计算函数值,将函数值与真是值进行作差的绝对值)如下图。

说明:label是指正确的数值。

在这里插入图片描述

每一个差值记为为ei,e分为绝对误差和平方误差,选择合适的误差算法,再将所有的误差进行求和取平均值。如下图。
在这里插入图片描述
从下图可以看出,如果计算值和真实值为等概率则可以发现图中越接近橙色部分损失越大,越接近蓝色部分损失越小。
在这里插入图片描述

2.3 最佳化

接下来就是要找到最适合的w和b,使得损失最小,在这里所使用的方法是 Gradient Descent,也就是梯度下降。
下图中假设为一个损失函数的图像,在图中随机找到一个w 的值,计算在第一个w的值时,计算微分值,也就是斜率。除了斜率以外,还有另外一个东西会影响步伐大小,这个东西我们这边用 η 来表示,称为 learning rate,也叫学习速率。可以看出,如果 η 比较大,Loss 的更新就比较快,反之则比较慢。这个 learning rate 是我们自己设定的,在机器学习中我们称之为 hyperparameters,也叫做超参数。 直到计算使得w的值为0,这时可能出现的值不是全局最优小值,是一个局部的最小值,当继续找到一个比0还小的值,这时的值才是全局最小。3 寻找更好的loss函式
在这里插入图片描述
在这里插入图片描述

3 寻找更优的Loss函式

3.1 Model Bias 模型限制

下图中,当我们找一个带有未知数的函数时,线性函数具有一定 的局限性,过于简单,是因为无论如何改变W和B的值,都只是一条直线,但实际情况更加复杂,没有办法使用线性模型来准确表达,这样的局限性叫做误差,不能够很复杂的描述机器学习的模型,因此需要更加复杂的模型。
在这里插入图片描述

3.2 分段线性曲线

下图中,图中红色的线等于常量加上一系列阶梯型的蓝色线。红色线的起点为常量,蓝色线从原点出发,顶点为红色线的第一个顶点,再次从原点出发以第一个红色顶点为起始点,第二个顶点为终点,以此类推。红色线则为常量加上一系列蓝色 阶梯线。
在这里插入图片描述

3.3 Sigmoid Function

当现实中更加复杂的情况下,线性模型不能够满足实际需求,实际中出现曲线模型时,线性模型可以在曲线上取若干个的点,取的点越多与位置适当,越接近实际曲线,最后将所有点连接起来形成一系列连续的曲线,下图中使用sigmoid函数来逼近蓝色曲线。在sigmoid函数中包含c图像的高度、图像的斜率w、图像的截距b。一次性调整一个或者多个参数得到一个更加逼近蓝色曲线的函数。如下图。
在这里插入图片描述
在每一条蓝色线性函数得到的三个参数时,带入到sifmod函数中,计算得到一系列的值,则红色线最终的值为常量加上所有sigmod函数的和。红色的线等于所有蓝色线相加,每一条蓝色线是都是一个sigmod函数,最终所有sigmod函数相加得到最终的函数。改变不同的参数就可以得到一系列不同的连续曲线,以用于逼近不同的模型,如下图。
在这里插入图片描述
最终我们将得到一个全新的Function。如下图
在这里插入图片描述

总结

通过学习了机器学习的概念与过程之后,需要找到一个最优的参数使得损失最小需要经过许多的步骤,在这个过程中,通过训练得出的结果和未经过训练得出的结果,哪一个更值得关注呢?而机器学习的目的是利用模型来预测未来,因此我们更需要关注的是未经过训练得出的结果。

机器学习概念参考链接: https://blog.csdn.net/qq_42192693/article/details/120507206?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522168501213116800186557945%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=168501213116800186557945&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2alltop_positive~default-1-120507206-null-null.142v88control_2,239v2insert_chatgpt&utm_term=%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E7%9A%84%E5%9F%BA%E6%9C%AC%E6%A6%82%E5%BF%B5&spm=1018.2226.3001.4187

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值