神经网络学习笔记8.26

神经网络的学习笔记

从今天开始系统学习神经网络和机器学习,记一个笔记帮助学习。在学习中遇到的问题用来记录。每天打卡~~~~

机器学习的作用

从数据中抽取规律,并用来预测未来。主要应用有:分类问题,回归问题和排序问题和生成问题。我主要关注的是回归问题


前言

学习视频:https://www.bilibili.com/video/BV1Xi4y137xE?p=2。

一、机器学习基础

在这里插入图片描述 首先采集到训练数据-定义问题(要优化什么)-选择相应的算法-训练得到模型-进行线上服务,同时在线上服务的时候也可以采集线下数据,进行数据的补充。

注意一下包含关系:人工智能>机器学习>深度学习
深度学习是机器学习的
子方向!!!!

1 机器学习岗位职责

在这里插入图片描述

2深度学习分类

深度学习包含的算法有,其他的不列举,因为视频里没有讲:

深度学习
卷积神经网络
循环神经网络
用来处理不定长数据

二、神经网络

1.神经元

神经网路的最小结构
在这里插入图片描述
神经元中,权重W与输入x相乘再相加+偏置b,经过激活函数f。
偏置的理解:w和b共同决定分类线或者分类面,b决定与坐标交点的值即截距。二维平面是线,三维平面是分类线
在这里插入图片描述

2.激活函数:

sigmoid
在这里插入图片描述
x接近正无穷,接近1,x负无穷趋近于0。(-6,+6)比较陡峭。其值域在(0,1)之间——同样,概率也在(0,1)之间,
在这里插入图片描述
所以在二分类问题时候可以定义,当输入为x ,输出y=0时候的概率就是sigmoid函数的输出,当y=1时候的概率就是:
p(Y=1|X)=1-hw(x)
若要做多分类分类模型,可以给加神经元,加一个神经元有二个输出,可以做三分类的问题,注意此时:
W从向量变成了矩阵
输出Wx变成向量,而不是值了
在这里插入图片描述
同时对于二分类问题的另外一个角度去看
相当于w*X对于E的()-
相当于w
X对于E^(-wx),然后与1相加进行归一化,那么对于多分类可以这样理解:
在这里插入图片描述
接上面的公式举例理解***概率***,例子理解:
在这里插入图片描述
在这里插入图片描述

3 目标函数(损失函数)

作用:衡量对数据的拟合程度
常用损失函数(公式网上自己找吧):平方差损失,交叉熵损失(更适合做多分类)

4 神经网络训练

目的要求调整参数使模型在训练集上的损失函数值最小,意味着model预测结果与真实差别最小。

梯度下降算法

函数的下降方向就是其导数方向,所以要求参数的变化方向就是要对参数求偏导。
在这里插入图片描述
α就是步长,后边那个方框是变化的方向。步长的大小影响很大。

三 、tensorflow

是谷歌的第二代机器学习框架。(但我之后要学pytorch呀,= =学不学都行吧 ,先看看)
同时安装了 jupyter notebook,这个是网页版的,可以看单步运行内容。安装过程参见:
https://blog.csdn.net/gui694278452/article/details/81710184

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值