神经网络(深度学习,计算机视觉,得分函数,损失函数,前向传播,反向传播,激活函数)

这是我引用转载“乔大将军”的文章,主要是在开发的过程中学习; 在此转载主要是为了后期能更方便的找到该博主的文章; 如有侵权,请联系我,我既可删除。 该篇文章在转载时,代码部分有乱码,如需参考,请移步至原文处; 原文链接:https://blog.csdn.net/JamesSwifte/article/details/136848838
--------------------------------------------------------------------------------------------------------------------------------------------

目录

 一、神经网络简介

二、深度学习要解决的问题 

三、深度学习的应用

四、计算机视觉

五、计算机视觉面临的挑战

六、得分函数

七、损失函数

八、前向传播

九、反向传播

十、神经网络架构细节

十一、神经元的个数对结果的影响

十二、正则化与激活函数

十三、神经网络解决过拟合的方法


 一、神经网络简介

        神经网络是一种有监督的机器学习算法,神经网络当成一种特征提取的方法,神经网络追求是什么样的的权重参数适合当前任务。        

二、深度学习要解决的问题 

        机器学习流程:数据获取,特征工程,建立模型,评估与应用。最重要的是特征工程,前面学了那么多算法,归根到底,模型都是根据特征来进行训练。

        特征工程的作用:

                数据特征决定了模型的上限。

                预处理和特征提取是最核心的。

                算法和参数决定了如何去逼近这个上限。

        机器学习问题:人工选择数据,人工选择特征,人工选择算法,人工选择结果。(说白了就是实现了数学公式)

        深度学习,神经网络:解决了特征工程的问题

         对于文本,图像数据去提取特征难,放在深度学习,神经网络里,就很好解决。

        可以把深度学习,神经网络当作一个黑盒子,它能自动的去提取特征(它认为的最合适的特特征)它是真正有学习过程的,它可以真正的去学习什么样的特征是最合适的,有了特征,当成输入+线性回归、逻辑回归、SVM等等都行。

三、深度学习的应用

        最常见、最广泛的应用是计算机视觉(人脸识别等)、自然语言处理(ChatGpt)。

        那么是否也存在缺点呢?看如下图

        

        随着数据规模的提升,计算量太大,参数多,速度慢,比如手机端人脸识别,会出现识别延时的现象。

        提一下数据生成:对于庞大的训练数据,数值数据可以采用一些数学工具包生成,对于图像数据可以对图像进行翻转、镜面变换、平移等等,容易得到。

四、计算机视觉

                最经典的图像分类任务。我们看看在计算机里图像是怎么表示的吧。

        例如:一张300*100*3的猫咪图像 300:High 100:wight 3:三个颜色通道RGB

 它是由一个一个像素点组成的,每个像素点的值0~255,值越大颜色越浅。它被表示为三维数组的形式。

        用数值形式表示如:

⎡⎣⎢⎢⎢R...G...B...⎤⎦⎥⎥⎥[RGB.........]

        神经网络的强大之处在于,用更多的参数来拟合复杂的数据

        参数多到百万级都是小儿科,但是参数越多越好吗??

十一、神经元的个数对结果的影响

        并不是哦!!!过满则亏。

        大家想一下,增加一个一个神经元九就了一组参数。

        还是那句话,神经网络非常容易过拟合!!!!!!

十二、正则化与激活函数

        正则化的作用:

                惩罚力度对结果影响

                防止过拟合

        激活函数:

                非常重要的一部分

                常用的激活函数(Sigmoid,Relu,Tanh)非线性变换(把得分值转换为概率值)

                   

        激活函数的对比

        sigmoid:

         

        我们看到当数值偏大的时候,比如x=6时,求导后值几乎为零,梯度消失,如果向后传播, 对后面的影响几乎没有,所以这是存在限制的。

        当今更多使用Relu这个激活函数:

        

        求导值不变。

十三、神经网络解决过拟合的方法

        数据预处理,标准化

        参数初始化,通常我们都使用随机策略来进行参数初始化

        正则化

        DROP—OUT(自损八百)

                思想:让效果消弱

                

         即在某次正反向传播中,每一层随机杀死一部分神经元,不让参与。相当于一个比例:30%,每次让30%的神经元不参与训练。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值