课程背景
![2162974-91057eb7fe6133f0.png](https://i-blog.csdnimg.cn/blog_migrate/ec66aacad0d8ddd2929998f91b842a29.webp?x-image-process=image/format,png)
image.png
![2162974-da0bc2693330e931.png](https://i-blog.csdnimg.cn/blog_migrate/e5e87a7be2a6f98df4310769c15bce83.webp?x-image-process=image/format,png)
image.png
![2162974-b09f103bba1d6263.png](https://i-blog.csdnimg.cn/blog_migrate/66dae67609a9606cb8de076911963006.webp?x-image-process=image/format,png)
image.png
什么是神经网络
![2162974-7d26445c84b34540.png](https://i-blog.csdnimg.cn/blog_migrate/2569dca756f21358f6a4db172dcaded2.webp?x-image-process=image/format,png)
image.png
![2162974-b2ed7ed54a346b0f.png](https://i-blog.csdnimg.cn/blog_migrate/143375040e5ccad1e1d4fe3c3fb9c886.webp?x-image-process=image/format,png)
image.png
图像语音密集矩阵
文本稀疏矩阵
课程安排
![2162974-b03da7735385971a.png](https://i-blog.csdnimg.cn/blog_migrate/e1927ce962721ee6ab87864bac6a58dc.webp?x-image-process=image/format,png)
image.png
网络结构
![2162974-4ba0b4ce69d0b922.png](https://i-blog.csdnimg.cn/blog_migrate/a47b9608764fddb101ae83aac10fe8fb.webp?x-image-process=image/format,png)
image.png
eg 在图中四个隐含层,一个输出层
从x到y 一个预测的过程
更深的网络比更宽的网络在计算上节省,当深度层增加,每一层增加一个解,见微知著,不断剖析,对应神经网络的深度增长。
每一个神经元的设计体现非线性分析
对每一个神经元
![2162974-31a7e6f1db718d47.png](https://i-blog.csdnimg.cn/blog_migrate/3fbccc1367e7c7547e1fc3a3bfcdbc96.webp?x-image-process=image/format,png)
image.png
这是一个神经元结点的结构
![2162974-4bd6e9dc27ef32fd.png](https://i-blog.csdnimg.cn/blog_migrate/cbde33c91886589f3988984c302576be.webp?x-image-process=image/format,png)
第一部分:对输入线性组合
第二部分:进行非线性处理 g(z)对线性组合转化成非线性的结果
逻辑回归
最小的结构单元:每个神经元节点独立具有判断问题的能力,该结点本身是一个逻辑回归的模型
![2162974-32507ba252a81cdf.png](https://i-blog.csdnimg.cn/blog_migrate/fd0054c262269951ff08bad13abaa39e.webp?x-image-process=image/format,png)
对单独一个神经元
![2162974-18077bc66c5d4440.png](https://i-blog.csdnimg.cn/blog_migrate/15f9064792eccb9cb334f2c6037a43b1.webp?x-image-process=image/format,png)
image.png
同样可以进行机器学习的过程,左侧输入,右侧输出(预测值),通过W和B这两个参数对x进行线性化,通过激励函数的到预测值
激励函数
![2162974-843847dbcde4134f.png](https://i-blog.csdnimg.cn/blog_migrate/9a8247599c9d9a83d7219cf2749722d1.webp?x-image-process=image/format,png)
image.png
![2162974-32bd410e95f514b9.png](https://i-blog.csdnimg.cn/blog_migrate/6cc260cb6bd8842fc58fc7b370dab473.webp?x-image-process=image/format,png)
image.png
模拟神经元被激发的状态变化(非线性),对大脑中的传递递质的动作模拟
常用神经元
![2162974-3954917aadb3fd30.png](https://i-blog.csdnimg.cn/blog_migrate/c51ee9626863dc5106798f24eefd73c3.webp?x-image-process=image/format,png)
image.png
RELU简单常用,是首选
损失函数
![2162974-e2cbe3793079defc.png](https://i-blog.csdnimg.cn/blog_migrate/9d779c5b4800eb99f4ed5bd4a28ddc78.webp?x-image-process=image/format,png)
评价学习y值与预期y值
![2162974-af24c41b9123ad50.png](https://i-blog.csdnimg.cn/blog_migrate/f1e59dd84f600f99ec48f502180a991d.webp?x-image-process=image/format,png)
image.png
梯度下降
通过渐进性方式调整整个函数的形态or performance
![2162974-72735634daf8141e.png](https://i-blog.csdnimg.cn/blog_migrate/6b56fc85032b0c5d26fb8fa1f8ad5670.webp?x-image-process=image/format,png)
zhidao
调整参数为W b 找到合理组合使得机器学习得到的y值与现实中监督的真正y值一致,从而指导预测结果
![2162974-fa7d0a938c1b31c2.png](https://i-blog.csdnimg.cn/blog_migrate/120120a692c0080f61acd727a3028bcc.webp?x-image-process=image/format,png)
image.png
根据运算结果预测值x0在凸的部分进行数学处理。。。。
![2162974-5945e8aca4c76747.png](https://i-blog.csdnimg.cn/blog_migrate/0dbf09a89d45f858d68cc6a30e66e07e.webp?x-image-process=image/format,png)
(:=代表同步更新)
在进行运算,指导w.b趋向稳定值
网络向量化
![2162974-ad2d566d1426e2e1.png](https://i-blog.csdnimg.cn/blog_migrate/182ed5b6d2ef1d28e283d780aecb01f3.webp?x-image-process=image/format,png)
传播过程
![2162974-b29616fd7349658c.png](https://i-blog.csdnimg.cn/blog_migrate/0ae81f44f87976dc61f762a76f359265.webp?x-image-process=image/format,png)
image.png
输入到隐含层,四个隐含层生成一个输出值,即训练得到的y值
![2162974-7e868d6f2113620a.png](https://i-blog.csdnimg.cn/blog_migrate/8308525c0112706e5d2a899929b0736f.webp?x-image-process=image/format,png)
image.png
![2162974-61a5be2a5d3b59d6.png](https://i-blog.csdnimg.cn/blog_migrate/d7494b6493c5ef5e510b40ac29e76fc8.webp?x-image-process=image/format,png)
image.png
写成对应的矩阵表达式
![2162974-9974687804811f3c.png](https://i-blog.csdnimg.cn/blog_migrate/c687abb2b1faf6786b041eac7300692c.webp?x-image-process=image/format,png)
image.png
把这种简单模型进行推广
对比较大的神经网络
得到层与层之间的关系
![2162974-2864ca28fa661d3b.png](https://i-blog.csdnimg.cn/blog_migrate/18845e0955c4fe6e214b6a83f68826f6.webp?x-image-process=image/format,png)
y
网络梯度下降
*对神经元的参数的调教(反向传播)
通过运算结果逆向调整wb参数
向前传播的规则
![2162974-bb75a8a138869636.png](https://i-blog.csdnimg.cn/blog_migrate/80d7babfa81d91046ef0a9ba4894944f.webp?x-image-process=image/format,png)
image.png
对每一层
![2162974-883a74350dfc2f7e.png](https://i-blog.csdnimg.cn/blog_migrate/0c5e509ddcdd5e347cb601c281ee35bd.webp?x-image-process=image/format,png)
image.png
训练过程
![2162974-c9fde261f9d970d9.png](https://i-blog.csdnimg.cn/blog_migrate/57dec1eb2b61ab135fa3b1ac44aa686d.webp?x-image-process=image/format,png)
image.png
eg。简单神经网络
![2162974-076b169f35f6df67.png](https://i-blog.csdnimg.cn/blog_migrate/560324d497ca9d38b34b6dc53d438ca5.webp?x-image-process=image/format,png)
image.png
![2162974-8c89929139a4bd62.png](https://i-blog.csdnimg.cn/blog_migrate/5b556f451e94eca01375168a998861e0.webp?x-image-process=image/format,png)
再进行运算,再更新。
反复这两个训练过程
![2162974-4473a601ba1a403a.png](https://i-blog.csdnimg.cn/blog_migrate/bc2bea5fc478fd93922abe1f742d1f2f.webp?x-image-process=image/format,png)
image.png
按层计算,算好后更新
总结
![2162974-ccc698cf456492a0.png](https://i-blog.csdnimg.cn/blog_migrate/0508ffdb078689a7e2f83b9dee54e781.webp?x-image-process=image/format,png)
image.png