今天上课主要讲述了我们神经网络从数据预处理、到特征选择,相关方法的分类。
之后应用方法具体讲到了决策树和支持向量机(support vector machine)
感觉支持向量机里面讲述的例子还是蛮有趣的,主要我觉得还是分类的问题,之后大侠一拍桌子,把两种不同颜色的棋子,能够用白纸分开,这其实就是把二维世界中解决不了的问题,升了一个维度,之后就可以解决了。
之后决策树那里印象比较深刻的是,讲到将一些“树枝”变为叶子结点的过程,来使其泛化性能更加良好。
![](https://i-blog.csdnimg.cn/blog_migrate/61dc967f39b9e4f011cd417e5d9874a1.jpeg)
![](https://i-blog.csdnimg.cn/blog_migrate/4c81307ee558565d46a5c63c8fe6dbe2.jpeg)
![](https://i-blog.csdnimg.cn/blog_migrate/57c3cf7f8e1bef9bd9a390d0df2abbe6.jpeg)
![](https://i-blog.csdnimg.cn/blog_migrate/13e10f2f879dbeec71acd7212e0161a4.jpeg)
3.10
![](https://i-blog.csdnimg.cn/blog_migrate/b38333b4228d0605a6926bac925135b9.jpeg)
![](https://i-blog.csdnimg.cn/blog_migrate/a236c28d0e12019869bc4cfe14149e3c.jpeg)
![](https://i-blog.csdnimg.cn/blog_migrate/940d4cccfc980ba6f442d6939bd8fa33.jpeg)
![](https://i-blog.csdnimg.cn/blog_migrate/9d31288c515ab7250b8976cc915c73af.png)
为什么人们在计算的时候更常用2范数,而不是0范数?
在计算中,通常更常用2范数,因为2范数是欧几里得距离的一种度量,它计算向量长度时考虑了每个分量的平方和,与常用的坐标系下的直线距离公式是一致的。在优化问题中,2范数有许多好的性质,例如可微性和凸性。另一方面,0范数只是简单地计算向量中非零元素的数量,没有考虑元素的具体取值和位置,因此它在优化中不够实用。但是,0范数在一些特定问题中也有其独特的应用,例如用于稀疏表示和压缩等领域。
![](https://i-blog.csdnimg.cn/blog_migrate/7bb25b7e54af14709b0ae29aa6073e0e.jpeg)
![](https://i-blog.csdnimg.cn/blog_migrate/f2c85a5e81e41811b231235a16155586.jpeg)