- 博客(2)
- 收藏
- 关注
原创 Datawhale X 李宏毅苹果书 AI夏令营 task3 笔记
并且数据增强,要根据对数据的特性以及要处理的问题的理解,来选择合适的数据增强的方式。如果看到一个从来没有做过的问题,可以先跑一些比较小的、比较浅的网络,或者用一些非深度学习的方法,比如线性模型、支持向量机(Support Vector Machine,SVM),SVM可能是比较容易做优化的,比较不会有优化失败的问题。如果深的模型和浅的模型相比较,深的模型明明灵活性比较大,但损失却没有办法比浅的模型压得更低则说明优化有问题,梯度下降不给力,需要用一些其它的方法来更好地进行优化。第二章 实践方法论。
2024-09-02 18:55:01 323
原创 Datawhale X 李宏毅苹果书 AI夏令营 task2 笔记
只要有不同的w不同的b不同的c,就可以制造出不同的Sigmoid函数(函数表达式为y = c*(1 / (1+e^(b+wⅹ) ) ),使用这些Sigmoid函数则可以逼近一个Hard Sigmoid函数;有了θ*以后,就把它拿来用在测试集上,也就是把θ*带入这些未知的参数,未来fθ(ⅹ)里面有一些未知的参数,现在θ用θ*来取代,输入是测试集,输出的结果存起来,上传到kaggle就结束了。ReLU的图像有一个水平的线,走到某地方有一个转折的点,变成一个斜坡,其对应的公式为:c*max(0,b+wⅹ)。
2024-08-29 21:00:25 276
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人