![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
优化算法
文章平均质量分 85
小橙不吃辣椒
我的学习日志
展开
-
超详细——集成学习——Adaboost——附代码
一般来讲我们这里的到他们一般都属于同一种类型,我可以是逻辑回归,也可以是决策树。通常来讲,在你指定了基分类器具体是哪一个之后,到用的就都是同一种。比如你这里是逻辑回归了,那这里就都是逻辑回归了。在我们的基分类器定下来之后,他的之后的随之的方法也就确定下来了,比如当我们的是逻辑回归的时候,我们就可以用交叉熵损失和梯度下降来进行训练,原创 2024-05-06 20:43:23 · 669 阅读 · 0 评论 -
LSTM实战笔记(部署到C++上)——更新中
建立LSTM模型时需要设置一些参数,包括输入数据的形状、LSTM层的参数、输出层的参数等。原创 2024-05-06 21:01:23 · 337 阅读 · 0 评论 -
RNN循环神经网络及其梯度消失笔记
是你的闺蜜进行了一顿输出,输入到了你的大脑,然后两者结合就产生了一个意识,就生成了一个新的状态,新的状态也就是说要跟男朋友分手,那么这个就是新的状态。因此,梯度的大小也指示了参数更新的步长,通常我们会使用学习率(learning rate)来调节梯度的大小,以控制参数更新的幅度,避免更新步长过大或过小。这些输入的影响,包括他们的一些梯度值等等,前后也是关联的,就是说后面所作的一些决定,是受到前面的一些因素的影响的,因此模型在学习这些参数的时候,也需要把前面的集合起来。损失函数也可以用来评估模型的性能。原创 2024-03-03 16:43:53 · 1065 阅读 · 0 评论 -
最优化之粒子群优化(PSO)笔记
模拟退火的思路就是比如上面的C‘点可能不好,但是我可以拿一定的概率接受你,虽然C’不好,但是他的旁边可能就是好的。Step2:就越是下面的注释1,如果想要一个最大化的函数值(maxf),就是反过来的最小化的-f。原创 2024-03-01 16:11:13 · 1096 阅读 · 0 评论