- 博客(5)
- 收藏
- 关注
原创 字符串——子串匹配
比较失败时,主串游标不需要大幅的回退(蛮力算法需要大幅回退,而这里主串游标不回退),而将模式串的游标回退到指定位置。,也就是说主串的这部分子串与模式串的这部分子串相同。既然如此,我们可以利用模式串自身的关系来避免不必要的比较。在主串s中,定位模式串p在字符串的位置。若p存在于s中,返回最先匹配的位子,否则返回-1。从蛮力算法中可以看出,每次在比较子串失败时,主串都要回到上次开始的下一个字符。对应的主串的字符为1,所以这里存在大量无效的回退。蛮力算法是朴素的想法,我们用python代码来表示蛮力算法的思想。
2023-03-27 19:11:33 742
原创 深度学习之优化器
深度学习之优化器Optimizers是在网络训练时,对网络权重进行更新,使得模型最优化loss,现阶段主流的深度学习优化器是基于梯度的优化方法,代表有:SGD,Momentum,AdaGrad,Adam,Nesterov,RMSprop等。SGD – 随地梯度下降法(Stochastic Gradient Descent)从数学知识可知,函数朝着梯度方向上升最快,梯度反方向下降最快。而在深度学习的目标中,是最小化loss。直觉上可以想到能使用梯度下降方法,来最优化loss。形式上,我们可以将SGD
2022-03-30 16:49:12 8162 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人