- 博客(9)
- 收藏
- 关注
原创 机器学习-反向传播(backpropagation)
在学习Batch Normalization时有遇到在反向传播时更新权重的问题,为了进一步理解Batch Normalization的具体过程,在此再详细理解一下反向传播(backpropagation)。
2024-02-24 21:20:11
389
原创 ‘Learing’ is all you need(Transformer学习)
Transformer是一种不同的深度学习模型,它基于注意力机制,可以处理任意长度的输入序列。与传统的循环神经网络(RNN)和卷积神经网络(CNN)相比,Transformer具有更强大的学习能力和泛化能力。在自然语言处理任务上,Transformer已经取得了最先进的结果。对比RNN:其实全局流程RNN和Transformer相似,都是通过一个MLP来做一个语义空间的转换,但不一样的点在于如何传递序列信息。RNN是用前一个时刻的输出加入到下一个时刻的输入,这就完成了序列信息的加入;
2024-01-11 12:09:17
864
原创 【无标题】
这次项目是来公司的第一个项目,主要运用Canny边缘检测算法和yolov5深度学习框架。首先是对于边缘检测的有了新的认识。本科在校期间也做过边缘检测的相关实验,使用的有sober算子、Laplace算子和Canny算子等,这次是首次将这些真正运用到实际生活中,图像的边缘处理效果最好的还是Canny算子,他是基于一阶导数,对于图像噪声有较强的适应性,主要分为高斯滤波、计算梯度、非极大值抑制、双阈值过滤四个部分,其中sigma为高斯滤波方差,影响图像所能识别出线条的数量,双阈值是为了控制非主体线条的数量。
2023-07-04 16:39:40
403
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人