- 博客(7)
- 收藏
- 关注
原创 【Datawhale X 李宏毅苹果书 AI夏令营】Task3 自注意力机制
自注意力机制,又称内部注意力机制,顾名思义,是一种将单个序列的不同位置关联起来以计算同一序列的表示的注意机制。通过对注意力机制的学习我们知道,在一般任务的Encoder-Decoder框架中,输入Source和输出Target内容是不一样的,比如对于英-中机器翻译来说,Source是英文句子,Target是对应的翻译出的中文句子,Attention机制发生在Target的元素Query和Source中的所有元素之间(即Attention机制与自身还有关注对象都有关系)。
2024-09-03 23:50:05 751
原创 【Datawhale X 李宏毅苹果书 AI夏令营】Task2 Chapter3.3&4%5
【Datawhale X 李宏毅苹果书 AI夏令营】Task1 Chapter3.1&3.2:https://blog.csdn.net/qq_45516068/article/details/141615276?本文将基于两个实践来学习夏令营中的内容。
2024-08-31 23:52:50 890
原创 【Datawhale X 李宏毅苹果书 AI夏令营】Task1 Chapter3.1&3.2
(saddle point)的数学含义是: 目标函数在此点上的梯度(一阶导数)值为 0, 但从该点出发的一个方向是函数的极大值点,而在另一个方向是函数的极小值点。初始参数为 θ ,前一步的移动为0,计算 θ 的梯度,移动的方向为梯度的方向加上前一步的方向,以此类推。 批次(batch)与动量(momentum),两个学深度学习绕不开的词,你可能会或多或少听过batch,epoch,BGD等词汇,都出自本章节。 学习率太低,模型的参数可能更新得太慢,这可能会阻碍收敛并需要更多的训练迭代才能获得最佳结果。
2024-08-27 23:56:38 629
原创 【Datawhale AI夏令营】CV方向第一次笔记
本赛道聚焦城市违规行为的智能检测,要求选手研究开发高效可靠的计算机视觉算法,提升违规行为检测识别的准确度,降低对大量人工的依赖,提升检测效果和效率,从而推动城市治理向更高效、更智能、更文明的方向发展,为居民创造一个安全、和谐、可持续的居住环境。 使用pandas库中的pd来读取文件,获得文件中的列表,每个编号都代表着检测到的一整个完整的违规行为。 创建一个用于YOLO目标检测的配置文件,即yolo-dataset/yolo.yaml中的。定义了一个列表,包含所有的违法行为的命名,后续方便进行操作。
2024-08-26 15:40:45 834
原创 安装Anaconda和Pytorch cpu版本并配置Pycharm环境(Q&A)
打开Pycharm后,右上角点击设置图标–>设置–>项目,下拉框中选择Python解释器,右上角选择添加解释器–>选择本地解释器。 新版本Anaconda2024.02-1中采用的python版本为3.11,目前使用Pytorch会出现问题所以建议下载老版本。 此电脑——属性——高级系统设置——环境变量——path——编辑——新建(找到Anaconda安装位置) 将以下路径都加入到path中(注:新版本anaconda会有额外的环境变量需要配置,具体参考新的教程)具体的二者版本对应关系参考。
2024-08-26 15:01:24 1380
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人