- 博客(7)
- 收藏
- 关注
原创 datawhale 吃瓜教程
机器学习的一般流程如下:首先收集若干样本(假设此时有 100 个),然后将其分为训练样本 (80 个)和测试样本(20 个),其中 80 个训练样本构成的集合称为“训练集”,20 个测试样本构成的集合 称为“测试集”,接着选用某个机器学习算法,让其在训练集上进行“学习”(或称为“训练”),然后产出 得到“模型”(或称为“学习器”),最后用测试集来测试模型的效果。本书以概念理解为主。假设空间是对模型可能形式的假设,不同假设空间中都有可能学的能够拟合训练集的模型,而版本空间是所有能够拟合训练集的模型的集合。
2024-09-18 21:54:28 419
原创 DataWhale 夏令营第五期 深度学习详解 TASK 3
如果选择 sigmoid,比较推荐对 z 做特征归一化,因为 sigmoid 是一个 s 的形状,其在 0 附近斜率比较大,如果对 z 做特征归一化,把所有的值都挪到 0 附近,到时候算梯度的时候,算出来的值会比较大。既然会看全部的通道,那么在描述一个感受野的时候,只要讲它的高跟宽,不用讲它的深度,因为它的深度就等于通道数,而高跟宽合起来叫做核大小。一张图像是一个三维的张量,其中一维代表图像的宽,另外一维代表图像的高,还有一维代表图像的通道(channel)的数目。3.7.1 考虑深度学习。
2024-09-02 10:33:22 775
原创 【无标题】
如图所见,通过使用AdGrad优化后,B→C段顺利又迈出了步子,但是在末尾阶段开始了抽搐,这是由于A→B段纵向的梯度改变累计导致的,但又因为其本身特性,会自动进行调整,又回到正轨。如y为一个含有三元素的向量,输出也应是三个元素,而将他们一一匹配的方式可以通过乘上不同权重,加上偏置,再乘上另一个权重,加上另一个偏置,输入一个特征向量后得到。AdaGrad 的优势在于它能自动调整学习率,不同的特征具有不同的学习率,但它也有一个局限性,即学习率会随着训练进行逐渐减小,可能导致收敛过慢。
2024-08-31 14:56:48 645
原创 Datawhale X 李宏毅苹果书 AI夏令营 TASK 1
将数据分为批量的时候的随机打乱有很多中不同的做法,一个常见的做法是在每一个回合开始之前重新划分批量,也就是说,每个回合的批量的数据都不一样。我们在深度学习的过程中有可能发现参数对损失函数微分为0的时候,梯度下降就不能更新参数了,训练就停下来了,损失也不再下降了。批量的大小即为训练数据的大小,在模型看完20笔数据之后,才能计算损失和梯度,参数才能更新一次。批量大小等于1,每一个回合中,参数都要更新20次。大的批量和小的批量各有优缺点。我们一般将梯度为0的点统称为。1.理解为什么优化会失败。
2024-08-25 15:02:53 177
原创 datawhale x 魔塔 AI训练营第四期
主要学习了comfyUI的工作方式,及相关运行方法,在实验中,将生成的大模型投入到openart网站上,最后实现了模型的训练。
2024-08-17 09:23:11 249
原创 datawhale AI夏令营第四期AIGC方向--TASK2
这一次的任务主要集中于代码的解读和学习,在阅读通义千问的答案时,我深深感觉到了AI的神奇,也从中学到了很多AI 相关的知识,很感谢这次任务
2024-08-13 08:52:29 230
原创 Datawhale AI 夏令营--第四期 AIGC方向
从中学到了很多,之后的主要目标还是加强对代码的研究,毕竟以后如果要深入了解大模型的话是一定要熟悉其中的各项组件,现在的部分还是要先看代码,熟悉各个部分的功能,之后才能逐渐学会自己开发ai程序。
2024-08-08 21:25:10 116
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人