自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 datawhale 吃瓜教程

机器学习的一般流程如下:首先收集若干样本(假设此时有 100 个),然后将其分为训练样本 (80 个)和测试样本(20 个),其中 80 个训练样本构成的集合称为“训练集”,20 个测试样本构成的集合 称为“测试集”,接着选用某个机器学习算法,让其在训练集上进行“学习”(或称为“训练”),然后产出 得到“模型”(或称为“学习器”),最后用测试集来测试模型的效果。本书以概念理解为主。假设空间是对模型可能形式的假设,不同假设空间中都有可能学的能够拟合训练集的模型,而版本空间是所有能够拟合训练集的模型的集合。

2024-09-18 21:54:28 419

原创 DataWhale 夏令营第五期 深度学习详解 TASK 3

如果选择 sigmoid,比较推荐对 z 做特征归一化,因为 sigmoid 是一个 s 的形状,其在 0 附近斜率比较大,如果对 z 做特征归一化,把所有的值都挪到 0 附近,到时候算梯度的时候,算出来的值会比较大。既然会看全部的通道,那么在描述一个感受野的时候,只要讲它的高跟宽,不用讲它的深度,因为它的深度就等于通道数,而高跟宽合起来叫做核大小。一张图像是一个三维的张量,其中一维代表图像的宽,另外一维代表图像的高,还有一维代表图像的通道(channel)的数目。3.7.1 考虑深度学习。

2024-09-02 10:33:22 775

原创 【无标题】

如图所见,通过使用AdGrad优化后,B→C段顺利又迈出了步子,但是在末尾阶段开始了抽搐,这是由于A→B段纵向的梯度改变累计导致的,但又因为其本身特性,会自动进行调整,又回到正轨。如y为一个含有三元素的向量,输出也应是三个元素,而将他们一一匹配的方式可以通过乘上不同权重,加上偏置,再乘上另一个权重,加上另一个偏置,输入一个特征向量后得到。AdaGrad 的优势在于它能自动调整学习率,不同的特征具有不同的学习率,但它也有一个局限性,即学习率会随着训练进行逐渐减小,可能导致收敛过慢。

2024-08-31 14:56:48 645

原创 Datawhale X 李宏毅苹果书 AI夏令营 TASK 1

将数据分为批量的时候的随机打乱有很多中不同的做法,一个常见的做法是在每一个回合开始之前重新划分批量,也就是说,每个回合的批量的数据都不一样。我们在深度学习的过程中有可能发现参数对损失函数微分为0的时候,梯度下降就不能更新参数了,训练就停下来了,损失也不再下降了。批量的大小即为训练数据的大小,在模型看完20笔数据之后,才能计算损失和梯度,参数才能更新一次。批量大小等于1,每一个回合中,参数都要更新20次。大的批量和小的批量各有优缺点。我们一般将梯度为0的点统称为。1.理解为什么优化会失败。

2024-08-25 15:02:53 177

原创 datawhale x 魔塔 AI训练营第四期

主要学习了comfyUI的工作方式,及相关运行方法,在实验中,将生成的大模型投入到openart网站上,最后实现了模型的训练。

2024-08-17 09:23:11 249

原创 datawhale AI夏令营第四期AIGC方向--TASK2

这一次的任务主要集中于代码的解读和学习,在阅读通义千问的答案时,我深深感觉到了AI的神奇,也从中学到了很多AI 相关的知识,很感谢这次任务

2024-08-13 08:52:29 230

原创 Datawhale AI 夏令营--第四期 AIGC方向

从中学到了很多,之后的主要目标还是加强对代码的研究,毕竟以后如果要深入了解大模型的话是一定要熟悉其中的各项组件,现在的部分还是要先看代码,熟悉各个部分的功能,之后才能逐渐学会自己开发ai程序。

2024-08-08 21:25:10 116

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除