自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 DiffusionFastForward(一) | Diffusion Sandbox

其原因是,上述代码已知了图片img_然后利用img_得到x_t和noise,事实上由这两个可以直接得到img_,而不需要经过一个reverse过程,因此这里的代码只是形象的展示了一下diffusion的过程,未涉及到模型的训练过程。2. `mean = alphas_sqrt[t] * condition_img`:计算当前时间步 t 的均值,其中 `alphas_sqrt` 是之前计算得到的系数序列,`condition_img` 是输入的条件图像。,并与均值和标准差相乘后的结果相加,最后返回这个结果。

2024-05-02 19:29:22 939 1

原创 机器学习(八) | 线性回归的简单实现(sec_linear_concise)

定义一个模型变量net,它是一个Sequential类的实例。Sequential类将多个层串联在一起。当给定输入数据时,Sequential实例将数据传入到第一层, 然后将第一层的输出作为第二层的输入,以此类推。在PyTorch中,全连接层在Linear类中定义。值得注意的是,我们将两个参数传递到nn.Linear中。第一个指定输入特征形状,即2,第二个指定输出特征形状,输出特征形状为单个标量,因此为1。这两行代码用于初始化神经网络模型`net`中的线性层的权重和偏置项。

2024-03-10 23:04:18 1746 1

原创 机器学习(七) | 线性回归的从零开始实现(linear-regression-scratch)

"""线性回归模型""""""均方损失""""""小批量随机梯度下降"""

2024-03-08 00:03:47 1826 1

原创 Linux操作(勿点)

pip config set #更改下载网址。pip uninstall numpy#卸载。wget miniconda下载链接。bash#进入conda环境。python -V#查看版本。cd -#目录返回上一级。

2024-03-07 09:39:25 173

原创 机器学习(六) | 线性神经网络之线性回归

将所有特征放到向量中去并将所有权重放到向量中可以用以下式子表示模型对于n个样本集用矩阵则可以用矩阵-向量的乘法表示为:平方误差:损失函数:可以将偏置b合并到参数中即= ( w1 , ... , wn , b ) 此时。

2024-03-06 23:58:09 495 1

原创 机器学习(五) | 自动微分与反向传播

需要注意的是计算得到的每个叶子节点的梯度会会被累积到每个叶子节点的'grad'属性中。属性指示了创建该张量的操作(即计算图中的操作),这个属性告诉 PyTorch 在进行反向传播时如何计算梯度。表示这个张量是通过乘法操作得到的,因此 PyTorch 将使用乘法的导数规则来计算梯度。在求复合函数的值的时候就用的是正向传播如f(g(x))先求的m=g(x)再求f(m)1.y是一个纯标量(即它的'shape'属性为空或为'()')y.detach()将u视为常数,即与x无关的量。y.backward()的前提。

2024-03-05 23:09:44 596

原创 机器学习(四) | 微积分

在微分学最重要的应用是优化问题,即考虑如何把事情做到最好。在深度学习中,我们“训练”模型,不断更新它们,使它们在看到越来越多的数据时变得越来越好。通常情况下,变得更好意味着最小化一个损失函数(loss function), 即一个衡量“模型有多糟糕”这个问题的分数。最终,我们真正关心的是生成一个模型,它能够在从未见过的数据上表现良好。但“训练”模型只能将模型与我们实际能看到的数据相拟合。因此,我们可以将拟合模型的任务分解为两个关键问题:优化(optimization):用模型拟合观测数据的过程;

2024-03-05 20:50:16 1312

原创 机器学习(三) | 线性代数

矩阵的基础这里不赘述。

2024-03-04 22:23:10 674

原创 机器学习(二) | 数据预处理

对于第一行代码- `os.makedirs`: 这是一个用于创建目录的函数,位于Python的`os`模块中。- `os.path.join('..', 'data')`: 这部分使用`os.path.join()`函数来创建一个路径,将`'..'`和`'data'`连接在一起。`'..'`表示当前目录的父目录,而`'data'`表示一个名为"data"的子目录。- `exist_ok=True`: 这是`os.makedirs`函数的一个参数。

2024-03-03 22:25:21 597

原创 机器学习(一) | 数据操作

可以指定数据类型如x.torch.arrange(12,dtype=torch.float32)X=x.reshape(3,4)#改变张量的形状而不改变元素数量和元素值,生成3*4的矩阵。x=torch.arange(12)#生成一个张量x [0,1,2...11]torch.cat((X, Y), dim=1)#按列连结。标准的算术运算+-*/和**指数(都是按元素+-*/**)torch.cat((X, Y), dim=0)#按行连结。X.sum()#对张量所有元素求和。子区域[::3,::2]

2024-03-03 21:09:55 227

原创 半小时速成Python(勿点)

print("我不是主代码")#若从外部导入(from ... import *)则进入这行。dict1={"name":"老张","height":170,"weight":100}set2.difference(set1)#找到集合2有而集合1没有的元素 输出为{6}print("我是主代码")#若在写这行代码的程序里面运行会进入这行。range(开始(默认为0),结束(不包括),步长(默认为1))break跳出循环;continue跳过后面部分执行下一个循环。dict1["name"]="老邓"

2024-02-28 17:29:48 275

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除