深度学习笔记-计算图,autograd,逻辑回归

概念

  计算图是深度学习和神经网络中的一个核心概念,它以图的形式表示数学运算和数据之间的关系。在计算图中,节点(vertices)通常表示数学运算,而边(edges)表示在运算之间流动的数据。

特点

  1. 表达复杂的数学运算:计算图可以清晰地表示复杂的数学运算序列,包括线性代数运算、非线性激活函数等,这对于构建和理解复杂的神经网络模型至关重要。

  2. 自动微分与反向传播:计算图的一个关键优势在于支持自动微分,这是训练神经网络所必需的。在反向传播算法中,计算图用于有效地计算梯度,从而更新网络中的权重。

  3. 优化计算效率:通过计算图,可以对神经网络的运算进行优化。例如,一些不必要的计算可以被识别并消除,或者可以重新安排计算顺序以提高效率。

  4. 内存效率(Memory Efficiency):通过计算图,PyTorch 能够更有效地管理内存使用。特别是在自动微分中,计算图使得只有需要梯度的变量才会存储相关的中间值,从而节省内存。(只有叶子节点才会保留梯度,中间节点的梯度会被清除)

"""由于pytorch为了节省内存,所以在计算时不保留中间节点的梯度值,
因此如果直接print中间节点的梯度值时会报错:
'The .grad attribute of a Tensor that is not a leaf Tensor 
is being accessed. Its .grad attribute won't be populated 
during autograd.backward(). If you indeed want the .grad 
field to be populated for a non-leaf Tensor, use .retain_grad()
on the non-leaf Tensor. If you access the non-leaf Tensor by 
mistake, make sure you access the leaf Tensor instead.'
因此需要添加一个方法在计算后来保留此中间节点的梯度"""

tensor.retain_grad()  # for retain the intermediate node's grad

tensor.grad_fn  # 表示生成此张量所用的方法,在梯度求导中可以用来确定用什么求导方法来计算导数

tensor.is_leaf  # 表示是否是叶子节点,返回布尔值

动态图和静态图

动态图:运算与搭建同时进行

一边规划路径,一边进行计算,优点是灵活易于调节,但是效率不高

静态图:先搭建图,后运算

先确定计算的路径,然后进行计算,优点是高效,但是不灵活

  如图,pytorch是通过动态图的方式进行计算的,图的构建的每一步都是和计算同步进行,计算过后才搭建的节点,最后通过backward函数来进行反向传播

autograd-自动求导系统

‘torch.autograd’是 PyTorch 深度学习框架的一个核心模块,用于自动计算神经网络中的梯度。这个功能对于实现神经网络中的反向传播算法至关重要。

torch.autograd.backward(tensors,
        grad_tensors=None,
        retain_graph=None,
        create_graph=False)
    """自动求取梯度,tensors是用于求导的张量;retain_graph:布尔型变量,设置为True就代表保存当前的计算图;create_graph:创建导数计算图,用于高阶求导;grad_tensors:多梯度权重,这个参数是一个张量形式的值,包含了对应位置梯度的权重"""

torch.autograd.grad(outputs,
        inputs,
        grad_outputs=None,
        retain_graph=None,
        create_graph=Flase)
    """功能:求取梯度,output是用于求导的张量,如loss,y;inputs是需要梯度的张量,如w,x"""
x = torch.tensor([3.],requires_grad=True)
y = torch.pow(x, 2)

grad_1 = torch.autograd.grad(y, x, create_graph=True)  # 生成的是一个元组
print(grad_1)

grad_2 = torch.autograd.grad(grad_1[0], x)  # 这里因为grad_1是一个元组,所以需要下标把元组的值取出来
print(grad_2)

autograd中有如下需要注意的点:

1.梯度不自动清零:也就是说每次梯度循环之后,如果不清零,则会将每次这个参数的梯度相加起来

2.依赖于叶子节点的节点,requires_grad默认为True:也就是叶子节点的父母节点,requires_grad不需要特殊来声明

3.叶子节点不可执行in-place:

        in-place操作是指在原始内存中改变数据(原地操作),而不是开辟一个新的地址,比如+=操作就是原位操作,而a = a+1就不是原地操作。

        原理是因为在前向传播的过程中,需要求导的节点的地址被记录,然后在反向传播中通过记录的地址来找到数值,然后再进行求导计算。如果改变了当前的叶子节点的地址里的值,就会导致原始前向传播的值和现在的值不同。

逻辑回归(对数几率回归)

线性的二分类模型,表达式为y=f(WX+b),然后经过sigmoid函数来进行二分类预测。

和线性回归模型的区别是:线性回归模型是讨论自变量与因变量(标量)之间的关系;而逻辑回归是在线性回归的基础上增加了sigmoid函数,从而讨论自变量与因变量(概率)之间的关系

机器学习的模型训练步骤

1.数据模块:包括对数据的采集,清洗,预处理等,使得数据符合条件,能够直接输入到模型模块中

2.模型模块:根据任务的难易程度,选择简单的线性模型或者复杂的神经网络模型

3.损失函数模块:根据不同的任务选择不同的损失函数(均方差,交叉熵)

4.优化器模块:选择适当的优化器来更新权值

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
《Python学习笔记》是由皮大庆编写的一本关于Python语言学习的教材。在这本书中,作者详细介绍了Python语言的基础知识、语法规则以及常用的编程技巧。 首先,作者简要介绍了Python语言的特点和优势。他提到,Python是一种易于学习和使用的编程语言,受到了广大程序员的喜爱。Python具有简洁、清晰的语法结构,使得代码可读性极高,同时也提供了丰富的库和模块,能够快速实现各种功能。 接着,作者详细讲解了Python的基本语法。他从变量、数据类型、运算符等基础知识开始,逐步介绍了条件语句、循环控制、函数、模块等高级概念。同时,作者通过大量的示例代码和实践案例,帮助读者加深对Python编程的理解和应用。 在书中,作者还特别强调了编写规范和良好的编程习惯。他从命名规范、注释风格、代码缩进等方面指导读者如何写出清晰、可读性强的Python代码。作者认为,良好的编程习惯对于提高代码质量和提高工作效率非常重要。 此外,作者还介绍了Python的常用库和模块。他提到了一些常用的库,如Numpy、Pandas、Matplotlib等。这些库在数据处理、科学计算、可视化等领域有广泛的应用,帮助读者更好地解决实际问题。 总的来说,《Python学习笔记》是一本非常实用和全面的Python学习教材。通过学习这本书,读者可以系统地学习和掌握Python编程的基础知识和高级应用技巧,为以后的编程学习和工作打下坚实的基础。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Zack Wesson

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值