有限差分学习笔记

有限差分介绍

​        在数学中,有限差分法(finite-difference methods,简称FDM),是一种微分方程数值方法,是通过有限差分来近似导数,从而寻求微分方程的近似解。

由泰勒展开式的推导

显式方法(向前差分)

隐式方法(向后差分)

参考资料:有限差分法- 维基百科,自由的百科全书

PyTorch提供了一个名为gradcheck的函数,它可以用来检查反向传播是否正确计算了函数的导数。通过将张量的元组作为输入,gradcheck函数会评估这些张量的梯度,并与使用小的有限差分的数值近似进行比较。如果梯度与数值近似值非常接近,则返回True。 除了使用gradcheck函数外,PyTorch还提供了autograd模块,它可以自动收集梯度。您可以使用requires_grad参数将张量标记为需要计算梯度的张量,然后在计算过程中,autograd会自动记录计算图并计算梯度。 如果您已经可以根据PyTorch的内置操作编写函数,并且autograd已经能够记录该函数的后向图,那么您不需要自己实现反向传播功能。只需使用普通的PyTorch函数即可完成反向传播。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [pytorch 笔记: 扩展torch.autograd](https://blog.csdn.net/qq_40206371/article/details/122707278)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [【深度学习】Pytorch torch.autograd 自动差分引擎](https://blog.csdn.net/weixin_52058417/article/details/125971914)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

余晴尽欢

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值