- 博客(5)
- 收藏
- 关注
原创 力扣刷题小结 动态规划
今天刚刷了两个力扣题,不同路径和最短路径,感觉非常类似,做个记录方便以后记忆。 62题不同路径 题目要求求出从左上角到右下角的不同路径的个数,本来想要用回溯做,结果超时了。 于是用动态规划,很明显这个dp的设定应该是二维的,dp应该用来记录从起点到当前点的路径个数。 状态转移方程应该是 dp[i][j]=dp[i-1][j]+dp[i][j-1] 因为起点到当前点的路径个数为起点到他的正上方的路径个数和起点到他的正左方的路径个数之和。 class Solution: def uniquePaths
2021-12-03 17:16:48 104
原创 最长公共子序列和最长重复数组
最长公共子序列是非连续的 最长重复数组的连续的 最长重复子数组 import numpy as np class Solution: def findLength(self, nums1: List[int], nums2: List[int]) -> int: dp=[[0 for _ in range(len(nums2)+1)] for _ in range(len(nums1)+1)] maxv=0 for i in range(1,le
2021-11-11 16:31:50 279
原创 backward(create_graph=true)内存泄漏问题
记录前几日在复现unrolled GAN 的时候,出现了cuda out of memory的问题。 刚开始以为是服务器上显存存不足,清空了所有的进程。再到后来干脆把两块卡一起合并使用,但是情况都没有改变。 原本已经打算放弃,但是心里觉得应该和create_graph=True有关。 终于在一个国外的网站上看到有人提出的使用backward(create_graph=true)可能会存在内存泄漏问题,回顾问题,觉得应该也是和这个相关,于是我修改了代码,将原本高阶微分部分用到的backward(create
2021-06-22 16:42:20 1127 2
原创 pytorch 报错:Trying to backward through the graph a second time, but the buffers have already been fre
pytorch 报错:Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time. 写深度学习项目时第一次遇到这个问题,原因是因为写了多个网络结构,且将前面的网络的输出输入到了后面的网络结构,因此前面的网络结构和后面存在buffer的重叠。 解决办法: 在先前
2021-06-10 15:32:13 526 2
原创 ImportError: DLL load failed: 找不到指定的模块。
解决pycharm 导入torchvision时出现的import error **环境:win7 python3.7 torch1.2.0 torchvision0.3.0 解决方法:**弄了三天左右,最终卸载了torchvision0.3.0 后退回0.2.0 之后再卸载了pillow安装到最新的版本,成功解决。 报错原因:torchvision和torch版本对应问题 ...
2019-10-08 19:33:44 243 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人