首先说一下,内存经常溢出,爆内存不一定是因为batch_size过大,也有可能是模型没有加载上。弄了一天才把这个问题解决
问题:
我在使用paddlehub的下面这段函数时,经常爆内存
paddlehub.Module(name='deeplabv3p_xception65_humanseg')
简单说一下过程
//我先用humanseg加载模型,这个deeplabv3p_xception65_humanseg
//模型如果Linux环境未安装,则自动安装
humanseg = paddlehub.Module(name='deeplabv3p_xception65_humanseg')
//开始遍历frames下面的所有图片
files = [frames + i for i in os.listdir(frames)]
//开始抠图
humanseg.segmentation(data={'image': files}) # 抠图
其实在这里,我就开始内存飙升,而且程序直接被killed掉
humanseg = paddlehub.Module(name='deeplabv3p_xception65_humanseg')
我就当时在想是不是batch_size是不是过大。这时候我就又开始只扣一张图片,不是扣一个视频。可是依然不行,我这时候就思考是不是.paddlehub下面的deeplabv3p_xception65_humanseg
模型没有加载成功。
这时候我就把我电脑里这个模型打包成zip上传到linux环境下,然后解压到指定