解决显存不足的方式
自己也是刚接触深度学习,由于毕业压力大和条件比较高,在学习方面表现得比较急躁。所以很多事情都没有做好。自己也知道欲速则不达的道理,但很多时候都没有听进去。因此写写文章,记录一下自己的学习过程。
之前利用深度学习,进行实验时,发现数据集过大,总是会超出显存容量。自己也看了很多CSDN上面的文章,也实验过,但很多都会有各种各样的错误,实在是难以接受。因此,在别人的代码里面学习到了一段很好的代码来生成数据,能够很好的解决显存不足的问题。
class DataGenerator(tf.keras.utils.Sequence): #可以看到定义了一个类别,继承于Sequence
def __init__(self, mains,batch_size, shuffle=False):
#该部分定义了,初始数据,主要是整个训练集,batch_size、shuffle等参数。
self.mains = mains
self.batch_size =