- 博客(1)
- 资源 (1)
- 收藏
- 关注
原创 TensorFlow和Keras解决数据量过大内存溢出
将上万张图片的路径一次性读到内存中,自己实现一个分批读取函数,在该函数中根据自己的内存情况设置读取图片,只把这一批图片读入内存中,然后交给模型,模型再对这一批图片进行分批训练,因为内存一般大于等于显存,所以内存的批次大小和显存的批次大小通常不相同。Tensorlow在input.py里写get_batch函数。def get_batch(X_train, y_train, img_w, im...
2018-11-01 10:23:42 5030 3
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人