keras
文章平均质量分 51
AI无昵称
计算机视觉小虾;
学了好多用不上;
深度学习;
看看电影;
饭后要遛食;
Be strong!
展开
-
keras 模型用于预测时的注意事项
为什么训练误差比测试误差高很多?一个Keras的模型有两个模式:训练模式和测试模式。一些正则机制,如Dropout,L1/L2正则项在测试模式下将不被启用。另外,训练误差是训练数据每个batch的误差的平均。在训练过程中,每个epoch起始时的batch的误差要大一些,而后面的batch的误差要小一些。另一方面,每个epoch结束时计算的测试误差是由模型在epoch结束时的状态决定的,这时原创 2017-06-27 10:39:03 · 11015 阅读 · 7 评论 -
keras learning rate
http://machinelearningmastery.com/using-learning-rate-schedules-deep-learning-models-python-keras/https://stackoverflow.com/questions/39779710/setting-up-a-learningratescheduler-in-keras (打印出每一个周期的...原创 2018-02-05 22:57:19 · 2481 阅读 · 1 评论 -
keras multi gpu 分布式训练
可以参考mask rcnn的例子一个简单的例子: 点击打开链接还有一个教程:Keras同时用多张显卡训练网络 点击打开链接''' 根据官方文档 To save the multi-gpu model, use .save(fname) or .save_weights(fname) with the template model (the argument you p...原创 2018-08-27 20:53:28 · 1908 阅读 · 0 评论 -
keras tensorboard的使用, 设置指定GPU及其内存, 强制只使用cpu
1.强制只使用cpu: import osos.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" # see issue #152os.environ["CUDA_VISIBLE_DEVICES"] = ""2. GPU内存占用限制以及Tensorboard的一般使用补充:主动设定占用内存或者自适应设置GPU内存大小开始学习用TensorFlow,这东...原创 2017-06-05 12:10:21 · 22625 阅读 · 1 评论 -
keras, tensorflow, jupyter的虚拟环境安装, using virtulaenv
转载自:https://www.quora.com/How-can-I-work-with-Keras-on-a-Jupyter-notebook-using-Tensorflow-as-backend https://gist.github.com/USTClj/d3c9246cb44d25769acfa023a459abab#setupgithub上多种ten...原创 2017-03-03 09:19:04 · 2457 阅读 · 0 评论 -
Keras 保存网络权值和优化器optimizer状态,继续上一个周期状态训练
1.若是使用model.save()则不仅会保存权值,也会保存优化器状态You can use model.save(filepath) to save a Keras model into a single HDF5 file which will contain:the architecture of the model, allowing to re-create the modelthe ...原创 2018-03-22 15:07:59 · 3071 阅读 · 1 评论 -
python中的多进程与多线程 提升keras训练时数据准备的速度
更新可以参考如下博客:使用keras.utili中的Sequencehttps://stanford.edu/~shervine/blog/keras-how-to-generate-data-on-the-fly 1. 测试状态下,如果用predict函数,则模型会重新编译加载,可以使用中间层输出,来计算真正的测试阶段前向传播所用的时间。点击打开链接2. 训练状态下,GP...原创 2018-04-22 10:45:29 · 10926 阅读 · 0 评论 -
keras data generation, python生成器
Implement fit_generator( ) in Keras原文链接Here is an example of fit_generator():model.fit_generator(generator(), samples_per_epoch=50, nb_epoch=10)Breaking it down:generator() generates batch原创 2017-07-10 10:12:16 · 1396 阅读 · 0 评论 -
keras 迁移学习, 微调, model的predict函数定义
https://deeplearningsandbox.com/how-to-use-transfer-learning-and-fine-tuning-in-keras-and-tensorflow-to-build-an-image-recognition-94b0b02444f2def add_new_last_layer(base_model, nb_classes): """原创 2017-06-28 09:50:47 · 28299 阅读 · 7 评论 -
keras的运行机制
1.keras tensor计算的举例说明:maxpool = MaxPool2D((2, 2))(input)首先MaxPool2D((2, 2)) 是将MaxPool2D class实例化, (2, 2)是class中def __init__()(也可能是通过super方法引用基类Layer class中的初始化方法__init__) 初始化方法(method)的实参,实例化之后,原创 2017-07-18 22:20:40 · 2043 阅读 · 1 评论 -
keras load model 报错
在keras中使用save model 或者 check point 保持模型的时候,例如check_point = ModelCheckpoint('./check_point/weights.{epoch:02d}-{val_loss:.2f}.hdf5', monitor='val_loss', verbose=1, save_原创 2017-07-19 10:58:49 · 4578 阅读 · 0 评论 -
keras slice layer 层 实现
# 注意的地方: keras中每层的输入输出的tensor是张量, 比如Tensor shape是(N, H, W, C), 对于tf后台, channels_last# Define a slice layer using Lamda layerdef slice(x, h1, h2, w1, w2): """ Define a tensor slice function原创 2017-06-20 10:58:47 · 7457 阅读 · 3 评论 -
keras TimeDistributed 包装器
官方中文文档的说明如下:输入至少为3D张量,下标为1的维度将被认为是时间维例如,考虑一个含有32个样本的batch,每个样本都是10个向量组成的序列,每个向量长为16,则其输入维度为(32,10,16),其不包含batch大小的input_shape为(10,16)我们可以使用包装器TimeDistributed包装Dense,以产生针对各个时间步信号的独立全连接:用途原创 2017-08-04 10:24:40 · 12523 阅读 · 1 评论 -
keras 画训练过程曲线
# Fit the modelhistory = tiramisu.fit(train_data, train_label, batch_size=batch_size, epochs=nb_epoch,callbacks=callbacks_list, class_weight=class_weighting,ver原创 2017-08-04 10:39:53 · 24130 阅读 · 4 评论 -
keras learning rate
http://machinelearningmastery.com/using-learning-rate-schedules-deep-learning-models-python-keras/https://stackoverflow.com/questions/39779710/setting-up-a-learningratescheduler-in-keras原创 2017-08-16 21:18:35 · 1979 阅读 · 0 评论 -
keras 调参, 优化, 一些设置等
1. 关闭GPU,只使用CPU2.设置keras占用GPU内存的比例:3.Call back 中设置learning rate等Shedule, 使用Early Stop:原创 2017-06-06 16:25:05 · 16142 阅读 · 0 评论 -
keras 自定义 loss损失函数, sample在loss上的加权 和 metric
首先辨析一下概念:1. loss是整体网络进行优化的目标, 是需要参与到优化运算,更新权值W的过程的2. metric只是作为评价网络表现的一种“指标”, 比如accuracy,是为了直观地了解算法的效果,充当view的作用,并不参与到优化过程 在keras中实现自定义loss, 可以有两种方式,一种自定义 loss function, 例如:# 方式一def vae_lo原创 2017-06-15 09:42:40 · 49431 阅读 · 9 评论 -
cuda, cudnn的升级,各种深度学习库的安装
新版本的tensorflow和keras已经要求cudnn v6了,并且将来会升级到cuda9 和 cudnn7。 cudnn7最大的特点是支持group convolution, 这里原先的环境是cuda8, 将cudnn v5.1升级到 cudnn v6.0.21 [更新中](cudnn的升级内容转载自 点击打开链接)Nvidia-cudnn官网 https://原创 2017-10-11 10:29:26 · 6714 阅读 · 0 评论 -
keras获得某一层或者某层权重的输出
一个例子: print("Loading vgg19 weights...") vgg_model = VGG19(include_top=False, weights='imagenet') from_vgg = dict() # 因为模型定义中的layer的名字与原始vgg名字不同,所以需要调整 from_vgg['conv...原创 2018-06-05 14:31:52 · 31844 阅读 · 0 评论