keras
文章平均质量分 96
Fang Suk
久居深巷、独忆易人
展开
-
keras模型恢复的方法
这篇博客总结的很全:https://www.cnblogs.com/bnuvincent/p/7353887.html转载 2019-05-21 10:05:41 · 1396 阅读 · 0 评论 -
keras 数据读取几种方式
keras数据读取(图像数据)的方式,可以不使用keras的方法而使用opencv或者pil直接读取做处理。这里主要总结了keras封装的几种图像数据读取方法,一、keras.preprocessing.image.load_img()读取单张图像1)load_img()指定图像路径读取图像,看源码可知就是对pil的简单封装,使用PIL.mage.open()读取def load_i...原创 2019-06-05 16:12:16 · 15487 阅读 · 2 评论 -
keras CAM和Grad-cam原理简介与实现
一、两种类型的分类模型为了更好的解释CAM和Grad-cam,这里先介绍两种类型的分类模型。feature extraction+Flatten+softmax和feature extraction+GAP+softmax。以下均以VGG16为例(其他模型原理一样),在做完卷积激活池化操作后,每张图像特征提取可得到7x7x512大小的特征图,为了在全连接层作分类,需要将提取的特征图(三维)...原创 2019-06-18 21:54:30 · 17485 阅读 · 57 评论 -
keras断点训练
有时模型训练时间过长,如遇到训练异常中断或者想调整超参,需要继续上次训练而不是重头开始。这里参照tf-slim的理念实现一种keras断点训练的功能:在做fine-tune时,如果保存模型路径中没有已保存的模型参数,则从google预训练模型中恢复参数,如果保存模型路径中有已保存的模型参数(之前已经训练过),则从保存的参数恢复模型参数继续上次训练。下面先总结了模型参数初始化的几种方式(有基础的...原创 2019-06-04 17:15:34 · 3387 阅读 · 4 评论 -
Focal loss 原理及keras实现
一、keras原理focal loss就是在cross_entropy_loss前加了权重,让模型注重于去学习更难以学习的样本,并在一定程度上解决类别不均衡问题。在理解focal loss前,一定要先透彻了解交叉熵cross entropy。1、Cross entropy交叉熵部分的内容来自博客,对交叉熵写的很详细,深入浅出。感谢该博主1)信息熵H(x)一个随机变量的信息量,直...原创 2019-06-25 20:17:10 · 8595 阅读 · 0 评论 -
CNN系列学习之LeNet-5
前言:CNN系列总结自己学习主流模型的笔记,从手写体的LeNet-5到VGG16再到历年的ImageNet大赛的冠军ResNet50,Inception V3,DenseNet等。重点总结每个网络的设计思想(为了解决什么问题),改进点(是怎么解决这些问题的),并使用keras的两种定义模型的方式Sequential()和Functional式模型实现一遍(加深对模型理解的同时熟悉keras的使...原创 2019-07-31 21:26:46 · 227 阅读 · 0 评论 -
CNN系列学习之VGG16
前言:CNN系列总结自己学习主流模型的笔记,从手写体的LeNet-5到VGG16再到历年的ImageNet大赛的冠军ResNet50,Inception V3,DenseNet等。重点总结每个网络的设计思想(为了解决什么问题),改进点(是怎么解决这些问题的),并使用keras的两种定义模型的方式Sequential()和Functional式模型实现一遍(加深对模型理解的同时熟悉keras的使...原创 2019-07-31 21:31:40 · 3505 阅读 · 0 评论