![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
keras
文章平均质量分 52
就是求关注
程序搬运工
知识传播者
人工翻译员
视频替代者
就是求关注
程序搬运工
知识传播者
人工翻译员
视频替代者
就是求关注
程序搬运工
知识传播者
人工翻译员
视频替代者
就是求关注
展开
-
(Spatial Pyramid Pooling,SPP)空间金字塔池化讲解及代码实现
一、引言问题:现存的CNN要求固定尺寸的输入图片,需要通过对原图进行裁剪或者变形来实现,这两种方式可能出现不同的问题:(i)裁剪的区域可能没法包含物体的整体;(ii)变形操作造成目标无用的几何失真。如果识别目标尺寸变化多样,那么提前定义好的尺寸就可能不太适合。产生原因:CNN主要由卷积层和全连接层组成,其中卷积层输出尺寸为一个关于输入大小的变量,而全连接层则产生固定大小的输出,也需要固定大小的权重和输入,所以CNN网络的限制在全连接层需要固定长度的输入。解决方案:SPP,Spytial Pyram原创 2021-12-07 23:52:07 · 5248 阅读 · 0 评论 -
SMU激活函数讲解及代码实现
尽管ReLU有一些严重的缺点,但由于其简单性,ReLU成为深度学习中最常见的选择。本文在已知激活函数Leaky ReLU近似的基础上,提出了一种新的激活函数,称之为Smooth Maximum Unit(SMU)。用SMU替换ReLU,ShuffleNet V2模型在CIFAR100数据集上得到了6.22%的提升。本文复现了这个激活函数。原创 2021-11-21 00:59:15 · 3351 阅读 · 11 评论 -
keras 自定义:激活函数,神经网络层,损失函数,正则化器,学习率
1. 自定义激活函数首先,您需要使用 backend定义一个函数。 例如,这是我实现swish激活功能的方式from keras import backend as Kdef swish(x, beta=1.0): return x * K.sigmoid(beta * x)如果要将字符串用作自定义函数的别名,则必须向Keras注册自定义对象。 可以这样完成:from keras.utils.generic_utils import get_custom_objectsget原创 2021-11-21 00:34:10 · 2645 阅读 · 3 评论 -
基于Convolutional Block Attention Module (CBAM)的Multi-Attention模型设计与实现
本文主要介绍的 Multi-Attention 方法只是一个研究思路。只是尝试了在基本模型的顶部集成多注意力机制。其Multi-Attention模型结构如下所示:模型本质上是并行添加了 CBAM 和 DeepMoji 注意力机制,并在最后将它们的特征进行合并。 此外,我们通过集成全局加权平均池 (GWAP) 方法,对 CBAM 机制及其空间模块的末尾部分进行了修改。经过对该模型的输出,我们将Output特征放入全连接的神经网络模型中进行最终的模型训练。其结构图如下:为了验证模.原创 2021-08-17 23:10:01 · 862 阅读 · 0 评论 -
LSTM-CNN-CBAM模型
原创 2021-06-22 00:35:05 · 1680 阅读 · 2 评论 -
keras实现注意力机制
class Attention_layer(Layer): def __init__(self, W_regularizer=None, b_regularizer=None, W_constraint=None, b_constraint=None, bias=True, **kwargs): self.supports_masking = True self.原创 2021-06-22 00:04:42 · 3970 阅读 · 3 评论 -
基于改进注意力机制的U-Net模型实现及应用(keras框架实现)
1.摘要上节我们基于U-Net模型设计并实现了在医学细胞分割上的应用(ISBI 挑战数据集),并给出了模型的详细代码解释,在上个博客中,我们为了快速训练U-Net模型对其进行了缩减,将庞大的U-Net的转换为很小&的结构,导致其准确率才达到75%左右。为了进一步提高U-Net模型在细胞分割上的准确率,本文将主要研究两个方面:一是基于U-Net的原始模型结构进行改进,引入卷积注意力机制模块(CBAM)和FocalTversky损失函数;二是引入深监督方法(DEEP SUPERVISION)及多尺.原创 2021-06-09 23:50:17 · 10052 阅读 · 8 评论 -
DAMU-Net模型参数结构图
原创 2021-06-09 23:48:24 · 1026 阅读 · 0 评论 -
加入卷积注意力机制和深监督方法的U-Net 模型(keras实现版本)
深监督(DEEP SUPERVISION)所谓深监督(Deep Supervision),就是在深度神经网络的某些中间隐藏层加了一个辅助的分类器作为一种网络分支来对主干网络进行监督的技巧,用来解决深度神经网络训练梯度消失和收敛速度过慢等问题。模型代码:def attn_reg_ds(opt,input_size, lossfxn): img_input = Input(shape=input_size, name='input_scale1') conv1 = UnetCon.原创 2021-06-09 22:52:36 · 3682 阅读 · 4 评论 -
AlexNet模型思想详解及核心代码实现
摘要AlexNet是2012年ImageNet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计的。也是在那年之后,更多更深的神经网络被提出,网络开始往深水区涉入,比如优秀的vgg,GoogLeNet等。AlexNet是在LeNet的基础上加深了网络的结构,学习更丰富更高维的图像特征。本文将详细概述AlexNet的特点及核心思想,最后给出相关的代码实现。AlexNet模型的核心思想问题LeNet是卷积神经网络的祖师爷LeCun在1998年提出,用于解决手写数字识别的视觉.原创 2020-12-18 22:35:18 · 4690 阅读 · 1 评论 -
CNN+LSTM 的模型结合(keras代码实现)
CNN-LSTM模型运行环境:python3.6.5 、Keras2.1.5 、tensorflow 2.3.1等from keras.preprocessing import sequencefrom keras.models import Sequentialfrom keras.layers import Dense, Dropout, Activationfrom keras.layers import Embeddingfrom keras.layers import LSTM.原创 2020-12-05 23:32:03 · 41601 阅读 · 16 评论 -
attention注意力机制的理解及简单实现(keras实现版本)
attention 的本质:其实就是一个加权求和。问题:k 个d 维的特征向量h i (i=1,2,...,k) 整合这k 个特征向量的信息,变成一个向量h ∗ (仍是d 维)解决方法 求平均值 -------(mean pooling) 加权平均,即(α i 为权重): h ∗ =∑ k i= α i h i 而attention所做的事情就是如何将α i 合理...原创 2019-02-26 23:18:39 · 19159 阅读 · 2 评论 -
利用Keras开发用于分类问题的双向LSTM及与LSTM性能的比较
双向LSTM是传统LSTM的扩展,可以提高序列分类问题的模型性能。在输入序列为时间问题的分类数据上,双向LSTM在输入序列上训练的模型是两个而不是一个LSTM。输入序列中的第一个是原始样本,第二个是输入序列的反向样本。这可以为网络提供额外的上下文,并且可以更快,更全面地学习该问题。环境本教程假设您已安装Python SciPy环境。您可以在此示例中使用Python 2或3。本教程假设您使用...原创 2018-11-09 20:16:24 · 7639 阅读 · 0 评论 -
深度学习在视觉问题方面的代码讲解
视觉问答的深度学习 大约一年前,一个名为Eugene Goostman的聊天机构成为主流新闻,之后被报道为第一个在雷丁大学举办的活动中通过着名的图灵测试的计算机程序。虽然组织者称赞它是一项历史性成就,但大多数科学界并未留下深刻印象。这引出了一个问题:图灵测试,在其原始形式中,是否适合现代人工智能测试?在过去几年中,许多论文(如来自JHU / Brown的这篇论文,以及来自MPI的这...翻译 2018-09-01 17:14:44 · 1386 阅读 · 0 评论 -
在TensorFlow中实现CNN复合模型对文本分类任务(多分类任务)
在这篇文章中,我们将实现一个类似于Kim Yoon的用于句子级别分类的卷积神经网络模型的模型。本文提出的模型在一系列文本分类任务(如情感分析)中实现了良好的分类性能,并已成为新文本分类体系结构的标准基线。我假设您已经熟悉应用于NLP的卷积神经网络的基础知识。如果没有,我建议首先阅读了解NLP的卷积神经网络,以获得必要的背景知识。数据和预处理我们将在这篇文章中使用的数据集是电影评论数据集...翻译 2018-07-19 21:13:57 · 4206 阅读 · 0 评论 -
深度学习CNN模型预测电影评论中的情感问题
情感分析是一种自然语言处理问题,其中理解文本并预测潜在意图。在这篇文章中,您将了解如何使用Keras深度学习库在Python中预测电影评论的积极或消极情绪。阅读这篇文章后你会知道:关于自然语言处理的IMDB情绪分析问题以及如何在Keras中加载它。如何在Keras中使用单词嵌入来解决自然语言问题。如何开发和评估IMDB问题的多层感知模型。如何为IMDB问题开发一维卷积神经网络模型。 ...翻译 2018-07-13 21:44:41 · 3253 阅读 · 0 评论 -
神经网络(LSTM)在股票预测中的具体实现:附keras和tensorflow核心源码讲解)
最近不少网友一直在问我LSTM在股票预测中的实现为何直接copy网上的代码为何运行不了或者将和股票数据类似的数据运行在网上的一些模型上不能顺利运行?在这个我将一一解答上述问题,并给出相关代码在股票预测中的讲解(如还有问题可进群(225215316,进行讨论询问等)。 首先,网上直接copy代码在自己的环境下运行,即使博主发出的代码是可行的,也可能由于环境配置问题带来报错问题,还有...原创 2018-06-28 20:25:24 · 52758 阅读 · 8 评论 -
基于RNN(循环神经网络)的北京雾霾天气指数的预测(keras实现RNN,LSTM神经网络算法)
随着科学技术的发展,人们渴望对天气有一定的掌握空间,从古代的夜观天象到如今的气象卫星,人类在对天气的预测上不断的进步与发展,本文将运用循环神经网络实现对天气情况的初步预测,循环神经网络是人工智能领域深度学习的一种算法,基于对时间序列事情的处理能达到特别好的效果,而天气影响因素恰恰是基于时间序列的。我们通过神经网络模型对影响天气因素的学习,比如:风速、风向、露点温度、(大气)压力等一系列外观因素可以...原创 2018-07-02 18:42:49 · 18316 阅读 · 8 评论