CNN
小宋是呢
作者简介:深度学习开发分享博主。全网粉丝3W+,阅读量200W+。
CSDN深度学习博客专家以及微信公众号《简明AI》主要作者。创作内容是基于深度学习的理论学习与应用开发技术分享,致力于最简单明了AI技术分享与最实用AI应用教程。
撰写并发表深度学习论文两篇,获得国家级及省级一等奖奖项八次,以第一作者授权实用新型及发明专利共计十余项,天池与BDCI比赛Top10奖项数次。
在某公司担任算法工程师,从事计算机视觉及时序序列数据的检测识别;深度学习工程化经验丰富,擅长针对新算法研究与应用,包括对模型调优、模型转化及多平台部署等。
展开
-
[Keras深度学习浅尝]实战三·RNN实现Fashion MNIST 数据集分类
[Keras深度学习浅尝]实战二·RNN实现Fashion MNIST 数据集分类与我们上篇博文[Keras深度学习浅尝]实战一结构相同,修改的地方有,定义网络与模型训练两部分,可以对比着来看。通过使用RNN结构,预测准确率略有提升,可以通过修改超参数以获得更优结果。代码部分# TensorFlow and tf.kerasimport tensorflow as tffrom tens...原创 2018-12-21 11:49:36 · 1193 阅读 · 0 评论 -
[PyTorch小试牛刀]实战四·CNN实现逻辑回归对FashionMNIST数据集进行分类(使用GPU)
[PyTorch小试牛刀]实战四·CNN实现逻辑回归对FashionMNIST数据集进行分类(使用GPU)内容还包括了网络模型参数的保存于加载。数据集下载地址代码部分import torch as timport torchvision as tvimport numpy as npimport time# 超参数EPOCH = 5BATCH_SIZE = 100DOW...原创 2018-12-23 11:28:48 · 2188 阅读 · 2 评论 -
[PyTorch小试牛刀]实战五·RNN(LSTM)实现逻辑回归对FashionMNIST数据集进行分类(使用GPU)
[PyTorch小试牛刀]实战五·RNN(LSTM)实现逻辑回归对FashionMNIST数据集进行分类(使用GPU)内容还包括了网络模型参数的保存于加载。数据集下载地址代码部分import torch as timport torchvision as tvimport numpy as npimport time# 超参数EPOCH = 5BATCH_SIZE = 1...原创 2018-12-23 12:21:33 · 2157 阅读 · 0 评论 -
[TensorFlow深度学习深入]实战二·使用CNN网络识别破解数字验证码
[TensorFlow深度学习深入]实战二·使用CNN网络进行数据验证码破解识别参考博客。在此基础上做了小修改。本博文数据集。代码部分import osos.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"import tensorflow as tfimport numpy as npfrom PIL import Imageimport os...原创 2018-12-12 13:05:50 · 1066 阅读 · 3 评论 -
[MXNet逐梦之旅]练习五·使用MXNetFashionMNIST数据集CNN分类(对比CPU与GPU)
[MXNet逐梦之旅]练习五·使用MXNetFashionMNIST数据集CNN分类(对比CPU与GPU)使用下述代码实现检测当前环境GPU是否支持def try_gpu(): try: ctx = mx.gpu() _ = mx.nd.zeros((1,), ctx=ctx) except mx.base.MXNetError: ...原创 2019-01-17 11:24:36 · 834 阅读 · 0 评论 -
[深度学习概念]·CNN卷积神经网络原理分析
目录2.0 卷积神经网络简述2.1 二维卷积层2.1.1. 二维互相关运算2.1.2. 图像中物体边缘检测2.1.3. VGGNet实例边缘检测分析2.0 卷积神经网络简述本章将介绍卷积神经网络。它是近年来深度学习能在计算机视觉领域取得突破性成果的基石。它也逐渐在被其他诸如自然语言处理、推荐系统和语音识别等领域广泛使用。我们将先描述卷积神经网络中卷积层和池化层的工作原理...原创 2019-01-20 11:16:16 · 1594 阅读 · 1 评论 -
[深度学习概念]·CNN网络架构演进:从LeNet到DenseNet(代码实现基于Keras)
CNN网络架构演进:从LeNet到DenseNet卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀。CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNet和最近的DenseNet,网络越来越深,架构越来越复杂,解决反向传播时梯度消失的方法也越来越巧妙...转载 2019-02-22 14:40:16 · 1008 阅读 · 0 评论