神经网络
Chris_34
这个作者很懒,什么都没留下…
展开
-
GNN-图神经网络基础内容概述
前言过去的十多年中,神经网络在图像和文本等结构化数据中已经表现的十分出色。CNN,RNN,自编码器(Autoencoders)等很多流行的模型在以矩阵或向量作为输入的结构形式数据上都能很好地工作,我称这些结构化的数据为表格数据。而这些模型在非结构化数据上的表现怎样呢?比如最近大家在研究中频繁碰到的图结构数据,如果不将这些非结构化的图数据经过复杂的转换变为表格格式的话,使用传统的方法基本无从下手,...原创 2020-04-12 06:37:44 · 16736 阅读 · 0 评论 -
PyTorch迁移学习入门——VGG16 图像分类
前言迁移学习指的是保存已有问题的解决模型,并将其利用在其他不同但相关问题上。 比如说,用来辨识汽车的知识也可以被用来提升识别卡车的能力。很多情况下迁移学习能够简化我构建机器学习和深度学习模型,降低模型构建的难度,甚至取得不错的结果。本文将针对一个小的图片数据集,使用PyTorch进行迁移学习演示,包括如何使用预训练模型,并将结果自己搭建的卷积神经网络模型进行性能比较。预训练模型预训练模型是...原创 2020-03-31 06:00:48 · 10537 阅读 · 12 评论 -
深度可分离卷积 Depthwise Seperable Convolution
前言在原始图像卷积网络的基础上,经过不断的改进和优化,出现了如分组卷积(Group convolution)、空洞卷积(Dilated convolution 或 À trous),深度可分离卷积(Depthwise Seperable Convolution)等各式各样的卷积改进形式。Depthwise(DW)卷积与Pointwise(PW)卷积,合起来被称作深度可分离卷积,是首先由Goog...原创 2020-03-27 05:19:45 · 9301 阅读 · 0 评论 -
CNN全连接层和卷积层的转化
深度学习网络中很多全连接的实现的部分实际上是使用了较小卷积核的卷积方式,CS231n对于这部分的内容有比较详细地讲解,我会结合自己的理解进行整理。先来看下CS231n中的内容:把全连接层转化成卷积层全连接层和卷积层之间不同在于:卷积核中的权值每次滑动计算时只是局部连接,且在卷积列中的神经元共享参数——计算局部信息,而全连接层神经元的权值与所有输入相连——计算全局信息。但二者都是采用的矩阵的点...原创 2020-03-26 22:33:35 · 7556 阅读 · 0 评论 -
有趣的神经网络学习教程
推荐一个有趣的神经网络学习教程最初在Youtube上看到了3Blue1Brown关于数学学习方法的教程,偶然间发现他们制作的4集关于神经网络的前向和反向传播的视频演示教程,被他们全面而有趣的讲解而吸引了。感觉这么有创意又很有帮助的方法应该可以帮助很多人,至少是像我这样的喜欢通过图像学习的孩子。好消息是是现在他们在B站上也开通了账户,并且上传了他们的作品,我把链接贴过来。这几个视频是一个神经...原创 2019-03-15 17:52:00 · 361 阅读 · 0 评论 -
目标检测 2—— One Stage目标检测算法
笔记来源:DeepLearning-500-questions上次学习了目标检测的基本概念和一些经典的Two Stage算法:1.目标检测Two Stage3. One Stage目标检测算法我们将对单次目标检测器(包括SSD系列和YOLO系列等算法)进行综述。我们将分析FPN以理解多尺度特征图如何提高准确率,特别是小目标的检测,其在单次检测器中的检测效果通常很差。然后我们将分析Focal ...翻译 2019-08-12 12:39:42 · 8732 阅读 · 0 评论 -
目标检测 3—— 人脸检测
笔记来源:DeepLearning-500-questions上次学习了目标检测的基本概念 Two Stage和 One Stage 算法:1.目标检测Two Stage2.目标检测One Stage4 人脸检测在目标检测领域可以划分为了人脸检测与通用目标检测,往往人脸这方面会有专门的算法(包括人脸检测、人脸识别、人脸其他属性的识别等等),并且和通用目标检测(识别)会有一定的差别,着主要...翻译 2019-08-12 13:54:05 · 7607 阅读 · 0 评论