DL&ML
文章平均质量分 95
.
DwD-
这个作者很懒,什么都没留下…
展开
-
【深度学习】经典CNN模型梳理与Pytorch实现:LeNet、AlexNet、NiN、VGGNet、ResNet
1. 前言经典永不过时。这篇文章中,我们要回顾卷积神经网络发展史上几个经典模型:LeNet、AlexNet、NiN、VGGNet、ResNet,梳理它们的发展脉络,总结它们各自的特点,并借助Pytorch完成实现。2. 模型及实现2.1 LeNetLeNet是LeCun在1998年提出的用于解决手写数字识别任务的卷积神经网络模型,这一网络模型奠定了之后CNN的基本架构。它又被称为LeNet-5,5表示第5代版本。LeNet-5的基本结构是:卷积、池化、卷积、池化、全连接。LeNet.原创 2021-03-19 21:26:10 · 1432 阅读 · 0 评论 -
小样本学习概述
目录前言小样本学习存在的意义?什么是小样本学习?小样本学习的方法有哪些?结语前言小样本学习(Few-Shot Learning)是近几年兴起的一个研究领域,小样本学习旨在解决在数据有限的机器学习任务。小样本学习存在的意义?近些年,以深度卷积神经网络为代表的深度学习方法在各类机器学习任务上取得了优异的成绩——很多任务上已经超越了人类表现。狂欢背后,危机四伏。因为这些深度学习方法work的关键之一是海量标注数据的支持。但是在工业界,很多时候难以获得海量的训练数据,更.原创 2020-12-09 16:44:05 · 31992 阅读 · 14 评论 -
【深度学习】使用C++手动搭建一个神经网络
1.前言深度学习框架给我们带来了很多方便,但是过于依赖框架反而会让我们不知所以然。本篇博客中,我使用C++语言实现了一个简单的神经网络。2.原理神经网络由正向传播和反向传播构成。正向传播指的是输入样本数据x,通过一层层网络的计算后得到结果。反向传播值得是通过预测结果与正确结果的差异来对网络中的参数进行修正的过程。下面我们分别来介绍正向传播算法和反向传播算法:首先以一个最简单的神经元单元为例:其中x1,x2,x3是一个输入样本的三个数据,输出是y =σ( x1*w1 + x2*w.原创 2020-09-21 18:08:17 · 13207 阅读 · 10 评论