![](https://img-blog.csdnimg.cn/20200410101844131.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器/深度学习
文章平均质量分 87
主要方向
浩波的笔记
微信公众号:浩波的笔记
展开
-
天池-新闻推荐-Baseline
前言此次比赛是新闻推荐场景下的用户行为预测挑战赛, 是Datawhale与天池联合举办,该赛题是以新闻APP中的新闻推荐为背景, 目的是要求我们根据用户历史浏览点击新闻文章的数据信息预测用户未来的点击行为, 即用户的最后一次点击的新闻文章, 这道赛题的设计初衷是引导大家了解推荐系统中的一些业务背景, 解决实际问题!赛题链接: 零基础入门推荐系统 - 新闻推荐对于刚接触推荐系统同学推荐先浏览以下基础知识:推荐系统摘要推荐系统知识梳理——协同过滤推荐系统知识梳理——矩阵分解推荐系统知识梳理原创 2020-11-25 22:23:04 · 306 阅读 · 0 评论 -
统计学习方法笔记(李航)———第六章(逻辑斯谛回归)
前言:《统计学习方法》虽然分别对两者作了介绍,但没有深入讨论它们之间的联系。本文准备从最大熵模型出发,推导出逻辑斯谛回归模型,并解释两者的联系与区别。本文主要从以下几个方面进行描述:最大熵原理的数学解释如何理解条件分布的极大似然函数将最大熵模型转化为逻辑斯谛模型一、从最大熵模型到逻辑斯谛回归(一)最大熵模型最大熵原理我们知道(参考第5章)信息熵用于衡量一个随机变量的“不确定性”,熵越大,表示随机变量的不确定性越高。也证明了,当随机变量为均匀分布的时候,它的熵最大。“最大熵原理”的意思原创 2020-11-08 17:58:54 · 535 阅读 · 0 评论 -
统计学习方法笔记(李航)———第五章(决策树)
一、特征选择特征选择的目的是筛选最有价值的特征,提高决策树的学习效率,同时避免无价值的特征导致模型过于复杂。这是决策树模型的理论基础,涉及信息论的一些基本内容,书中一笔带过。为了加深理解,我把书中的内容补充完整,把一些结论的证明、推导过程全部展示出来。(一)信息论初步1.边缘熵在信息论中,熵(entropy)是随机变量不确定性的度量,不确定性越高,熵值越大。设 X\mathrm{X}X 是离散型随机变量(有限个),其概率分布为 P(X=xi)=pi,i=1,2,…,nP\left(X=x_{i}\原创 2020-10-06 22:51:26 · 603 阅读 · 0 评论 -
LSTM和GRU介绍
反向传播(Back Propagation)是一种与最优化方法(比如梯度下降方法)结合、用来训练人工神经网络的常见方法。该方法对网络中所有权重计算损失函数的梯度,然后将梯度反馈给最优化方法,用来更新网络权重以最小化损失函数。在神经网络中一个典型的问题就是梯度消失(Gradient Vanishing)的问题,其原因在于是随着神经网络层数的加深,梯度逐渐减小甚至接近0,当梯度变的非常小的时候,就不能为学习提供足够的信息。Recurrent Neural Networks(递归神经网络,RNN)也存在梯度消原创 2020-09-28 21:36:56 · 2496 阅读 · 0 评论 -
数据竞赛入门-金融风控(贷款违约预测)五、模型融合
前言本次活动为datawhale与天池联合举办,为金融风控之贷款违约预测挑战赛(入门)比赛地址:https://tianchi.aliyun.com/competition/entrance/531830/introduction模型融合是比赛后期上分的重要手段,特别是多人组队学习的比赛中,将不同队友的模型进行融合,可能会收获意想不到的效果哦,往往模型相差越大且模型表现都不错的前提下,模型融合后结果会有大幅提升,以下是模型融合的方式。平均简单平均法简单加权平均,结果直接融合 求多个预测结果的原创 2020-09-27 23:56:55 · 1207 阅读 · 0 评论 -
数据竞赛入门-金融风控(贷款违约预测)四、建模与调参
前言本次活动为datawhale与天池联合举办,为金融风控之贷款违约预测挑战赛(入门)比赛地址:https://tianchi.aliyun.com/competition/entrance/531830/introduction模型对比与性能评估逻辑回归推荐博客:机器学习笔记I: 基于逻辑回归的分类预测机器学习系列(1)_逻辑回归初步优点训练速度较快,分类的时候,计算量仅仅只和特征的数目相关;简单易理解,模型的可解释性非常好,从特征的权重可以看到不同的特征对最后结果的影响;适合原创 2020-09-24 23:53:28 · 2710 阅读 · 0 评论 -
统计学习方法笔记(李航)———第四章(朴素贝叶斯法)
朴素贝叶斯法是一种多分类算法,它的基础是“朴素贝叶斯假设”(假设实例的各个特征具有条件独立性)。根据训练集估计模型的先验概率、条件概率,再按照后验概率最大化的准则,给出输入实例的分类预测。它的算法实现很简单,但理论证明并不容易。具体来说,通过极大似然估计法估计先验概率、条件概率,计算过程比较复杂,书上也没有给出。本章主要分为3个部分:朴素贝叶斯分类器,介绍它的基本假设与算法实现;先验概率、条件概率的极大似然估计;贝叶斯估计与拉普拉斯平滑。一、朴素贝叶斯分类器输入:训练集 T={(x1,y1)原创 2020-09-23 08:52:43 · 374 阅读 · 1 评论 -
kd树介绍(KNN算法引出)
kd 树的结构kd树是一个二叉树结构,它的每一个节点记载了 [特征坐标, 切分轴, 指向左枝的指针, 指向右枝的指针] 。 其中, 特征坐标是线性空间 Rn\mathbb{R}^{n}Rn 中的一个点 (x1,x2,…,xn)∘\left(x_{1}, x_{2}, \ldots, x_{n}\right)_{\circ}(x1,x2,…,xn)∘切分轴由一个整数 rrr 表示, 这里 1≤r≤n,1 \leq r \leq n,1≤r≤n, 是我们在 nnn 维空间中沿第 rrr 维进行一次分原创 2020-09-16 13:18:39 · 809 阅读 · 0 评论 -
统计学习方法笔记(李航)———第二章(感知机)
感知机(perceptron)是Rosenblatt在60年代提出的第一个机器学习模型。尽管比较简单,而且有局限性,但它是后续学习“支持向量机”的基础。本章有两个值得注意的地方:一是对偶形式的理解,二是算法收敛性的理解,这些地方都能和“支持向量机”联系起来。一、模型的数学形式与图像表示数学形式感知机模型非常简单,输入空间(特征空间) 为 X⊆Rn,\mathscr{X} \subseteq R^{n},X⊆Rn, 输出空间为 Y={+1,−1}\mathscr{Y}=\{+1,-1\}Y={+1,−原创 2020-09-07 17:16:53 · 365 阅读 · 0 评论 -
统计学习方法笔记(李航)———第一章(统计学习方法概论)
一、基本概念假设空间 (Hypothesis space)相对“输入空间”、“输出空间”、“特征空间”等向量空间,假设空间的概念比较抽象。首先它是一个“映射”的集合。什么是映射呢?在这里暂且理解为函数吧。输入空间中的一个 n维向量x,通过函数f(⋅)f(\cdot)f(⋅) 得到了输出空间中的m维向量y:注意:按照符号规定, x(i)x^{(i)}x(i) 表示此向量的第 iii 个分量 (特征) , xix_{i}xi 表示这是第 iii 个向量 (样本)因此, 假设空间是函数的集合, 即原创 2020-09-05 23:23:09 · 518 阅读 · 0 评论 -
kaggle实战—泰坦尼克(五、模型搭建-模型评估)
kaggle实战—泰坦尼克(一、数据分析)kaggle实战—泰坦尼克(二、数据清洗及特征处理)kaggle实战—泰坦尼克(三、数据重构)kaggle实战—泰坦尼克(四、数据可视化)kaggle实战—泰坦尼克(五、模型搭建-模型评估)前言相信大家都有队pandas,numpy等数据科学库有一定了解,其中不乏有很多人有专门刷过相关课程或者看多相关书籍,例如《python for data analysis》。但是在实操过程中有很多函数还是得看着官方文档来进行敲写,既费时又费力 。最近刚好data.原创 2020-08-28 23:42:30 · 1803 阅读 · 0 评论 -
机器学习笔记III: 基于支持向量机的分类预测
支持向量机(Support Vector Machine,SVM)是一个非常优雅的算法,具有非常完善的数学理论,常用于数据分类,也可以用于数据的回归预测中,由于其优美的理论保证和利用核函数对于线性不可分问题的处理技巧, 在上世纪90年代左右,SVM曾红极一时。 本文将不涉及非常严格和复杂的理论知识,力求于通过直觉来感受 SVM。算法实战Demo实践:首先我们利用sklearn直接调用 SVM函数进行实践尝试Step1:库函数导入## 基础函数库import numpy as np ## 导入原创 2020-08-25 13:38:32 · 327 阅读 · 0 评论 -
机器学习笔记II: 决策树
思考Q1:dropna和fillna有哪些参数,分别如何使用呢?dropna( )对于Serial对象丢弃带有NAN的所有项In [152]: data=pd.Series([1,np.nan,5,np.nan])In [153]: dataOut[153]:0 1.01 NaN2 5.03 NaNdtype: float64In [154]: data.dropna()Out[154]:0 1.02 5.0dtype: float64原创 2020-08-22 17:32:14 · 437 阅读 · 0 评论 -
机器学习笔记I: 基于逻辑回归的分类预测
逻辑回归的介绍逻辑回归(Logistic regression,简称LR)虽然其中带有"回归"两个字,但逻辑回归其实是一个分类模型,并且广泛应用于各个领域之中。虽然现在深度学习相对于这些传统方法更为火热,但实则这些传统方法由于其独特的优势依然广泛应用于各个领域中。而对于逻辑回归而言,最为突出的两点就是其模型简单和模型的可解释性强。逻辑回归模型的优劣势:优点:实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低;缺点:容易欠拟合,分类精度可能不高逻辑回归的应用逻辑回归模型广泛原创 2020-08-19 23:00:27 · 508 阅读 · 0 评论 -
基于深度学习的文本分类3
文本表示方法Part4Transformer原理Transformer是在"Attention is All You Need"中提出的,模型的编码部分是一组编码器的堆叠(论文中依次堆叠六个编码器),模型的解码部分是由相同数量的解码器的堆叠。我们重点关注编码部分。他们结构完全相同,但是并不共享参数,每一个编码器都可以拆解成两部分。在对输入序列做词的向量化之后,它们首先流过一个self-attention层,该层帮助编码器在它编码单词的时候能够看到输入序列中的其他单词。self-attention的输原创 2020-08-04 23:20:45 · 197 阅读 · 0 评论 -
基于深度学习的文本分类2
文本表示方法 Part3词向量本节通过word2vec学习词向量。word2vec模型背后的基本思想是对出现在上下文环境里的词进行预测。对于每一条输入文本,我们选取一个上下文窗口和一个中心词,并基于这个中心词去预测窗口里其他词出现的概率。因此,word2vec模型可以方便地从新增语料中学习到新增词的向量表达,是一种高效的在线学习算法(online learning)。word2vec的主要思路:通过单词和上下文彼此预测,对应的两个算法分别为:Skip-grams (SG):预测上下文Con原创 2020-08-01 17:01:08 · 314 阅读 · 0 评论 -
Kaggle入门——房价预测
Kaggle比赛Kaggle是一个著名的供机器学习爱好者交流的平台。图3.7展示了Kaggle网站的首页。为了便于提交结果,需要注册Kaggle账号。我们可以在房价预测比赛的网页上了解比赛信息和参赛者成绩,也可以下载数据集并提交自己的预测结果。该比赛的网页地址是 https://www.kaggle.com/c/house-prices-advanced-regression-techniques 。获取和读取数据集比赛数据分为训练数据集和测试数据集。两个数据集都包括每栋房子的特征,如街道类型、原创 2020-07-29 10:16:41 · 498 阅读 · 0 评论 -
欠拟合和过拟合以及如何选择模型
模型选择、欠拟合和过拟合在前几节基于Fashion-MNIST数据集的实验中,我们评价了机器学习模型在训练数据集和测试数据集上的表现。如果你改变过实验中的模型结构或者超参数,你也许发现了:当模型在训练数据集上更准确时,它在测试数据集上却不一定更准确。这是为什么呢?训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的原创 2020-07-27 18:36:55 · 1238 阅读 · 0 评论 -
损失函数——交叉熵损失函数
交叉熵代价函数(Cross-entropy cost function)是用来衡量人工神经网络(ANN)的预测值与实际值的一种方式。与二次代价函数相比,它能更有效地促进ANN的训练。在介绍交叉熵代价函数之前,本文先简要介绍二次代价函数,以及其存在的不足。一、二次代价函数的不足ANN的设计目的之一是为了使机器可以像人一样学习知识。人在学习分析新事物时,当发现自己犯的错误越大时,改正的力度就越大。比如投篮:当运动员发现自己的投篮方向离正确方向越远,那么他调整的投篮角度就应该越大,篮球就更容易投进篮筐。同理,原创 2020-07-22 10:46:40 · 2771 阅读 · 0 评论 -
pytorch自动求梯度—详解
构建深度学习模型的基本流程就是:搭建计算图,求得损失函数,然后计算损失函数对模型参数的导数,再利用梯度下降法等方法来更新参数。搭建计算图的过程,称为“正向传播”,这个是需要我们自己动手的,因为我们需要设计我们模型的结构。由损失函数求导的过程,称为“反向传播”,求导是件辛苦事儿,所以自动求导基本上是各种深度学习框架的基本功能和最重要的功能之一,PyTorch也不例外。一、pytorch自动求导初步认识比如有一个函数,y=x的平方(y=x2),在x=3的时候它的导数为6,我们通过代码来演示这样一个过程。x原创 2020-07-17 21:24:35 · 5235 阅读 · 2 评论 -
CV之 HOG特征描述算子-行人检测
4.1 简介本次任务将学习一种在深度学习之前非常流行的图像特征提取技术——方向梯度直方图(Histogram of Oriented Gradients),简称HOG特征。HOG特征是在2005年CVPR的会议发表,在图像手工特征提取方面具有里程碑式的意义,当时在行人检测领域获得了极大成功。学习HOG特征的思想也有助于我们很好地了解传统图像特征描述和图像识别方法,本次任务我们将学习到HOG背后的设计原理,和opencv的实现。4.2 内容介绍1. HOG特征简介HOG特征是一种图像局部特征,其基原创 2020-07-06 22:26:05 · 381 阅读 · 0 评论 -
CV之Haar特征描述算子-人脸检测
3.1简介Haar-like特征最早是由Papageorgiou等应用于人脸表示,在2001年,Viola和Jones两位大牛发表了经典的《Rapid Object Detection using a Boosted Cascade of Simple Features》和《Robust Real-Time Face Detection》,在AdaBoost算法的基础上,使用Haar-like小波特征和积分图方法进行人脸检测,他俩不是最早使用提出小波特征的,但是他们设计了针对人脸检测更有效的特征,并对Ad原创 2020-07-02 11:33:05 · 436 阅读 · 0 评论 -
CV之LBP特征描述算子-人脸检测
2.1 简介LBP指局部二值模式(Local Binary Pattern),是一种用来描述图像局部特征的算子,具有灰度不变性和旋转不变性等显著优点。LBP常应用于人脸识别和目标检测中,在OpenCV中有使用LBP特征进行人脸识别的接口,也有用LBP特征训练目标检测分类器的方法,OpenCV实现了LBP特征的计算,但没有提供一个单独的计算LBP特征的接口。也就是说OpenCV中使用了LBP算法,但是没有提供函数接口。2.2 算法理论介绍2.2.1 LBP原理介绍 LBP特征用图像的局部领域的联合分原创 2020-06-28 23:34:31 · 446 阅读 · 1 评论 -
CV之Harris特征点检测器-兴趣点检测(详解)
1.1 简介在图像处理领域中,特征点又被称为兴趣点或者角点,它通常具有旋转不变性和光照不变性和视角不变性等优点,是图像的重要特征之一,常被应用到目标匹配、目标跟踪、三维重建等应用中。点特征主要指图像中的明显点,如突出的角点、边缘端点、极值点等等,用于点特征提取的算子称为兴趣点提取(检测)算子,常用的有Harris角点检测、FAST特征检测、SIFT特征检测及SURF特征检测。本次博客较为常用而且较为基础的Harris角点检测算法,它的思想以及数学理论能够很好地帮助我们了解兴趣点检测的相关原理。1.2内原创 2020-06-24 19:15:32 · 849 阅读 · 0 评论 -
数据挖掘之随机事件与随机变量
一、随机事件1.基本概念释义现实生活中,一个动作或一件事情,在一定条件下,所得的结果不能预先完全确定,而只能确定是多种可能结果中的一种,称这种现象为随机现象。 例如,抛掷一枚硬币,其结果有可能是出现正面,也有可能是出现反面;掷骰子游戏中,出现的数字可能是1,2,3,4,5,6其中的任意一个。以上这些现象都是随机现象。使随机现象得以实现和对它观察的全过程称为随机试验,记为**EEE**。随机实验满足以下三个条件:可以在相同条件下重复进行;结果有多种可能性,并且所有可能结果事先已知;作一次试验原创 2020-06-22 22:44:03 · 321 阅读 · 0 评论 -
LightGBM(lgb)详解
1. LightGBM简介GBDT (Gradient Boosting Decision Tree) 是机器学习中一个长盛不衰的模型,其主要思想是利用弱分类器(决策树)迭代训练以得到最优模型,该模型具有训练效果好、不易过拟合等优点。GBDT不仅在工业界应用广泛,通常被用于多分类、点击率预测、搜索排序等任务;在各种数据挖掘竞赛中也是致命武器,据统计Kaggle上的比赛有一半以上的冠军方案都是基于GBDT。而LightGBM(Light Gradient Boosting Machine)是一个实现GBDT原创 2020-06-13 16:23:23 · 64280 阅读 · 3 评论 -
推荐系统——Item2vec
一、背景推荐系统中,传统的CF算法都是利用 item2item 关系计算商品间相似性。i2i数据在业界的推荐系统中起着非常重要的作用。传统的i2i的主要计算方法分两类,memory-based和model-based。本文主要介绍了microsoft和airbnb两大公司如何将embedding技术应用于推荐/搜索业务。实践证明,embedding技术对于工业场景来说有着很大的价值和应用前景。首先先了解一下word2vec,不太清楚朋友可以转补到NLP–Word2Vec详解二. Item Embe原创 2020-06-03 18:40:44 · 4997 阅读 · 0 评论 -
天池-街景字符编码识别5-模型训练与验证
模型集成包括:集成学习方法、深度学习中的集成学习和结果后处理思路。集成学习方法在机器学习中的集成学习可以在一定程度上提高预测精度,常见的集成学习方法有Stacking、Bagging和Boosting,同时这些集成学习方法与具体验证集划分联系紧密。由于深度学习模型一般需要较长的训练周期,如果硬件设备不允许建议选取留出法,如果需要追求精度可以使用交叉验证的方法。下面假设构建了10折交叉验证,训练得到10个CNN模型。那么在10个CNN模型可以使用如下方式进行集成:对预测的结果的概率值进行平均原创 2020-06-03 14:23:48 · 215 阅读 · 0 评论 -
NLP--Word2Vec详解
word2vec可以在百万数量级的词典和上亿的数据集上进行高效地训练;并且,该工具得到的训练结果——词向量(word embedding),可以很好地度量词与词之间的相似性。随着深度学习(Deep Learning)在自然语言处理中应用的普及,很多人误以为word2vec是一种深度学习算法。其实word2vec算法的背后是一个浅层神经网络。另外需要强调的一点是,word2vec是一个计算word vector的开源工具。当我们在说word2vec算法或模型的时候,其实指的是其背后用于计算word vect原创 2020-06-02 11:40:47 · 889 阅读 · 0 评论 -
主成分分析(PCA)方法
主成分分析(Principal components analysis,以下简称PCA)是最重要的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。在理解特征提取与处理时,涉及高维特征向量的问题往往容易陷入维度灾难。随着数据集维度的增加,算法学习需要的样本数量呈指数级增加。有些应用中,遇到这样的大数据是非常不利的,而且从大数据集中学习需要更多的内存和处理能力。另外,随着维度的增加,数据的稀疏性会越来越高。在高维向量空间中探索同样的数据集比在同样稀疏的数据集中探索更加困难。主成分分析也称原创 2020-06-01 17:19:14 · 2036 阅读 · 0 评论 -
天池-街景字符编码识别4-模型训练与验证
4 模型训练与验证构造验证集在机器学习模型(特别是深度学习模型)的训练过程中,模型是非常容易过拟合的。深度学习模型在不断的训练过程中训练误差会逐渐降低,但测试误差的走势则不一定。在模型的训练过程中,模型只能利用训练数据来进行训练,模型并不能接触到测试集上的样本。因此模型如果将训练集学的过好,模型就会记住训练样本的细节,导致模型在测试集的泛化效果较差,这种现象称为过拟合(Overfitting)。与过拟合相对应的是欠拟合(Underfitting),即模型在训练集上的拟合效果较差。如图所示:随着模型复原创 2020-05-30 23:45:50 · 183 阅读 · 0 评论 -
天池-街景字符编码识别3-字符识别模型
3 字符识别模型3.1常用CNN网络模型LeNet-5——CNN经典网络模型详解(pytorch实现)AlexNet–CNN经典网络模型详解(pytorch实现)VGG——CNN经典网络模型(pytorch实现)GoogLeNet——CNN经典网络模型详解(pytorch实现)ResNet——CNN经典网络模型详解(pytorch实现)DenseNet——CNN经典网络模型详解(pytorch实现)MobileNet(v1、v2)——CNN经典网络模型详解(pytorch实现)3.2原创 2020-05-24 22:34:03 · 566 阅读 · 0 评论 -
天池-街景字符编码识别2-数据读取与数据扩增
本此使用【定长字符识别】思路来构建模型赛题地址零基础入门CV赛事- 街景字符编码识别关于更详细的数据预处理可=可以参考我的另一篇博文:卷积神经网络性能优化(提高准确率)2 数据读取与数据扩增2.2 图像读取由于赛题数据是图像数据,赛题的任务是识别图像中的字符。因此我们首先需要完成对数据的读取操作,在Python中有很多库可以完成数据读取的操作,比较常见的有Pillow和OpenCV。2.2.1 PillowPillow是Python图像处理函式库(PIL)的一个分支。Pillow提供了常见原创 2020-05-22 23:01:58 · 253 阅读 · 0 评论 -
天池-街景字符编码识别1-赛题理解
赛题地址零基础入门CV赛事- 街景字符编码识别前期环境运行环境及安装运行环境python3.7pytorch1.3.1有GPU首先在Anaconda中创建一个专门用于本次练习赛的虚拟环境。$conda create -n pytorch_gpu python=3.7激活环境,并安装pytorch1.3.1$source activate pytorch_gpu$conda install pytorch=1.3.1 torchvision cudatoolkit=1原创 2020-05-20 22:01:25 · 488 阅读 · 0 评论 -
卷积神经网络性能优化(提高准确率)
注:本文先讲解理论部分,之后会用pytorch给出示例神经网络是一种在很多用例中能够提供最优准确率的机器学习算法。但是,很多时候我们构建的神经网络的准确率可能无法令人满意,或者无法让我们在数据科学竞赛中拿到领先名次。所以,我们总是在寻求更好的方式来改善模型的性能。有很多技术可以帮助我们达到这个目标。本文将介绍这些技术,帮助大家构建更准确的神经网络。过拟合过拟合,典型的表现为训练集损失远远小于验证集损失。而欠拟合则表现为训练集损失大于验证集损失。保证神经网络在测试集上运行良好的第一步就是验证神经网络原创 2020-05-17 19:12:48 · 33616 阅读 · 3 评论 -
pytorch对卷积神经网络常见操作
pytorch中的Tensor通道排列顺序是:[batch, channel, height, width]我们常用的卷积(Conv2d)在pytorch中对应的函数是:torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros')其中:in_channels参数代表输入特征矩阵的深度即channe原创 2020-05-14 23:15:58 · 862 阅读 · 1 评论 -
使用pytorch查看中间层特征矩阵以及卷积核参数
推荐一个可视化工具:TensorBoard注:本次所使用的为AlexNet与ResNet34俩个网络,关于这俩个网络的详细信息可以在我另外俩篇blog查看ResNet——CNN经典网络模型详解(pytorch实现)AlexNet–CNN经典网络模型详解(pytorch实现)查看中间层特征矩阵AlexNetalexnet_model.pyimport torch.nn as nnimport torchclass AlexNet(nn.Module): def __ini原创 2020-05-14 18:01:48 · 5598 阅读 · 9 评论 -
迁移学习 Transfer Learning—通俗易懂地介绍(常见网络模型pytorch实现)
前言你会发现聪明人都喜欢”偷懒”, 因为这样的偷懒能帮我们节省大量的时间, 提高效率. 还有一种偷懒是 “站在巨人的肩膀上”. 不仅能看得更远, 还能看到更多. 这也用来表达我们要善于学习先辈的经验, 一个人的成功往往还取决于先辈们累积的知识. 这句话, 放在机器学习中, 这就是今天要说的迁移学习了, transfer learning.什么是迁移学习?迁移学习通俗来讲,就是运用已有的知识来学习新的知识,核心是找到已有知识和新知识之间的相似性,用成语来说就是举一反三。由于直接对目标域从头开始学习成本太原创 2020-05-10 18:04:09 · 21408 阅读 · 1 评论 -
蒙特卡罗方法—举例说明(C++、python)
1.什么是蒙特卡洛方法(Monte Carlo method)蒙特卡罗方法也称统计模拟方法,是1940年代中期由于科学技术的发展和电子计算机的发明,而提出的一种以概率统计理论为指导的数值计算方法。是指使用随机数(或更常见的伪随机数)来解决很多计算问题的方法。20世纪40年代,在冯·诺伊曼,斯塔尼斯拉夫·乌拉姆和尼古拉斯·梅特罗波利斯在洛斯阿拉莫斯国家实验室为核武器计划工作时,发明了蒙特卡罗方法...原创 2020-05-07 17:11:18 · 6949 阅读 · 0 评论 -
MobileNet(v1、v2)——CNN经典网络模型详解(pytorch实现)
在之前的文章中讲的AlexNet、VGG、GoogLeNet以及ResNet网络,它们都是传统卷积神经网络(都是使用的传统卷积层),缺点在于内存需求大、运算量大导致无法在移动设备以及嵌入式设备上运行。而本文要讲的MobileNet网络就是专门为移动端,嵌入式端而设计。MobileNet v1MobileNet网络是由google团队在2017年提出的,专注于移动端或者嵌入式设备中的轻量级CN...原创 2020-05-06 23:53:45 · 4388 阅读 · 1 评论