机器学习
文章平均质量分 55
thequitesunshine007
探索者
展开
-
变分编码器VAE原理
短短三年时间,变分编码器VAE(Variational Auto-encoder)同GAN一样,成为无监督复杂概率分布学习的最流行的方法。VAE之所以流行,是因为它建立在标准函数逼近单元,即神经网络,此外它可以利用随机梯度下降进行优化。本文将解释重点介绍VAE背后的哲学思想和直观认识及其数学原理。VAE的最大特点是模仿自动编码机的学习预测机制,在可测函数之间进行编码、解码。同GAN类似,其最重要的idea是基于一个令人惊叹的数学事实:对于一个目标概率分布,给定任何一种概率分布,总存在一个可微的可测函数,转载 2021-10-21 10:09:38 · 477 阅读 · 0 评论 -
图像检索系列——利用深度学习实现以图搜图
转载自:图像检索系列——利用深度学习实现以图搜图 - 知乎前言在上一篇文章《图像检索系列——利用 Python 检测图像相似度》中,我们介绍了一个在图像检索领域非常常用的算法——感知哈希算法。这是一个很简单且快速的算法,其原理在于针对每一张图片都生成一个特定的“指纹”,然后采取一种相似度的度量方式得出两张图片的近似程度。然而随着深度学习的崛起,极大的推动了图像领域的发展,在提取特征这方面而言,神经网络目前有着不可替代的优势。在上一篇文章中我们也介绍了图像检索往往是基于图像的特征比较,看特征匹配的转载 2021-09-24 11:33:36 · 8386 阅读 · 2 评论 -
为何pytorch预训练的resnet模型对输入图片的大小无要求?
原本的ResNet18模型对于输入的训练图像是有严格的大小限制的,规定的大小为224*224。但是最近发现Pytorch中预训练的resnet模型时,输入图片的大小为200*200或者是其他尺寸时也可以。 于是就好奇到底是什么原因。1,RESNET-18网络图示理解17个卷积层(conv)+1个全连接层(fc)提示: BN 就是批量归一化 RELU 就是**函数 lambda x:x 这个函数的意...原创 2021-09-23 14:37:56 · 10654 阅读 · 1 评论 -
神经网络中pooling池化层如何参与反向传播?
池化层pooling操作常见的有平均池化mean pooling和最大池化max pooling,前者取某特征区域的平均值进行输出,而后者则取某特征区域的最大值进行输出,池化层的一般作用是对特征图进行下采样,它本身没有参数权重,计算也简单,但它可达到降维特征、突显特征、减少参数量、减少计算量、增加非线性、防止过拟合及提升模型泛化能力等作用,池化层的前向传播我们都比较好理解,但是其是如何参与反向传播的呢?本文就让我们一起来了解关于池化层的反向传播实现方法吧。池化层在反向传播时,它是不可导的,...转载 2021-09-16 17:02:49 · 1749 阅读 · 0 评论 -
基于OPencv的支持向量机分类案例
《OpenCV 4快速入门》案例:关于SVM的数学理论及详细的几何意义,在大多数机器学习的书籍里都会详细介绍。知乎有篇文章讲得很好。【机器学习】支持向量机 SVM(非常详细)该案例来自于冯振等人编写的《OpenCV 4快速入门》,这是一本好书,个人感觉写得很好,虽然数学原理没有过多描述,但会大致提一下基本思想和原理,很适合应用。#include <opencv2/opencv.hpp>#include <iostream> using namespace std;原创 2021-04-27 11:31:16 · 615 阅读 · 0 评论 -
浅谈「正定矩阵」和「半正定矩阵」
请看浅谈「正定矩阵」和「半正定矩阵」原创 2021-03-14 00:12:22 · 347 阅读 · 0 评论 -
什么是主成分分析PCA
这两个视频,经典,深入!B站视频,国内大神中文字幕原创 2021-03-08 23:15:58 · 115 阅读 · 0 评论 -
数据科学家需要知道的5种聚类算法
作者:George Seif编译:Bot编者按:聚类是一种涉及数据点分组的机器学习技术。给定一组数据点,我们可以使用聚类算法将每个数据点到分类到图像中的特定组中。理论上,同一组中的数据点应具有相似的属性和特征,而不同组中的数据点的属性和特征则应高度不同。聚类是无监督学习的一种方法,是用于多领域统计数据分析的常用技术。在数据科学中,我们可以通过聚类分析观察使用聚类算法后这些数据点分别落入了哪个组,并从中获得一些有价值的信息。那么今天,我们就跟着机器学习工程师George Seif来看看数据科学家需要掌.原创 2020-11-17 14:10:41 · 245 阅读 · 2 评论 -
一文理解EM算法
估计有很多入门机器学习的同学在看到EM算法的时候会有种种疑惑:EM算法到底是个什么玩意?它能做什么?它的应用场景是什么?网上的公式推导怎么看不懂?下面我会从一个案例开始讲解极大似然估计,然后过渡到EM算法,讲解EM算法到底是个什么玩意儿以及它的核心的idea是什么。之后讲解EM算法的推导公式,鉴于网上很多博客文章都是直接翻译吴恩达的课程笔记内容,有很多推导步骤都是跳跃性的,我会把这些中间步骤弥补上,让大家都能看懂EM算法的推导过程。最后以一个二硬币模型作为EM算法的一个实例收尾。希望阅读本篇文章之后能对E原创 2020-11-17 13:50:51 · 231 阅读 · 0 评论 -
神经网络损失函数中的正则化项L1和L2
这篇博客写的不错!转载至:https://blog.csdn.net/dcrmg/article/details/80229189转载 2020-06-03 17:06:57 · 361 阅读 · 0 评论 -
常用激活函数(激励函数)理解与总结
博主总结的很好,转载自:https://blog.csdn.net/tyhj_sf/article/details/79932893转载 2020-06-04 10:26:44 · 303 阅读 · 0 评论 -
tensorflow验证模型准确率出现Allocation of 1003520000 exceeds 10% of system memory
原本是一下子直接放入mnist.test.images, y_: mnist.test.labels,占用内存过大,导致提示'Allocation of 1003520000 exceeds 10% of system memory.'# 训练结束后报告在测试集上的准确度print("test accuracy %g" % accuracy.eval(feed_dict={ x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0}))原创 2020-05-23 23:23:12 · 7887 阅读 · 1 评论 -
期望最大化算法 EM
本篇文章我们来介绍一种适用范围非常广泛的机器学习算法——期望最大化算法(Expectation Maximization,之后简称EM)。吴军老师在其著作《数学之美》中将其称为“上帝的算法”,因为该算法过程和原理非常简洁易懂,只要我们手头有足量的数据,再定义一个要最大化的目标函数,通过计算机把相关参数训练出来,即可得到想要的模型,非常美妙。EM算法主要分为两个步骤:E-step(求期望步骤,用来求出当前迭代轮次所要最大化的期望的表达式)以及M-step(最大化期望步骤,通过令偏导为0的形式求出该轮次使得期原创 2020-09-18 16:32:00 · 454 阅读 · 0 评论 -
随机森林算法及其实现 Random Forest
很好的一篇博文:https://blog.csdn.net/yangyin007/article/details/82385967转载 2020-09-18 14:15:40 · 201 阅读 · 0 评论