深度学习
文章平均质量分 70
小葵向前冲
这个作者很懒,什么都没留下…
展开
-
深度学习一些资料、链接
关于代码入门Github链接可视化网站链接原创 2022-05-19 16:21:05 · 145 阅读 · 0 评论 -
LR逻辑回归算法---介绍、说明、相关问题
LRLR作用?回归和分类的区别?逻辑回归函数?逻辑回归损失函数?LR的推导?LR和线性回归的区别逻辑回归怎么实现多分类?One-Vs-AllOne-Vs-OneSoftmaxLR, Logistic Regression,逻辑回归之前笔记:逻辑回归推荐视频链接:逻辑回归逻辑回归LR作用?常用的处理二分类问题的线性模型二分类:分类目标只有两种判断是猪吗-----是、不是回归和分类的区别?回归模型的输出是连续的分类模型的输出是离散的逻辑回归函数?逻辑回归=线性回归+s原创 2022-05-09 16:54:15 · 157 阅读 · 0 评论 -
机器学习、正则化(L1正则化、L2正则化)
正则化正则化1. 正则化介绍2. 常见正则化方法2.1 0范数2.2 L1范数2.3 L2范数2.4 q-范数小结正则化1. 正则化介绍正则化 (Regularization)正则化是什么?正则化(Regularization)是一类通过限制模型复杂度,从而避免过拟合,提高泛化能力的方法PS(传统的机器学习中,提高泛化能力的方法主要是限制模型复杂度,比如采用ℓ1 和ℓ2 正则化等方式.在训练深度神经网络时,特别是在过度参数化(Over-Parameterization)时,ℓ1 和ℓ原创 2022-04-07 20:31:30 · 954 阅读 · 0 评论 -
图神经网络
图神经网络介绍为什么用图表示数据GNN与network embedding(图嵌入)GNN与Graph Kernel介绍为什么用图表示数据深度学习在许多领域的成功部分归功于快速发展的计算资源(如GPU)、大训练数据的可用性,以及深度学习从欧几里得数据(如图像、文本和视频)中提取潜在表示的有效性。以图像数据为例,我们可以将图像表示为欧几里得空间中的规则网格。卷积神经网络(CNN)能够利用图像数据的移位不变性、局部连通性和组合性。因此,CNNs可以提取局部有意义的特征,并与整个数据集共享,用于各种图像分析原创 2021-09-14 14:22:47 · 731 阅读 · 0 评论 -
深度聚类一些
深度聚类GMM---高斯混合模型1.定义2. GMM算法步骤变分推断与变分编码器1. 变分推断2.变分自编码器变分深度嵌入(variational deep embedding,VaDE)1.GMM—高斯混合模型1.定义高斯—高斯分布高斯混合—多个高斯分布叠加而成2. GMM算法步骤EM—最大期望E — 求目标函数期望,即求目标函数取对数之后的期望值M—使期望最大化。 用到极大似然估计,拉格朗日乘数法,对参数求偏导,最终确定新的参数。变分推断与变分编码器1. 变分推断2.变分自原创 2021-06-22 17:17:46 · 152 阅读 · 0 评论 -
NMF(非负矩阵分解)
NMF1.算法概述2. 损失函数python代码1.算法概述NMF(Non-negative matrix factorization),即对于任意给定的一个非负矩阵V,其能够寻找到一个非负矩阵W和一个非负矩阵H,满足条件V=W*H,从而将一个非负的矩阵分解为左右两个非负矩阵的乘积。V矩阵中每一列代表一个观测(observation),每一行代表一个特征(feature);W矩阵称为基矩阵,H矩阵称为系数矩阵或权重矩阵。这时用系数矩阵H代替原始矩阵,就可以实现对原始矩阵进行降维,得到数据特征的原创 2021-06-09 10:06:12 · 1527 阅读 · 0 评论 -
深度学习问题系列三
问题1.卷积神经网络的基本组成元素(例如:卷积层, **)。2.卷积层有哪些参数?3.卷积核有哪些类型?4.池化方法有哪些种类?5.卷积层和池化层的对比?相同与不同。6.alexnet网络结构7.VGG16网络结构8. resnet网络结构1.卷积神经网络的基本组成元素(例如:卷积层, **)。卷积神经网络一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络。第一部分:输入层第二部分:卷积层、池化层(做二次抽样)、flatten层(多维的输入一维化)、激活函数(ReLU)组合而成第三部分由原创 2021-04-10 18:03:07 · 204 阅读 · 0 评论 -
KL散度、JS散度 的理解以及一些问题
散度KL散度定义特性公式离散连续机器学习JS散度出现的原因公式特性问题交叉熵(Cross Entropy)定义公式和KL散度的关系KL散度定义KL(Kullback-Leibler divergence)散度用来描述两个概率分布P和Q的差异的一种方法,也叫做相对熵(relative entropy)。特性1.KL具有非对称性,即D(P||Q) ≠ D(Q||P)。2.非负性:因为对数函数是凸函数,所以 KL散度的值为非负数。3.KL散度不满足三角不等式: KL(A,B) > KL(A,C原创 2021-04-01 10:01:38 · 3320 阅读 · 0 评论 -
深度学习问题2 超参数、激活函数、batch-size
问题1.什么是超参数?有哪些深度学习模型中的超参数?2.什么是激活函数?有什么要使用非线性激活函数?3.sigmod-logistic函数的优缺点4.logistic 和 tanh函数的对比和优缺点5.relu的优缺点6.batch_size的概念和值的选择?1.什么是超参数?有哪些深度学习模型中的超参数?2.什么是激活函数?有什么要使用非线性激活函数?3.sigmod-logistic函数的优缺点4.logistic 和 tanh函数的对比和优缺点5.relu的优缺点6.batch_size的原创 2021-03-26 11:02:12 · 964 阅读 · 0 评论 -
深度学习基础问题
基础问题1. 变量和随机变量有什么区别?变量随机变量2.概率质量函数和概率密度函数有什么区别?概率质量函数:概率密度函数(Probability Density Function)3.联合概率和边缘概率的联系和区别?4. 常用的概率分布有哪些?他们有哪些特点?伯努利分布(两点分布)二项分布均匀分布正态分布5. 期望、方差和协方差的定义。期望方差协方差6. 分类算法的评估方法有哪些?术语:正确率、错误率精确率(Precision)、召回率(Recall)和F1值精确率(Precision)、召回率(Recal原创 2021-03-22 11:12:26 · 1111 阅读 · 0 评论