机器学习
文章平均质量分 93
Adenialzz
Keep Learning.
展开
-
深度学习三大谜团:集成、知识蒸馏和自蒸馏
深度学习三大谜团:集成、知识蒸馏和自蒸馏转载 2022-11-20 23:19:40 · 740 阅读 · 0 评论 -
【经典简读】知识蒸馏(Knowledge Distillation) 经典之作
【经典简读】知识蒸馏(Knowledge Distillation) 经典之作转载 2022-11-19 21:46:54 · 769 阅读 · 0 评论 -
OpenAI Whisper论文笔记
OpenAI Whisper论文笔记原创 2022-11-17 17:39:14 · 8074 阅读 · 2 评论 -
隐马尔可夫模型HMM推导
隐马尔可夫模型HMM推导原创 2022-10-30 21:54:47 · 353 阅读 · 0 评论 -
初学机器学习:直观解读KL散度的数学概念
初学机器学习:直观解读KL散度的数学概念转载 2022-10-18 14:13:22 · 226 阅读 · 0 评论 -
模型压缩常用方法简介
模型压缩常用方法简介原创 2022-09-25 12:44:56 · 7433 阅读 · 0 评论 -
基于流的(Flow-based)生成模型简介
基于流的(Flow-based)生成模型简介原创 2022-08-25 19:04:46 · 4713 阅读 · 0 评论 -
机器学习理论——优雅的模型:变分自编码器(VAE)
机器学习理论——优雅的模型:变分自编码器(VAE)转载 2022-08-20 17:16:01 · 1231 阅读 · 1 评论 -
变分推断公式推导
变分推断公式推导原创 2022-08-18 21:55:24 · 739 阅读 · 0 评论 -
详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解
详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解转载 2022-08-18 14:51:25 · 167 阅读 · 0 评论 -
EM算法公式推导
EM算法公式推导原创 2022-08-18 11:25:05 · 836 阅读 · 0 评论 -
高斯混合模型GMM及EM迭代求解算法(含代码实现)
高斯混合模型GMM及EM迭代求解算法(含代码实现)原创 2022-08-02 23:18:12 · 5356 阅读 · 1 评论 -
高维高斯分布基础
高维高斯分布基础原创 2022-07-31 21:05:26 · 3843 阅读 · 0 评论 -
高斯分布及其极大似然估计
高斯分布及其极大似然估计原创 2022-07-30 23:21:15 · 1495 阅读 · 0 评论 -
机器学习中的概率模型
机器学习中的概率模型转载 2022-07-25 22:55:23 · 1291 阅读 · 0 评论 -
深入理解L1、L2正则化
深入理解L1、L2正则化转载 2022-07-22 23:32:11 · 568 阅读 · 0 评论 -
线性回归与逻辑回归及其实现
线性回归与逻辑回归及其实现原创 2022-07-21 23:03:52 · 555 阅读 · 0 评论 -
kmeans手写实现与sklearn接口
kmeans手写实现与sklearn接口原创 2022-07-18 21:54:13 · 489 阅读 · 0 评论 -
梯度下降法和牛顿法计算开根号
梯度下降法和牛顿法计算开根号原创 2022-07-17 17:34:36 · 946 阅读 · 0 评论 -
彻底理解BP之手写BP图像分类你也行
彻底理解BP之手写BP图像分类你也行转载 2022-07-14 21:37:24 · 1044 阅读 · 0 评论 -
机器学习:系统设计与实现 分布式训练
机器学习:系统设计与实现 分布式训练转载 2022-06-06 17:20:06 · 2654 阅读 · 0 评论 -
机器学习系统:设计与实现 计算图
机器学习系统:设计与实现 计算图转自:https://openmlsys.github.io/chapter_computational_graph/index.html在上一章节中,我们展示了用户利用机器学习框架所编写的程序。这些用户程序包含了对于训练数据,模型和训练过程的定义。然而为了运行这些程序,机器学习系统依然需要解决诸多问题,包括:如何高效执行一个复杂的机器学习模型?如何识别出机器学习模型中需要训练的参数?如何自动计算更新模型所需的梯度?为了解决这些问题,现代机器学习框架实现计算图*(Comp转载 2022-04-05 16:09:17 · 1950 阅读 · 2 评论 -
ImageNet 1K 类别名与索引的对应关系
ImageNet 1K 类别名与索引的对应关系转自:http://befree2008.github.io/2018/10/05/20181005_ImageNet1000%E5%88%86%E7%B1%BB%E5%90%8D%E7%A7%B0%E5%92%8C%E7%BC%96%E5%8F%B7/ImageNet 2012 1000个类名称和编号。ILSVRC2012_img_train.tar 这个文件解压出来都是一些nxxx这样的目录,也不知道他对应是哪个类,通过找caffe_ilsvrc12.t转载 2021-12-21 21:27:22 · 7066 阅读 · 1 评论 -
信息量、熵、交叉熵、KL散度、JS散度杂谈及代码实现
信息量、熵、交叉熵、KL散度、JS散度杂谈信息量任何事件都会承载着一定的信息量,包括已经发生的事件和未发生的事件,只是它们承载的信息量会有所不同。如昨天下雨这个已知事件,因为已经发生,既定事实,那么它的信息量就为 0。如明天会下雨这个事件,因为未有发生,那么这个事件的信息量就大。从上面例子可以看出信息量是一个与事件发生概率相关的概念,而且可以得出,事件发生的概率越小,其信息量越大。这也很好理解,比如某明星被爆出轨、逃税等,这种事件信息量就很大,我们在口语中也会称这种新闻 “信息量很大” ,因为是小概率原创 2021-12-16 16:09:34 · 528 阅读 · 0 评论 -
【深度学习】深入理解Batch Normalization批归一化
【深度学习】深入理解Batch Normalization批归一化转自:https://www.cnblogs.com/guoyaohua/p/8724433.html这几天面试经常被问到BN层的原理,虽然回答上来了,但还是感觉答得不是很好,今天仔细研究了一下Batch Normalization的原理,以下为参考网上几篇文章总结得出。Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其理论原因,但是实践证明好用才是真的好转载 2021-12-13 19:07:14 · 189 阅读 · 0 评论 -
错误类型、混淆矩阵及目标检测常用评价指标
目标检测常用评价指标本文主要参考陈恺大佬在B站商汤账号的介绍mmdetection的视频。检测结果的正确/错误类型真阳性(Ture Positive):算法检测到了某类物体(Positive),而实际图中也确实有这个物体,检测结果正确(True)。假阳性(False Positive):算法检测到了某类物体(Postive),但是图中没有这个物体,检测结果错误(False)。 又称为误检假阴性(False Negtive):算法没有检测到某类物体(Negtive),但是图中有这个物体,检测结果错误原创 2021-07-08 15:49:11 · 2229 阅读 · 0 评论 -
机器学习中的归纳偏置
机器学习中的归纳偏置带着偏见看世界,否则你根本没有看待世界的方式。本文主要参考整理自知乎问题:如何理解Inductive bias?No-Free-Lunch(NLF)定理指出学习是不可能的,除非有先验知识。通常情况下,我们会猜测某个问题的解属于所有可能的目标函数的一个较小的类别中,比如对于下图中的一些点,我们很自然地会假设目标函数是一个线性函数,这种基于先验知识对目标的判断就是Inductive Bias归纳偏置。也就是说,归纳偏置所做的事情,就是将无限可能的目标函数约束在一个有限的假设类别中,原创 2021-10-25 20:55:31 · 1336 阅读 · 0 评论