- 博客(7)
- 收藏
- 关注
原创 超详细Pytorch环境配置及CLIP应用实例
最近想体验一下OpenAI新发布的基于自然语言和图片的预训练模型-CLIP(不得不感叹一句,真是大力出奇迹啊),遂想搭建一个Pytorch环境,跑一跑实例。本以为几十页的论文是最大的障碍,没想到配置环境才是最令人崩溃的阶段。anaconda反复重装了几个来回,不过最后终于还是在关闭内存爆炸的Chrome的那一刻结束了配置,成功看见了那个True。由于网上很多教程都比较零散,在配置时难免耗费很多精力去搜索,所以在这次配置结束后,我想将这个过程完整地记录下来,方便以后配置也希望能帮助更多和我一样刚开始炼丹的
2021-11-18 23:00:47
17694
5
原创 详解AdaBoost
输入:样本分布D;基学习算法L;学习轮数T; D1=Dfort=,...T:ht=L(Dt);εt=Px∽Dt(ht(x)≠ f(x));Dt+1=Adjust_Distribution(Dt,εt). end 输出: \begin{gathered} \fbox{ 输入:样本分布D;基学习算法L;学习轮数T;}\\ D_1=D \\ for\enspace t=,...T:\qquad\\ h_t=L(D_t);\\
2021-03-24 20:23:50
582
原创 堆叠泛化(Stacking Generalization)
Stacking是一种通用的通过训练学习器来结合个体学习器的方法,堆叠泛化是一种在集成学习中对数据从纵向进行划分的技术,一般称为SG技术,其一般用于最小化一个或多个泛化器的泛化误差率。基本思想为:数据划分的纵向上有两层学习器,把Level 0的Base-learner学习器的输出,作为Level 1学习器的输入,Level 1的学习器又被称为Meta-learner或者Generalizer。Stacking Generalization首次由Wolpert1于1992年提出,并且他认为这类似于对交叉验
2021-03-16 10:08:32
2174
原创 PCA降维算法的介绍、多角度推导及python实现
一、算法原理及数学推导在对于数据的处理上,特征维度过高经常是一个无法忽视的问题,但是单纯的降维压缩对于数据本身会使得数据信息遭到严重损失。不过以PCA为代表的线性降维算法对这方面有所保证,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中,并期望在所投影的维度上数据的信息量最大(方差最大),以此使用较少的数据维度,同时保留住较多的原数据点的特性。PCA算法所做的工作相当于原始特征空间的重构,只不过这个重构的过程是一个寻找主成分(正交方向),使得投影于该方向上的点足够离散的过程,其优化方向有两个,
2020-11-26 09:57:59
688
1
原创 K近邻法原理及数学推导
K近邻法K近邻法(k-nearest neighbor,K-NN)是一种基本的分类与回归方法,但是没有显示式的学习过程。对于新输入的实例,它直接根据其k个最近邻训练实例的类别,通过多次表决的方式进行预测(这里表决的意思就是通过k个训练实例中各类的占比来确定新实例的类别),而非通过对训练数据的学习得到模型然后对新实例进行预测。其基本的三要素为-k值的选择、距离度量及分类规则。K近邻算法式(3.1)是将k个近邻点分属于各个类的个数,以确定哪个类中包含的近邻点最多,以此确定新实例的类别。当然,在这个算法
2020-10-06 19:20:19
1342
原创 贝叶斯分类器原理及推导
贝叶斯公式在讨论贝叶斯分类时,我们先要认识贝叶斯公式,其表示意义为:一件事在特定条件下发生的概率。我们知道,条件概率计算公式为:B发生条件下,A发生的概率同时,A发生条件下,B发生概率为:则有可得这就是常见的贝叶斯公式贝叶斯决策贝叶斯决策论是在概率框架下实施决策的基本方法。在分类任务中,在所有相关概率都已知的理想条件下,贝叶斯决策论考虑如何基于这些概率和误判损失来选择最优的类别标记。我们可以以一个分类任务为例,很明显,此处目标是最小化分类错误率,假设选择0-1损失函数,此
2020-09-29 11:33:59
1243
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人