- 博客(20)
- 资源 (8)
- 收藏
- 关注
原创 张量分解——CP分解与Tucker分解详解
关于张量分解一些简单的介绍,可以看我的这篇张量的CP分解模型一般而言,给定一个大小为n1×n2×n3n_1 \times n_2 \times n_3n1×n2×n3的张量X\mathcal{X}X,其CP分解可以写成如下形式,即X≈∑r=1RA(:,r)⊗B(:,r)⊗C(:,r)\mathcal{X} \approx \sum_{r=1} ^{R} {A(:,r) \otimes ...
2020-03-21 22:48:26 3772
原创 LeetCode 42. Trapping Rain Water
传送门题意给你nnn个非负整数,表示围栏的高度(宽度都为1),问你如果下雨一共能储多少水?如图:Input: [0,1,0,2,1,0,1,3,2,1,2,1]Output: 6思路Dp可以发现对于每一个iii来说,它能储水的高度显然取决于它左面和右面最高的围栏高度之间的最小值。所以我们可以简单的想到brute force,对每个iii,分别找它左面和右面的最大值,然后答案就...
2020-03-21 22:38:27 166
原创 LeetCode String to Integer (atoi) (正则表达式)
传送门题意:很easy的一道题啊,就是实现一些c语言atoi()将字符转化为integer的函数.##思路:按照题目要求,然后注意下细节其实就可以了.class Solution: def myAtoi(self, _str): _str = _str.strip() if _str == "": return 0 ...
2020-03-21 22:36:11 173
原创 LeetCode 48. Rotate Image
传送门题意:给你一个 n×nn \times nn×n的二维矩阵,让你在使用O(1)O(1)O(1)的空间复杂度的情况下,将该矩阵进行顺时针旋转(clockwise)。思路:clockwise一个简单找规律。先将矩阵倒置,在按对角线对称即可。""" * clockwise rotate * first reverse up to down, then swap the symme...
2020-03-21 22:35:27 149
原创 LeetCode Regular Expression Matching(动态规划)
传送门题意:给你两个字符串s和p,让你判断两个字符串是否可以完全匹配.匹配采用正则化匹配的方式,’.‘可以匹配任意字符,’*'表示前面的一个字符匹配0次或多次.思路:比较好想的一种方法就是递归.首先p中若没有’.‘和’’,那么只需要看s和p是否完全一样即可.其次若p中有’.‘那么只需要跳过s中和p的’.‘对应的字符,往后继续判断即可最后若p中有’'那么它可以使它前面的字符匹配0次...
2020-03-21 22:33:43 159
原创 深度学习——--残差网络(ResNet)详解
为什么会有残差网络?网络越深准确率越高吗?一说起深度学习,自然也就想到了它非常显著的特点"深",通过很深层次的网络实现准确率非常高的图像识别、语音识别等。因此,我们大家很自然就想到:深的网络肯定比浅的网络效果好,如果要进一步提升模型的准确率,最直接的方法就是把网络设计的更深,这样模型的准确率也会越来越准确。那现实是这样吗?我们先来看几个经典的图像识别深度学习模型这几个模型都是在世界顶级...
2020-03-21 22:29:15 1030
原创 机器学习中的降维方法——————多维缩放(MDS)&& 等度量映射(IsoMap)
关于降维降维:通过某种数字变换将原始高维属性空间转变为一个低维"子空间",在这个子空间中样本密度大幅提高,距离计算也变的更为容易。为什么需要降维?在高维情况下回出现数据样本稀疏、距离计算困难等问题,是所有机器学习方法共同面临的严重障碍,被称为“维数灾难”.为什么能降维?因为在很多时候,人们观测或收集到的数据样本虽是高维的,但与学习任务密切相关的也许仅是某个低维分布,即高维空间中的一个低维...
2020-03-21 22:10:07 752
原创 机器学习中核函数(Kernel)的理解
核函数**就是在我们将低维非线性可分的数据通过函数Φ(x)\Phi(x)Φ(x)映射到高维空间之后计算内积的一种简便方法。**在这里它和映射没有任何关系。低维到高维线性可分的映射下面这张图位于第一、二象限内。我们关注红色的门,以及“北京四合院”这几个字下面的紫色的字母。我们把红色的门上的点看成是“+”数据,紫色字母上的点看成是“-”数据,它们的横、纵坐标是两个特征。显然,在这个二维空间内,“...
2020-03-21 21:57:50 577
原创 一文学会支持向量机(SVM)
SVM是一个二元分类算法,线性分类和非线性分类都支持,其学习策略便是间隔最大化, 最终可以转化为一个凸二次规划问题求解。经过演进,现在也可以支持多元分类,同时经过扩展也能应用于回归问题。初探SVM一个简单的例子下面举个简单的例子。如下图所示,现在有一个二维平面,平面上有两种不同的数据,分别用圈和叉表示。由于这些数据是线性可分的,所以可以用一条直线将这两类数据分开,这条直线就相当于一个超平面...
2020-03-21 21:48:22 315
翻译 快速近似计算Gamma函数以及函数阶乘
Gamma 函数Γ(s)=∫0∞xs−1e−xdx,s>0\begin{aligned}\Gamma(s) = \int_{0}^{\infty} x^{s - 1} e^{-x} dx, s > 0\end{aligned}Γ(s)=∫0∞xs−1e−xdx,s>0其具有如下几个性质:Γ(s+1)=sΓ(s)Γ(s+1)=s!\begin{aligned}...
2020-03-12 10:55:37 1653
原创 一文理解线性回归原理(模型,损失函数,正则化)
线性回归模型函数和损失函数线性回归模型线性回归是机器学习中最基本的问题模型了,线性回归遇到的问题一般是这样的。我们有m个样本,每个样本对应n维特征和一个结果输出,如下:(x1(0),x2(0),...xn(0),y0),(x_1^{(0)},x_2^{(0)},...x_n^{(0)},y_0),(x1(0),x2(0),...xn(0),y0),(x1(1),x2(1),...x...
2020-03-11 12:12:08 2436
原创 一文了解KL散度(KL Divergence)
在概率论和统计学中,我们经常用一个简单的近似分布来代替观测数据或复杂的分布.KL散度帮助我们衡量当我们选择一个简单近似的分布来代替复杂的数据或复杂的分布的时候有多少信息损失了.
2020-03-10 23:01:13 1615
原创 EM(Expectation Maximum) 算法总结
EM算法,全称为Expectation Maximum Algorithm,是一个基础算法,是很多机器学习领域算法的基础(如HMM,LDA等)。EM算法是在**概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐含变量。**
2020-03-09 13:46:54 1213
原创 关于Word2Vec的一些总结
什么是word2vec关于word2vec,首先需要弄清楚它并不是一个模型或者DL算法,而是描述从自然语言到词向量转换的技术。Word2Vec本质上就是一个只有一个hidden layer的全连接神经网络,它可以将所有的词向量化,这样词与词就可以定量的去度量他们之间的关系.在NLP中,把x看做一个句子里的一个词语,y是这个词语的上下文词语,那么这里的fff便是nlp中经常出现的语言模型,这...
2020-03-07 23:16:47 568
原创 TF-IDF算法详解
什么是TF/IDF?其实这是两个词的组合,TF与IDF。TF(Term Frequency词频)即一个词在文中出现的次数,统计出来就是词频TF。IDF(Inverse Document Frequency)即逆文档频率。对于词频,显而易见一个词在文章中出现很多次,那么这个词肯定有很大的作用。但是你自己动手试一下会发现TF大的大都是"的“,“是"这样的词,这样的词显然对我们的统计没什么帮助...
2020-03-06 22:37:02 653
原创 K-Means聚类算法详解
声明部分参考K-Means聚类算法原理聚类算法聚类算法是一种无监督学习算法,它主要用于将相似的样本自动归到一个类别中.聚类算法与分类算法的区别:聚类算法是无监督学习,而分类是监督学习,在聚类算法中我们根据样本之间的相似度(或者说距离),将样本归到不同的类别中,对于不同的相似度我们得到的聚类结果可能是不通的.K-Means是一种聚类算法,它实现起来比较简单,而且聚类的效果也不错,所以应用比...
2020-03-06 22:28:09 830
原创 推荐系统常用评价指标(recall,MAP,MRR,NDCG,F1,ROC等)
这里主要总结一下推荐系统当中常见的一些评价指标,主要包括: MAE,RMSE,recall,precision,MAP,MRR,NDCG等MAE(Mean Average Error,平均绝对误差)表示预测值和实际值之间的绝对误差的平均值.##RMSE(Root Mean Square Error,均方根误差)均方根误差是用来衡量观测值同真实值之间的偏差,RMSE越小越好.##Reca...
2020-03-05 14:53:07 7609 4
原创 线性代数知识点总结
直观理解线性代数的本质如何理解矩阵特征值以及特征向量?一篇很好的文章Ax=λxAx = \lambda xAx=λx可以把A看成是一个线性变换,那么这个定义可以看成对于向量x而言,在A的作用下保持方向不变(可能反向),进行大小为 λ\lambdaλ的缩放。特征向量所在的直线包含了所有特征向量.矩阵乘以特征向量可以看成是矩阵在每个特征向量方向上的投影。通过求特征值和特征向量把矩阵数据...
2020-03-04 10:20:47 1345
原创 机器学习————最小二乘法
学习自,马同学并有一定的修改,再次感谢!什么是最小二乘法?最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。##最小二乘法日用而不知来看一个生活中的例子。比如说,有五把尺子:用它们来分别测量一线段的长度,得到的数值分别为(颜色指不同的尺子):之所...
2020-03-02 15:51:01 910
原创 机器学习中的降维方法——主成分分析(PCA)与核主成分分析(KPCA)原理详解
学习自感谢!学习自感谢!PCA是一种常用的数据分析方法。**PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。**这样做的好处是数据的主要信息还能保留下来,同时数据的维度降低了,并且变换后的维度两两不相关。为什么需要PCA?我们知道维数越大通常越难处理,在机器学习中,得到的数据维数通常都很高,处理起来比较麻烦,资源消耗很大,因...
2020-03-02 15:26:50 3329
中国科学院大学深度学习课程实验作业——电影评论情感分类(代码+实验报告)
2021-03-17
保研/考研准备资料大礼包(经验汇总+个人陈述+个人简历+联系老师+面试+自我介绍+申请表+提交材料+推荐信)
2021-01-21
中国科学院大学深度学习课程实验作业——猫狗分类(代码+实验报告)
2021-01-14
中国科学院大学深度学习课程实验作业——电影评论情感分类(代码+实验报告)
2021-01-14
中国科学院大学深度学习课程实验作业——手写数字识别(代码+实验报告)
2021-01-14
中国科学院大学深度学习课程实验作业——自动写诗(代码+实验报告)
2021-01-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人