- 博客(17)
- 资源 (3)
- 收藏
- 关注
原创 一篇文章搞懂:岭回归和Lasso回归
目录岭回归 岭回归和Lasso回归: 给定数据集 D=(x1,y1),(x2,y2),…,(xm,ym)D = {(x_1 , y_1), (x_2 , y_2) ,… , (x_m , y_m)}D=(x1,y1),(x2,y2),…,(xm,ym),其中x∈Rdx\in R^{d}x∈Rd, y∈Ry\in Ry∈R,我们考虑最简单的线性回归模型,以平方误差为损失函数,则优化目标
2020-09-22 18:54:44 9250 2
原创 机器学习中“模型误差”的总结
在机器学习中,模型误差 = 偏差(Bias)+ 方差(Variance)+ 数据本身的误差。数据本身的误差即噪声:表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界,即刻画了学习问题本身的难度。噪声是怎么产生的呢? 可能由于记录过程中的一些不确定性因素等导致,或者抽样的时候会出现一些搞错的信息,是无法避免的!能做的只有不断优化模型参数来权衡偏差和方差,使得模型误差尽可能降到最低。因此
2020-09-22 16:23:27 2902
原创 梯度下降(gradient descent)总结与比较
梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)。批梯度下降: 每一次迭代时使用所有样本来进行梯度的更新。 计算量
2020-09-14 12:29:12 332
转载 循环队列(Circular Queue)
可以看下这个博主写得非常详细:wowocpp 循环队列是 队列的一种特殊形式。首先介绍队列,然后引申出循环队列。 队列又称为“先进先出”(FIFO)线性表 :限定插入操作只能在队尾进行,而删除操作只能在队首进行 队列也可以采用顺序存储结构或链表结构来实现,分别称为顺序队列和链队列队列的顺序表示—顺序队列 &n
2020-09-13 09:28:04 1866
原创 机器学习:性能度量(详解)
目录简介分类错误率与精度查准率、查全率与 FlROC 与 AUC代价敏感错误率与代价曲线简介 性能度量: 衡量模型泛化能力的评价标准(反映了任务需求,在对比不同模型的能力时,使用不同的性能度量往往会导致不同的评判结果。模型的好坏,不仅取决于算法和数据,还决定于任务需求。) 性能度量主要分为分类任务中的和回归任务中的。分类错误率与精度
2020-09-12 13:54:01 2461
原创 数据结构几大排序算法总结(实现、复杂度)
目录简介冒泡排序,快速排序简单选择排序堆排序归并排序插入排序1 直接插入排序2 希尔排序(缩小增量排序)3 折半插入排序总结简介 排序在数据结构中的内部排序部分,主要介绍了几大常见的排序算法,这里做一下简单的分析总结。 排序: 按关键字大小顺序排列数据。 时间复杂度: 简单的排序方法 O(n2n^2n2),先进的排序方法 O(nlogn
2020-09-11 16:22:13 1718
原创 多多的魔术盒子(思想及python实现)
[编程题]多多的魔术盒子时间限制:C/C++ 1秒,其他语言2秒空间限制:C/C++ 256M,其他语言512M多多鸡有N个魔术盒子(编号1~N),其中编号为i的盒子里有i个球。多多鸡让皮皮虾每次选择一个数字X(1 <= X <= N),多多鸡就会把球数量大于等于X个的盒子里的球减少X个。通过观察,皮皮虾已经掌握了其中的奥秘,并且发现只要通过一定的操作顺序,可以用最少的次数将所有盒子里的球变没。那么请问聪明的你,是否已经知道了应该如何操作呢?输入描述:第一行,有1个整数T,表示测
2020-09-10 16:47:26 254
原创 SAD(自我注意力蒸馏):Learning Lightweight Lane Detection CNNs by Self Attention Distillation
自我注意力蒸馏来自文章(链接):Learning Lightweight Lane Detection CNNs by Self Attention Distillation 项目地址:Codes-for-Lane-Detection 说到蒸馏,可能想到最多的就是知识蒸馏、注意力蒸馏,他们三者关系是什么? &nb
2020-09-09 15:42:48 5817 3
原创 快速排序(详解及python实现)
快速排序(Quicksort)是对冒泡排序的一种改进。快速排序由C. A. R. Hoare在1962年提出。采用了分治法。基本思想:通过一趟排序将要排序的数据分割成独立的两部分,其中一部分的所有数据都比另外一部分的所有数据都要小,然后再按此方法对这两部分数据分别进行快速排序,整个排序过程可以递归进行,以此达到整个数据变成有序序列。在一篇博客上看到给出的一种快速排序的方法快速排序(过程图解)但感觉复杂化了举例子:对序列:9,4,3
2020-09-07 18:16:58 706
原创 哈希表(Hash table)
哈希表(Hash table,也叫散列表),是根据关键码值而直接进行访问的数据结构。也就是说,它通过把关键码值映射到表中一个位置来访问记录,以加快查找的速度。这个映射函数叫做散列函数,存放记录的数组叫做散列表。 给定表M,存在函数f(key),对任意给定的关键字值key,代入函数后若能得到包含该关键字的记录在表中的地址,则称表M为哈希(Hash)表,函数f(key)为哈希(Hash) 函数。&
2020-09-07 16:32:04 270
原创 集成学习((ensemble learning)
目录1. 简介2. Boosting2.1 AdaBoost1. 简介 集成学习 (ensemble learning)通过构建并结合多个学习器来完成学习任务,有时也被称为多分类器系统 (multi-classifier system) 、基于委员会的学习 (committee-based learning) 等。 个体学习器通常由一个现有的学习算法从训练数据产生:同质集成: 集成中只包含同
2020-09-06 14:05:49 805
原创 K近邻算法(KNN)
k 近邻 (k-Nearest Neighbor,简称 kNN )学习是一种常用的监督学习方法。属于懒惰学习。工作机制: 给定测试样本,基于某种距离度量找出训练集中与其最靠近的 k 个训练样本,然后基于这 k 个"邻居 "的信息来进行预测 。分类任务:投票法回归问题:平均法 还可基于距离远近进行加权平均或加权投票,距离越近的样本权重越
2020-09-05 20:27:47 391
原创 特征学习算法
类似于机器学习,特征学习可以被分为两类:监督式特征学习(Supervised Representation Learning)和无监督式特征学习(Unsupervised Representation Learning)。监督式特征学习被标记过的数据被当做特征用来学习。例如神经网络(Neural Networks),多层感知器(Multi-Layer Perception),监督字典学习(Supervised Dictionary Learni
2020-09-05 19:49:45 1982
原创 关于康托展开和逆康托展开详解,及python代码
在LeetCode上有这样一道题:60. 第k个排列给出集合 [1,2,3,…,n],其所有元素共有 n! 种排列。按大小顺序列出所有排列情况,并一一标记,当 n = 3 时, 所有排列如下:“123”“132”“213”“231”“312”“321”给定 n 和 k,返回第 k 个排列。说明:给定 n 的范围是 [1, 9]。给定 k 的范围是[1, n!]。示例 1:输入: n = 3, k = 3输出: “213”示例 2:输入: n = 4, k = 9输出:
2020-09-05 19:16:38 948
原创 python实现二叉树遍历(前、中、后序)
树是一种重要的非线性数据结构,直观地看,它是数据元素(在树中称为结点)按分支关系组织起来的结构,很象自然界中的树那样。 从二叉树的递归定义可知,一棵非空的二叉树由根结点及左、右子树这三个基本部分组成。因此,在任一给定结点上,可以按某种次序执行三个操作:⑴访问结点本身(N)⑵遍历该结点的左子树(L)⑶遍历该结点的右子树(R)前序遍历(先序遍历):NLR:先访问根节点–> 访问左
2020-09-02 16:27:49 4754
原创 深度优先搜索和广度优先搜索(详解及Python实现)
目录1. 简介1. 简介 深度优先搜索(DFS):对每一个可能的分支路径深入到不能再深入为止,而且每个节点只能访问一次。举例: 上图是一个无向图,如果从A点发起深度优先搜索(以下的访问次序并不是唯一的,第二个点既可以是B也可以是C,D),则我们可能得到如下的一个访问过程:A->B->E(没有路了!回溯到A)->C->F->H->G->D(没有路,最终
2020-09-02 13:17:24 2901
mobilenet_v2_weights_tf_dim_ordering_tf_kernels_1.4_224_no_top.h5
2020-03-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人