- 博客(10)
- 资源 (1)
- 收藏
- 关注
原创 Search
二分查找(Binary Search)1.无序数组def binary_search(data,target,low,hight): '''二分查找 O(log(N))''' if low > hight: return False else: mid = (low+hight)//2 if target =...
2018-10-30 21:34:26 118
原创 Sorting
最优 平均 最差 空间 稳定排序 冒泡排序 O(n) (数据正序,只需要走一趟即可完成排序。所需的比较次数C和记录移动次数M均达到最小值,即) O(n2) O(n2) (数据是反序的,则需要进行n-1趟排序。每趟排序要进行n-i次比较(1≤i≤n-1),且每次比较都必须移动记录三次来达到...
2018-10-22 20:59:43 300
原创 Data Structures
目录数组(Arrays)链表(Linked Lists)栈(Stacks)队列(Queues)树(Trees)优先队列(Priority Queue)堆结构(Heap)散列表(Hash Table)列表(List)python1. 二维数组转置grid = [['.', '.', '.', '.', '.', '.'],['.', 'O', 'O...
2018-10-17 16:02:56 304
原创 You Only Look Once
将目标检测作为回归问题,整张图作为网络的输入,将物体检测与分类合到一起,整张图作为输入,输出为回归bounding box的位置信息和其所属的类别DPM:使用滑动窗口,对每个分区进行分类 RCNN:具有复杂的管道而且是缓慢和难以优化,因为每个组件必须单独训练基本思路将图片分为S*S的区域,此处不是RCNN那样对每个区域进行分类,而是进过CNN后,得到S*S个像素点的特征图 每个网格...
2018-10-16 11:32:08 146
原创 Residual Net
去掉相同的主体部分,从而突出微小的变化,我们明确地将这些层重新定义为根据参考层的输入来学习残差函数,而不是学习无参考的函数问题提出learning better networks as easy as stacking more layers?第一个问题:梯度消失/爆炸 解决方案:标准初始化,中间层标准化 网络退化问题:随着网络深度增加,准确度变饱和,迅速退化,本文引出残差网络解决...
2018-10-16 10:56:15 354
原创 Gradient descent
梯度下降梯度下降实现最小化:随机获取一个起点 重复计算下面公式直到收敛:同步更新参数:面临问题:局部最小值,鞍点动量为迭代公式加上动量项,动量积累了之前的梯度权重更新值:、动量项积累之前的梯度信息,保持惯性,避免来回震荡,加快收敛速度自适应梯度(Adaptive Gradient)是第t次迭代时的参数梯度向量,为防止除0操作:...
2018-10-16 10:19:36 146
原创 Loss function
均方误差与平均绝对误差均方误差: 平均绝对误差:相对于MAE计算损失,MSE对异常点赋更大的权重。MSE寻找平均值,MAE寻找是中位数,对异常点而言,中位数比平均值更鲁棒性 MAE更新梯度始终相同,很小损失值也具有较大梯度,解决方法是降低损失同时降低学习率 MSE使用固定学习率也可以收敛,其梯度与损失值成正比若需要异常点检测,选用MSE,如果把异常点当作受损函数,则用MAE...
2018-10-15 17:18:53 712
原创 Multi-Task CNN
同时实习人脸检测与人脸对齐; 级联结构,三阶段卷积网络,由粗到细的预测人脸候选框和关键点位置数据预处理对图像进行多尺度的resize,构成图像金字塔,顶端金字塔最小应该大于12 * 12。这样网络的输入尺寸虽然固定,但是可以处理不同尺寸的人脸。训练集构建由于网络同时执行人脸检测和对齐,因此在这里我们在训练过程中使用四种不同的数据类型:Positives:与ground trut...
2018-10-15 15:40:50 1232
原创 Shell
打开文本编辑器(可以使用 vi/vim 命令来创建文件),新建一个文件 test.sh,扩展名为 sh(sh代表shell),扩展名并不影响脚本执行,见名知意就好,#!/bin/bashecho "Hello World !"#! 是一个约定的标记,它告诉系统这个脚本需要什么解释器来执行,即使用哪一种 Shell。运行 Shell 脚本有两种方法1、作为可执行程序chmo...
2018-10-10 17:05:38 143
原创 Batch Normalization
总体把握内部协变量转移(internal covariate shift):由于前面网络层的参数发生改变,导致每层网络的输入分布在训练中会发生变化.由于分布变化所以要求较低的学习率和仔细的参数初始化,这造成有饱和非线性模型的模型训练非常困难.内部协变量转移 白化 平移缩放归一化值白化(whitened)目的:修正层输入的均值和方差,减少梯度对参数或者初始值的依赖,允许使用较高学习...
2018-10-10 16:57:42 817
机器学习实战-Peter Harrington
2018-09-15
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人