自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 [刷题] MergeSort

题目1️⃣:数组中的逆序对数.思路:利用归并排序的思想.首先将数组分为两两组合, 再对两两组合排序, 排序的过程中记录是不是逆序对数.然后再对这些组合排序, 在排序的过程中, 再对左右两边的子串进行逆序的计数.然后再对这些组合排序, 在排序的过程中, 再对左右两边的子串进行逆序的计数.采用递归, 终止条件肯定是字符串的字数小于2.每次对字符串分两组递归. 计数的条件是当前面的数...

2018-10-06 21:06:57 143

原创 LSTM与GRU

LSTM理解有图示:https://www.jianshu.com/p/9dc9f41f0b29GRU:https://blog.csdn.net/cskywit/article/details/78977834知识点(待理解和补充):https://blog.csdn.net/behboyhiex/article/details/81328510...

2018-10-05 15:15:08 119

原创 [刷题] 动态规划合集

题目:给定一根长度为n的绳子,请把绳子剪成m段(m、n都是整数,n>1并且m>1),每段绳子的长度记为k[0],k[1],…,k[m]。请问k[0]*k[1] * … *k[m]可能的最大乘积是多少?例子:例如,当绳子的长度是8时,我们把它剪成长度分别为2、3、3的三段,此时得到的最大乘积是18。1.定义状态方程:f(n)=max⁡(f(i)×f(n−i)),&nbsp

2018-09-26 11:59:04 388

原创 [刷题] n 个色子的点数

题目:把n个骰子扔在地上,所有骰子朝上的一面的点数之和为s.输入n,打印出s的所有可能的值出现的概率.def probability(number,maxValue): if number < 1: return p = [[0 for i in range(maxValue * number + 1)] for i in range(2)] ...

2018-09-25 16:48:50 306

原创 [刷题] 滑动窗口的最大值

题目:给定一个数组和滑动窗口的大小,找出所有滑动窗口里数值的最大值。例如,如果输入数组{2,3,4,2,6,2,5,1}及滑动窗口的大小3,那么一共存在6个滑动窗口,他们的最大值分别为{4,4,6,6,6,5}; 针对数组{2,3,4,2,6,2,5,1}的滑动窗口有以下6个: {[2,3,4],2,6,2,5,1}, {2,[3,4,2],6,2,5,1}, {2,3,[4,2,6],2,5...

2018-09-25 14:05:44 88

原创 [刷题] 输出所有和为S的连续正数序列

题目:输出所有和为S的连续正数序列。序列内按照从小至大的顺序,序列间按照开始数字从小到大的顺序def continuous(sum_): small, big = 1, 2 mid = (sum_+1) // 2 cursum = 0 ans = [] cur = big + small while small < mid: if cursum == sum_: ...

2018-09-25 12:31:04 305

原创 [刷题] 数组中只出现一次的两个数字

题目:一个整型数组里面除了两个数字之外, 其他数字都出现两次, 找出这两个不相同的数字.思路:如果将两个数字缩减为一个数字只出现一次, 那么可以用异或来做: 将数组的元素依次做异或, 那么由于出现两个数字的异或都抵消掉了, 所以最后得到的结果便是那个只出现一次的数字.如何将两个数字分到不同的组里呢. 我们如果对题目中的数组做异或, 那么肯定至少有一位为1, 因为这两个数字不相同, 异或的结...

2018-09-21 20:52:37 397

原创 [刷题]1~n的整数中 1 出现的个数

思路:对于每一位来说, 该位是1的数字的个数.比如对于数字:3141592, 百位为1 时, 有多少1出现?将数字分为两部分: pre = 31415 和 post = 92首先考虑百位之前, 即 31415 xx.当百位数字>1时 ,共有(0000~3141) 3142 * 100个1.当百位数字 <= 1时, (0000~3140) 3141 * 100, 特别注意...

2018-09-20 18:42:51 593

原创 [刷题] dfs回溯 合集

题目: PermutationsInput:[1,2,3]Output:[ [1,2,3], [1,3,2], [2,1,3], [2,3,1], [3,1,2], [3,2,1] ]def Permutations (nums): ans = [] dfs(nums,[],ans) return ans def dfs(nums, tmp, ans): if no...

2018-09-20 12:13:46 508

原创 [刷题]二叉搜索树与双向链表

题目:输入一棵二叉搜索树,将该二叉搜索树转换成一个排序的双向链表。要求不能创建任何新的结点,只能调整树中结点指针的指向。中序遍历 用一个指针记录最后一个遍历的节点 current.left = last_node #当前的节点的left指向便利过的最后一个位置 if last_node:#如果最后一个节点不为空,最后一个节点的right指向当前位置 ...

2018-09-19 14:43:06 107

原创 [刷题]栈的压入 弹出序列

题目:输入两个整数序列,第一个序列表示栈的压入顺序,请判断第二个序列是否为该栈的弹出顺序。假设压入栈的所有数字均不相等。例如序列1,2,3,4,5是某栈的压入顺序,序列4,5,3,2,1是该压栈序列对应的一个弹出序列,但4,3,5,1,2就不可能是该压栈序列的弹出序列。思路:构建一个辅助栈 stack 按照push顺序依次来对比pop序列的元素.若栈不为空且栈顶元素等于pop序列的元素...

2018-09-18 17:00:25 97

原创 SSP-Net 论文笔记

这篇文章的主要解决的是当输入的图片的尺寸不是既定的224×224224×224224 \times 224, 采用各种对图片放缩的时候会影响网络的学习. 比如下图, 只裁剪了一部分, 或者放缩的时候发生了几何的形变: 那么为什么会要求输入的大小相同呢, 很大一个原因就是最高层的FC的输入的尺寸必须要相同. 文章就是从这里下手的.Spatial pyramid pooling: 指的是对于...

2018-09-12 20:13:41 3606 2

原创 过拟合的处理方法总结

1. L1&L2参数正则化基本的思想是对参数进行约束,在保证取得最小的损失函数的同时衰减不相关特征的参数。具体可以看另外一篇博文:L1 & L2 正则化的理解 2. Dropout集成思想,同时减少每层的神经节点之间的相互依赖。3. 数据增强原始的思想是扩充数据集,增强泛化能力。裁剪/翻转/颜色亮度变化。4. 迁移学习当你的数据集比较小,训...

2018-09-12 13:42:17 369

原创 R-CNN 阅读笔记

在阅读过程中,找了不少相关的资料来弄清楚比较细节的东西,其中hjimce的博客中,对于细节的理解要更全面一些,比如文中没有具体阐述的非极大值抑算法、对于fine-tuning 、训练CNN和SVM的时候标签的定义和设计的思考,非常欣慰的是在没有相关基础的前提下,我的理解跟这位大牛的理解基本一致。在这里我不做具体的内容总结了,只希望记录下我认为比较重点和难理解的地方,值得以后参考大神的博客和论文...

2018-09-11 21:53:11 137

原创 L1 & L2 正则化的理解

主要结合花书对于L1 & L2的简单介绍,其中知乎的两个答案对书中的介绍做了很好的补充。 具体的: https://zhuanlan.zhihu.com/p/32488420 上述文章中,主要介绍L2的作用以及原理,更重要的是结合了线性回归(即岭回归)进行介绍。其中第三部分从主成分分析方面,用公式推导出了正则化参数对于不同方差下的特征的影响。第四部分从偏置(bias)-方差(var...

2018-09-10 17:03:11 222

原创 深度机器学习中的batch的大小对学习效果有何影响?

batch_size设的大一些,收敛得快,也就是需要训练的次数少,准确率上升得也很稳定,但是实际使用起来精度不高。需要加大epoch数,同时将学习率增大。batch_size设的小一些,收敛得慢,而且可能准确率来回震荡,所以还要把基础学习速率降低一些;但是实际使用起来精度较高。...

2018-09-08 16:19:00 2329

原创 为什么xgboost/gbdt在调参时为什么树的深度很少就能达到很高的精度?

链接:https://www.zhihu.com/question/45487317/answer/99153174 来源:知乎这个问题很好,回答的也很好。让我重新以统计学来认知两个重点的集成学习方法: 一句话的解释,来自周志华老师的机器学习教科书( 机器学习-周志华):Boosting主要关注降低偏差,因此Boosting能基于泛化性能相当弱的学习器构建出很强的集成,比如GB...

2018-09-04 12:34:28 544

原创 Batch Normalization & Weight Initialization.

Batch Normalization因为在深度神经网络中随着训练得进行,每一个隐层的参数不断的发生变化导致每一层的激活函数的输入发生改变,这与机器学习领域的假设:训练数据和测试数据的同分布是不符合的。所以会造成以下的问题: - (如果不scaling)激活输入值分布的偏移,导致数据向线性函数的取值区间的上下线两端靠近,导致梯度消失/爆炸的问题,这就是问什么会训练速度降低的原因。(...

2018-09-03 20:54:13 459

原创 python中星号*的意义

传递实参和定义形参(所谓实参就是调用函数时传入的参数,形参则是定义函数是定义的参数)的时候,你还可以使用两个特殊的语法:* ** 。调用函数时使用* **test(*args) 的作用其实就是把序列 args 中的每个元素,当作位置参数传进去。比如上面这个代码,如果 args 等于 (1,2,3) ,那么这个代码就等价于 test(1, 2, 3) 。test(**kwargs...

2018-04-29 16:49:49 540

转载 线性回归和局部加权回归

局部加权回归局部加权回归原理:对于一般训练集: 参数系统为:线性模型为: 线性回归损失函数:J(θ) 局部加权回归的损失函数:在我们原始的线性回归中,对于输入变量,我们要预测,通常要做: 而对于局部加权线性回归来说,我们要做:局部加权回归是一种非参数学习方法, 它的主要思想就是只对预测样本附近的一些样本进行选择,根据这些样本得到回归方程,那么此时我们得到的回归方程就比较拟

2017-11-13 13:06:24 990

转载 集成学习和随机森林的简单概念笔记

Booststraping名字来自成语“pull up by your own bootstraps”,意思是依靠你自己的资源,称为自助法,它是一种有放回的抽样方法,它是非参数统计中一种重要的估计统计量方差进而进行区间估计的统计方法。其核心思想和基本步骤如下: (1) 采用重抽样技术从原始样本中抽取一定数量(自己给定)的样本,此过程允许重复抽样。   (2) 根据抽出的样本计算给定的统计

2017-11-11 13:23:39 497

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除