- 博客(20)
- 收藏
- 关注
原创 代码随想录day3| 203.移除链表元素 707.设计链表 206.反转链表
时间复杂度: 涉及 index 的相关操作为 O(index), 其余为 O(1)需要学会建立虚拟节点的思想。空间复杂度: O(n)
2024-02-19 12:21:18 352
原创 代码随想录算法训练营第二天| 977.有序数组的平方 ,209.长度最小的子数组 ,59.螺旋矩阵II
numsr-1, numsr] ,并返回其长度。输入:target = 11, nums = [1,1,1,1,1,1,1,1]输入:target = 7, nums = [2,3,1,2,4,3]输入:target = 4, nums = [1,4,4]输出:[[1,2,3],[8,9,4],[7,6,5]]解释:平方后,数组变为 [16,1,0,9,100]输入:nums = [-4,-1,0,3,10]输入:nums = [-7,-3,2,3,11]排序后,数组变为 [0,1,9,16,100]
2024-02-16 12:27:40 369
原创 代码随想录算法训练营第一天| 704. 二分查找、27. 移除元素。
给定一个 n 个元素有序的(升序)整型数组 nums 和一个目标值 target ,写一个函数搜索 nums 中的 target,如果目标值存在返回下标,否则返回 -1。文章讲解:https://programmercarl.com/0704.%E4%BA%8C%E5%88%86%E6%9F%A5%E6%89%BE.html。文章讲解:https://programmercarl.com/0027.%E7%A7%BB%E9%99%A4%E5%85%83%E7%B4%A0.html。
2024-02-15 22:38:27 545
原创 java系列总结(二)面向对象基本思想
这篇文章主要介绍了面向对象的基本思想,匿名对象,构造函数,构造方法,构造代码块,静态,静态代码块,以及单例设计模式的两种方法懒汉式和饿汉式。
2018-09-29 21:02:49 317
原创 java系列总结(一)基础知识
java是自己在去年系统学习的,现在打算对学过的java知识进行总结复习。本篇文章涵盖了dos命令行中的常见命令,JRE JDK介绍,标识符,变量与常量,进制转换,各种运算符,判断结构,选择结构,函数,数组等内容。本来是自己Word中写的,但是因为这里不能发Word格式,所以只能发图片了
2018-09-26 10:25:24 542 2
原创 机器学习技法笔记总结(一)SVM系列总结及实战
本篇文章对于SVM的一系列原理进行了总结,其中涉及了线性SVM,SVM的对偶形式,soft-margin SVM,SVR等等一系列相关知识,并且使用sklearn进行了实战,给出的一个人脸识别的例子
2018-09-20 11:34:48 1408
原创 机器学习技法笔记9:决策树
9-1 Decision Tree Hypothesis上节课我们主要介绍了Adaptive Boosting。AdaBoost演算法通过调整每笔 资料的权重,得到不同的hypotheses,然后将不同的hypothesis乘以不同的 系数α进行线性组合。这种演算法的优点是,即使底层的演算法g不是特别好 (只要比乱选好点),经过多次迭代后算法模型会越来越好,起到了boost提 升的效果。本节课...
2018-09-13 11:14:46 265
原创 机器学习技法笔记8:adaptive boosting(Adaboost)
8-1 Motivation of Boosting(提升的目的)上节课我们主要开始介绍Aggregation Models,目的是将不同的hypothesis 得到的gt集合起来,利用集体智慧得到更好的预测模型G。首先我们介绍了 Blending,blending是将已存在的所有gt结合起来,可以是uniformly, linearly,或者non-linearly组合形式。然后,我们讨论了...
2018-09-11 21:32:34 292
原创 机器学习技法笔记7:blending and bagging
7-1 Motivation of Aggregation在这部分,主要介绍了blending和bagging,7-1介绍了集成学习的两个优点:实现特征转换以及正则化。7-2介绍了uniform blending,也就是所有假设的权重均为1时的blending,7-3介绍了linear blending,此时假设的权重不同,7-3介绍了bagging,核心就是通过bootstrap来得到不同的...
2018-09-10 17:32:48 403
原创 机器学习技法笔记6:support vector regression(SVR)
6-1 Kernel Ridge Regression上节课我们主要介绍了Kernel Logistic Regression,讨论如何把SVM的技巧 应用在soft-binary classification上。方法是使用2-level learning,先利用 SVM得到参数b和w,然后再用通用的logistic regression优化算法,通过 迭代优化,对参数b和w进行微调,得到最佳...
2018-09-08 12:26:01 1677
原创 机器学习技法笔记5:Kernel 逻辑回归
5-1 Soft-Margin SVM as Regularized Model上节课我们主要介绍了Soft-Margin SVM,即如果允许有分类错误的点存在, 那么在原来的Hard-Margin SVM中添加新的惩罚因子C,修正原来的公式, 得到新的αn值。最终的到的αn有个上界,上界就是C。Soft-Margin SVM权 衡了large-margin和error point之前的关系,...
2018-09-06 21:34:40 1094
原创 机器学习技法笔记4:Soft-Margin SVM
之前几篇见:4-1 Motivation and Primal Problem上节课我们主要介绍了Kernel SVM。先将特征转换和计算内积这两个步骤合 并起来,简化计算、提高计算速度,再用Dual SVM的求解方法来解决。 Kernel SVM不仅能解决简单的线性分类问题,也可以求解非常复杂甚至是无 限多维的分类问题,关键在于核函数的选择,例如线性核函数、多项式核函数 和高斯核函数...
2018-09-06 13:15:55 1731
原创 机器学习技法笔记3:Kernel SVM
前两篇见: 机器学习技法笔记1:线性SVM 机器学习技法笔记2:SVM的对偶形式3-1 Kernal Trick上节课我们主要介绍了SVM的对偶形式,即dual SVM。Dual SVM也是一个 二次规划问题,可以用QP来进行求解。之所以要推导SVM的对偶形式是因 为:首先,它展示了SVM的几何意义;然后,从计算上,求解过程“好像” 与所在维度d^无关,规避了d^很大时难以求解的情...
2018-09-05 21:40:57 733
原创 机器学习技法笔记2:SVM的对偶形式
2 SVM的对偶形式 1、上次学习过 上一节课我们说过,使用SVM得到large-margin,减少了有效的VC Dimension,限制了模型复杂度;另一方面,使用特征转换,目的是让模型更 复杂,减小Ein。所以说,非线性SVM是把这两者目的结合起来,平衡这两者 的关系。那么,特征转换下,求解QP问题在z域中的维度设为d~+1,如果 模型越复杂,则d~+1越大,相应求解这个QP问题也变得...
2018-09-05 17:05:47 897
原创 机器学习技法笔记1:线性SVM
1-1 最大边界间隔超平面最大边界间隔超平面(Large-Margin Separating Hyperplane) 1、 回顾一下我们之前介绍了linear classification,对于线性可分的情况,.数学上就是求出加权的分数,判断分数的正负,来预测结果。我们可以使用PLA/pocket算法在平面或者超平面上把正负类分开 例如对平面2D这种情况,我们可以找到一条直线,能将正...
2018-09-04 21:13:43 804
原创 各种排序算法比较(java)
排序算法是数据结构中十分基础的内容,本文总结了常用的排序算法的原理和性能,还给出了相关的图解,并且采用java语言实现了算法,最后给了一个面试中实际的例子,以及算法复杂度的比较
2018-09-04 20:04:15 13734 6
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人