学习笔记
文章平均质量分 63
sjz_hahalala479
天天写博客,天天好心情!
展开
-
算法:栈和队列和链表
栈和队列最小栈基于栈实现队列实现栈的逆序,只能用递归操作和栈本身的函数实现。不能使用其它数据结构。利用递归函数的函数栈将栈中从顶到底按照从大到小排序,只许申请一个栈,除此之外可以申请新的变量,但不能申请额外的数据结构。汉诺塔原理滑动窗口的最大值https://leetcode.cn/problems/hua-dong-chuang-kou-de-zui-da-zhi-lcof/ 双端队列给定一个没有重复元素的数组arr,写出生成这个数组maxTree的函数。要求如果数组长度为N,时间复杂原创 2022-05-25 01:15:40 · 278 阅读 · 0 评论 -
算法:动态规划相关题目
给定一个矩阵m,从左上角开始每次只能向右或者向下走,最后到达右下角的位置,路径上所有的数字累加起来就是路径和,返回所有的路径中最小的路径和。经典动态规划,生成辅助矩阵,二维动态规划。dp[i][j] 表示从左上角走到(i,j)位置的最小路径和。def minSum(matrix): n = len(matrix) m = len(matrix[0]) grid = [[None] * m for _ in range(n)] print(grid) for i i原创 2022-05-24 19:50:20 · 235 阅读 · 0 评论 -
Word 小技巧(亲身实践,持更)
在Word中删除页面解决方法原创 2021-04-08 18:43:50 · 99 阅读 · 0 评论 -
Deep Neural Networks for YouTube Recommendations 双语译文+理解
这里写自定义目录标题Deep Neural Networks for YouTube RecommendationsAbstract 摘要INTRODUCTION 引言合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入Deep Neural原创 2020-05-21 14:57:10 · 3226 阅读 · 0 评论 -
用于实时出价(RTB)中用户响应预测的神经特征嵌入
Neural Feature Embedding for User Response Prediction in Real-Time Bidding (RTB) by Enno Shioji, Masayuki Arai. ArXiv 2017.0 摘要在广告定位领域,预测用户响应对于许多应用程序(如实时出价(RTB))至关重要。此域中提供的许多特征都是稀疏的分类特征。这提出了一个挑战,...原创 2020-03-28 11:33:09 · 221 阅读 · 0 评论 -
斯坦福深度学习课程笔记(一)
图像分类ppt数据驱动方法人眼和计算机看到的图片不同,计算机看到的图片是由很多代表像素点的数字表示的数组,所以人眼和计算机的视觉识别存在着Semantic Gap(语义鸿沟)。同时,让计算机能够有效地识别图片中的物体之前,还存在很多挑战:比如一些像素的简单偏移或者变化,会使整张图片有改变;物体所在的环境,如光线,位置会有变化;物体本身有不同的姿态;可能有障碍物遮挡物体;等等。...原创 2018-09-20 10:10:24 · 792 阅读 · 0 评论 -
斯坦福CS224N_自然语言处理NLP深度学习DL课程笔记(一)
Lecture 1: Introductionpdf本节课是对自然语言处理的定义介绍和应用介绍,还顺带说了NLP的难点;本节课使用深度学习作为NLP的主要处理工具。传统的机器学习技术,需要人为地去做特征工程,将这些的特征喂给机器学期算法;然后机器学习算法去训练,来找到最拟合训练数据+正则化损失最小的权重。教授说,我们的传统机器学习技术,其实主要是在做数值优化的问题。人为设计的特征具有如下...原创 2018-10-02 16:50:52 · 3078 阅读 · 0 评论 -
斯坦福深度学习课程笔记(二)
损失函数和优化官网ppt1 损失函数2 优化原创 2018-09-21 12:05:36 · 615 阅读 · 0 评论 -
斯坦福CS224N_自然语言处理NLP深度学习DL课程笔记(二)
Lecture 3: More Word Vectors2018-pdf2017-pdfgigantic 巨大原创 2018-10-07 17:31:09 · 1016 阅读 · 1 评论 -
斯坦福深度学习课程笔记(四)
卷积神经网络历史神经网络历史视觉与卷积历史现代应用卷积和池化历史ppt神经网络历史1957,感知机一代1960,Adaline/Madaline ,尝试多层神经网络1986,反向传播算法提出2006,深度学习开始变得流行Reinvigorated research in Deep Learning ,[Hinton and Salakhutdinov 2006]2010...原创 2018-10-14 21:22:04 · 475 阅读 · 0 评论 -
斯坦福深度学习课程笔记(五)
训练神经网络训练神经网络激活函数数据预处理权重初始化批量归一化训练神经网络官网ppt激活函数常见的激活函数有以下几种:首先是sigmoid函数:这个函数的表达式一般为:θ(x)=11+e−x\theta(x) = \frac{1}{1+e^{-x}}θ(x)=1+e−x1它会将所有输入的xxx值压缩到(0,1)(0,1)(0,1)区间中;曾经这个函数是标准的激活函数,很多...原创 2018-10-16 12:21:37 · 808 阅读 · 0 评论 -
【论文翻译】使用多任务级联卷积网络进行联合人脸检测和对齐(MTCNN)
Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks使用多任务级联卷积神经网络进行联合摘要Face detection and alignment in unconstrained environment are challenging due to various ...翻译 2018-11-28 21:27:12 · 2310 阅读 · 0 评论 -
吴恩达Deep Learning 1-3周重点集锦
第一门课 Neural Networks and Deep Learning神经网络和深度学习第一周 Introduction to Deep Learning 深度学习引言ReLU激活函数,全称Rectified Linear Unit修正线性单元 f(x)=max(0,x)f(x) = max(0,x)f(x)=max(0,x)为什么深度学习会兴起?有时间回看一遍第二周 Basic...原创 2019-01-08 19:15:16 · 334 阅读 · 0 评论 -
Google Colab使用
入门Google Colab可以参考这三篇文章https://juejin.im/post/5c05e1bc518825689f1b4948https://zhuanlan.zhihu.com/p/35063343https://blog.csdn.net/cocoaqin/article/details/79184540个人的使用心得先占着坑,过段时间再填...原创 2019-01-27 15:51:56 · 471 阅读 · 0 评论 -
斯坦福深度学习课程笔记(三)
介绍神经网络官网slides1 反向传播2 神经网络原创 2018-09-23 21:41:27 · 1009 阅读 · 0 评论 -
【林轩田】机器学习基石(九)——线性回归
ppt videoLecture 9: Linear Regression 线性回归9.1 Linear Regression Problem 线性回归问题考虑一个问题,银行按照每个顾客的个人情况,赋予不同的信用额度。我们可不可以通过机器学习,学到一个赋予信用额度的比较好的方式呢? 信用额度是一个实数,所以输出y∈Ry∈Ry \in R,属于回归问题。 这里介绍最简单...原创 2018-08-15 12:39:40 · 1428 阅读 · 1 评论 -
MIT 6.00 导论课程笔记(三)
Lecture 09二分法实际上是重复了 Lecture 8 的内容。 Lisp语言存储列表是使用了box pointer diagram,使用的是链表,每一个盒子有两个指针,一个指向下一个位置,一个指向值对象。这种存储链表的方式如果要找到第i个列表元素的话,需要按顺序一个一个的来,即线性查找时间。 Python和Fortran语言改进了这一问题,采用了另一种方式来存储列表。使用一整原创 2017-02-14 20:29:47 · 503 阅读 · 0 评论 -
MIT 6.00 导论课程笔记(四)
Lecture 13动态编程,重叠子问题,优化子结构 一般来说,递归型问题都具有重叠子问题(overlapping sub-problem),例如以前讲过的裴波那契数列。def fib2(x): global numCalls numCalls += 1 print 'fib called with: ',n,' numCalls: ',numCalls if x原创 2017-02-19 11:51:48 · 1004 阅读 · 2 评论 -
Python使用Opencc库完成字符繁简体转换
背景在日常工作中,我们常常会遇到转换中文字符繁简体的情况。接下来,我该大家介绍一个很强大的Python库,用来方便的处理字符转换。OpenCC简介Opencc(Open Chinese Convert)是一个开源的中文繁简体转换项目,作者是目前任职于Google的BYVoid。详细信息请看官网(https://code.google.com/p/opencc)。OpenCC-Python安装Op原创 2017-05-10 17:03:54 · 10447 阅读 · 0 评论 -
深入理解Python(三)
DictionaryDictionary, 字典,是Python的内置数据类型之一,定义了键值之间一一对应的关系。Python中的dictionary就像Perl中的Hash数组。Python中的dictionary就像Java中的Hashtable实例。Dictionary不能有重复的key,任何时候都可以加入新的key-value对Dictionary的value可以是任意类型原创 2017-05-06 20:04:33 · 385 阅读 · 0 评论 -
深入理解Python(四)
自省自省,是指代码可以查看内存中以对象形式存在的其它模块和函数,获取它们的信息,并对它们进行操作。可选参数和命名参数def idol(name,age=27,sex=male): pass在上述代码中,age和sex是可选参数,name是必备参数,但仍可以采用命名参数形式出现In: idol(name='Luhan')In: idol('MaYun',age=45)原创 2017-05-07 11:23:24 · 598 阅读 · 0 评论 -
深入理解Python(五)
类类名通常第一个字母大写Python没有C++类似的构造函数和析构函数,Python存在和构造函数相似的东西,__init__方法。Python中类的基类只是简单地列在类名后面的小括号里,不像Java中有一个特殊的extends关键字。Python支持多重继承,在小括号中以逗号分隔__init__与self__init__在类的实例创建后被立即调用,它和类的构造函数是有区别原创 2017-05-07 22:14:29 · 667 阅读 · 0 评论 -
深入理解Python(二)
Python的返回值Python的函数定义以关键字 def 开始,接着是函数名,再往后为参数。函数没有定义返回的数据类型。Python不需要指定返回值的数据类型,因为事实上,每个Python函数都会默认返回一个值。如果函数中有return语句,那么Python返回特定的值;否则,Python会返回None。'''不同语言函数定义语法比较'''#pythondef test(params)原创 2017-05-05 17:16:45 · 488 阅读 · 0 评论 -
【林轩田】机器学习基石(一)
接触机器学习有两年了,也做了一些project,但是还是停留在调库、调参等表面东西上,对于机器学习基础方面的东西,仍旧很虚。趁着放长假,我决定好好补补基础,然后写写笔记激励自己持续学习。课程是台大林轩田老师的《机器学习基石》这门课,在B站上搜索就能看到。Lecture 1 The Learning Problem1.1 What is Machine Learning 什么是机器学习?...原创 2018-07-11 15:48:35 · 744 阅读 · 0 评论 -
【林轩田】机器学习基石(二)——PLA
Lecture 2 Learning to Answer Yes or No2.1 Perceptron Hypothesis Set 感知假说集感知假说集这部分,林老师主要是举了个线性回归的例子,来帮我们感性地认识了 h 这个东西到底是什么。 比如说线性回归: h=sign(wTx)h=sign(wTx) h = sign(w^Tx) 当x=x0,x1,x2x=x0,x1,x2...原创 2018-07-18 14:04:21 · 1134 阅读 · 4 评论 -
[林轩田]机器学习基石(三)
Lecture 3 Types Of Learning 学习的类型ppt3.1 Learning with Different Output Space YYY分类分析:二元分类、多元分类回归分析:输出是实数结构化学习 3.2 Learning with Different Data Label ynyny_n监督式学习 - ...原创 2018-07-18 17:08:20 · 631 阅读 · 0 评论 -
【林轩田】机器学习基石(七)——VC维
Lecture 7: VC Dimension VC维Definition of VC Dimension VC维的定义复习1上节课,林教授讲到了,当样本NNN足够大,且成长函数mH(N)mH(N)m_{H}(N)存在断点kkk时,可以概率性地推出Eout≃EinEout≃EinE_{out} \simeq E_{in}即 有断点k的mH(N)≤B(N,k)≤∑i=0k−1(...原创 2018-08-04 13:01:13 · 1236 阅读 · 0 评论 -
[林轩田]机器学习基石(四)
Lecture 4: Feasibility of Learning 学习的可行性pptLearning is impossible 学习是不可能的天下没有白吃的午餐这一小节主要是告诉我们,机器学习无法解决没有确定规则或规律或标准的问题。Probability to the Rescue 救援的可能性这一小节主要在讲大数定律Hoeffding’s Inequali...原创 2018-08-01 11:49:13 · 887 阅读 · 3 评论 -
【林轩田】机器学习基石(八)——噪声和误差
ppt videoLecture 8: Noise and Error 噪声和误差8.1原创 2018-08-14 12:56:50 · 2244 阅读 · 0 评论 -
【林轩田】机器学习基石(五)——训练和测试
Lecture 5 Training versus Testing ppt videoRecap and Preview 回顾和预习Recap上节课我们讲到了,如果假设空间集是有限的,空间集大小设为MMM;当训练样本数NNN足够大时;对于演算法AAA选择的任何ggg,我们都可以认为Eout(g)≃Ein(g)Eout(g)≃Ein(g)E_{out}(g) \sime...原创 2018-08-02 11:19:55 · 1196 阅读 · 0 评论 -
【林轩田】机器学习基石(六)——泛化理论
ppt videoRestriction of Break Point 断点的限制这一小节提出了一个问题,当我们最小的断点k=2k=2k=2,时,我们能推出什么?N=1时,x1x1x_1是圈、叉都可以,这样有mH(1)=2mH(1)=2m_H(1) = 2N=2时,注意到k=2k=2k=2是断点,所以mH(2)≤22=4mH(2)≤22=4m_H(2) \le 2...原创 2018-08-02 18:49:11 · 1107 阅读 · 0 评论 -
MIT 6.00 导论课程笔记(二)
def squareRootBi(x, epsilon): assert x >= 0, 'x must be non-negative, not '+ str(x) assert epsilon > 0, 'epsilon must > 0 ' low = 0 high = x gueess = ( high + low )/ 2.0 cnt = 1原创 2017-02-06 20:55:36 · 717 阅读 · 0 评论