- 博客(12)
- 收藏
- 关注
原创 秋招笔试记录
20190817腾讯笔试第1题栅栏由n根栏杆组成,第i根栏杆的长度为hi,需要连续拔掉k根栏杆拔掉的最小长度总和def lenth_min(k,h): n=len(h) min=0 #先计算前k根栏杆的长度和 for i in range(k): min=min+h[i] #采用滑动窗口的思想依次滑动,每滑动一次丢掉一个栏杆长度...
2019-08-19 10:11:41
142
原创 秋招面试记录
美团北斗计划-推荐算法研发(大数据与算法部门)20190805初试(1.5h)手撕代码:最小的k个数#利用快排的思想,O(N),缺点:修改原有数组class Solution: def GetLeastNumbers_Solution(self, tinput, k): # write code here #利用快排的思想 i...
2019-08-12 15:49:12
152
原创 Google Tensorflow Object Detection API 配置之object_detection/protos/*.proto: No such file or directory
在配置Google Tensorflow Object Detection API 时需要编译proto文件,从官网下载protoc-3.6.1-win32,解压后将bin文件夹中的protoc.exe路径添加到电脑的环境变量中的path中,进入models/research路径在运行教程给出的以下命令时报错: protoc object_detection/protos/*.proto -...
2018-12-18 14:11:28
654
原创 python最大子序列和(连续)——在线处理(动态规划)
代码来源于浙江大学数据结构课程1.3最大子列和问题def onLineMaxFind(nums): if len(nums)==1: return nums[0] else: sum_add=0 max_sum=float("-inf") for i in range(N): temp=...
2018-11-29 20:23:41
1949
1
原创 python最大子序列和(连续)——分而治之
目录分而治之思想:最大子序列和问题描述:问题解决思路:问题解决代码:算法复杂度分析:分而治之思想:#1将问题分解为若干简单的子问题#2通过递归寻求各个子问题的的解#3合并各个子问题的解,从而得到原始问题的解最大子序列和问题描述:给定N个整数的序列{A1,A2,...,AN},求函数f(i,j)=max(0,Ai+...+Aj)的最大值问题解决思路:...
2018-11-29 17:47:40
2220
1
原创 Matplotlib&Seaborn绘图整理(基于Titanic数据集)【未完待续】
目录一、Titanic数据集下载二、Titanic数据集预处理1数据读取及查看2数据预处理三、基于Titanic数据集的Matplotlib&Seaborn绘图1分布图绘制1.1displot(单变量绘制)1.2joinplot(双变量+单变量统一绘制)1.3kdeplot(核密度估计图)1.4 pairplot(主要用于特征两两对比作图)1.5...
2018-10-16 20:37:59
3741
原创 No dashboards are active for the current data set.解决方案
在使用tensorboard可视化展示tensorflow运行过程中的计算图时,遇到“No dashboards are active for the current data set.”问题通过搜索网上的一系列解决方案,开始均未将该问题解决直到仔细回想博主使用tensorboard进行测试时的操作发现,开始操作时博主存放log文件的文件夹是手动创建的,而非用以下测试程序创建的,而后删...
2018-10-02 11:22:33
3364
原创 李航《统计学习方法》朴素贝叶斯分类代码实现及解析
参考博客贝叶斯估计(python 版) import numpy as nptrain_data = np.array([[1, "S", -1], [1, "M", -1], [1, "M", 1], [1, "S", 1], ...
2018-09-20 19:57:47
618
转载 感知机对偶形式理解
内容转载于知乎:如何理解感知机学习算法的对偶形式? - Zongrong Zheng的回答 - 知乎 https://www.zhihu.com/question/26526858/answer/136577337
2018-09-19 13:56:05
675
原创 证明二类分类问题的泛化误差上界
泛化误差上界:对二分类问题,当假设空间是有限个函数的集合F={f1,f2,f3,...,fn}时,对任意一个函数,至少以概率,以下不等式成立:其中,不等式右端第一项为训练误差,训练误差越小,泛化误差就越小第二项为N的单调递减函数,当N趋于无穷时其趋于0,且假设空间包含的函数越多,其值越大以下为证明过程:首先,因为证明过程要用到Hoeffding不等式,叙述如下:设是...
2018-09-18 19:58:37
1979
2
原创 机器学习正则化
正则化项可以是模型参数向量的范数首先,范数是指推广到高维空间中的模,给定向量x=(x1,x2,x3,...,xn),常用的向量的范数如下:L0范数:向量非零元素的个数L1范数:向量各个元素绝对值之和 ,也被称为“稀疏规则算子”L2范数:向量各个元素的平方和然后求平方根,也被称为“岭回归”和“权值缩减”Lp范数::向量各个元素绝对值的p次方求和然后求1/p次方L范数:向量各个...
2018-09-18 19:08:44
153
原创 损失函数和风险函数
损失函数度量模型预测一次的好坏,即模型预测一次其预测值与真实值之间的差别。风险函数度量模型平均意义上预测能力的好坏,即模型预测n次预测值与真实值差别的平均。记f(X)为模型的输出预测值,Y为对应输入的真实值,则损失函数为f(x)和Y的非负实值函数,记为L(Y,f(x))。常用的损失函数有如下几种:1.0-1损失函数0-1损失函数通过比较真实值与预测值是否相等进行度量模型的好坏,...
2018-09-18 19:08:36
2250
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人