牛客刷题错题总结收集(格式为知识点-题干-解释或者知识点-具体知识点的解释)秋招看看复习下!

题目涉及知识范围有数据结构和算法、计算机网络、操作系统、数据库、机器学习、Linux等。

每篇更新十个知识点,接下来会随着本人刷题记录持续更新!

知识点:K路平衡归并排序

在一般情况下,对于 k路平衡归并来说,若 (m-1)MOD(k-1)=0,则不需要增加虚段;否则需附加 k-(m-1)MOD(k-1)-1 个虚段。

例如:m=33,k=7,(m为多少个初始归并段, k为做几路平衡归并排序)

 

知识点:随机森林

对于随机森林主要降低预估的哪个方面值:

引入随机样本并且增加决策树的数据是降低由数据的不稳定性所带来的预估方差,增加模型复杂度是降低预估偏差,另外噪音是无法避免的。

 

知识点:机器学习

机器学习可以分为监督学习、无监督学习、半监督学习、强化学习

常见的有监督学习算法:回归分析和统计分类。最典型的算法是KNN和SVM。

无监督学习算法:

K-Means、关联规则属于无监督学习

 

知识点:Linux常用命令

将当前命令sh test.sh任务在后台执行,下列最优雅的的做法是:

nohup命令:no hang up

用途:不挂断的运行命令

形式:nohup sh example.sh &

 

知识点:Linux常用命令

Linux grep 命令用于查找文件里符合条件的字符串。

grep -o只输出文件中匹配到的部分

所以,截取logfile文件中含有suc的行,并且只输出最后一列,下列操作正确的是:

grep 'suc' logfile | awk '{print $NF}'

 

知识点:数据库定义语言DDL和数据库控制语言DCL

DDL:

create:创建

drop:删除

alter:修改

修改表名:rename table 旧表名 to 新表名

DCL:

GRANT:授权

 

知识点:机器学习

对称矩阵不一定满秩;不同特征值之间的特征向量一定正交,而同一特征值的特征向量需要借助公式得正交向量

 

知识点:最小二乘法

在回归分析中,最小二乘得到无偏估计;若经过收缩,变成了有偏估计,可以降低估计量的方差,从而改善均方误差,提高预测效果!

在回归中,正则化通常用L1(lasso回归),L2(岭回归),实际上完成了向0的收缩!

正则化就是通过收缩的方法,限制了模型变得越来越复杂,不care样本内误差,降低模型参数的误差,从而提高场外预测效果!

最小二乘估计是线性无偏估计中方差最小的。

在线性回归模型中,如果误差满足零均值、同方差且互不相关,则回归系数的最佳线性无偏估计(BLUE, Best Linear unbiased estimator)就是普通最小二乘法估计

 

知识点:数理统计

公式:E(X^2)=E^2(X)+Var(X)

设{xn}服从独立同分布, E[xn] = 0, Var[xn]=1, 则当n趋向于无穷大时:

x独立同分布,相关系数为0,故只有n个x的方差。

 

知识点:机器学习-关联规则

都买占比是支持度,a->b:买a中b占比是置信度

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值