找工作的基础知识
滺湙
qq:471290723
展开
-
逻辑回归(Logistic regression)
实习完回学校,搞完了开题答辩,最近因为找工作需要,开始复习一些算法方面在笔试面试中会遇到的问题。用博客记录,之后要再看的话比较方便。如有错误,欢迎指正。逻辑回归(Logistic regression)逻辑回归是分类方法。用的是sigmoid激活函数,特点:1.将输入值映射到(0,1)区间。2.函数图像连续且光滑,严格的单调递增函数,处处可导。3.在0附近比较敏感。优点:形式简单,易...原创 2019-09-13 14:20:06 · 820 阅读 · 0 评论 -
各排序以及python代码实现
一、总述一般是内部排序。二、冒泡排序每一次都将最大(小)的数沉到末尾。def maopao(num): for i in range(1,len(num)): for j in range(0,len(num)-i): if num[j]>num[j+1]: num[j],num[j+1] = num[j+1],num[j] ...原创 2019-09-18 20:16:07 · 283 阅读 · 0 评论 -
模型评估方法(Accuracy,Precision,Recall,F1 Score,ROC,AUC,IoU)
今晚花椒直播的现场笔试写这个,在其他的线上鄙视中也考得比较多,有时候面试也会遇到。一、混淆矩阵二、AccuracyAccuracy=预测正确的数量/总数量=(TP+TN)/(TP+FP+TN+FN)Accuracy=预测正确的数量/总数量=(TP+TN)/(TP+FP+TN+FN)Accuracy=预测正确的数量/总数量=(TP+TN)/(TP+FP+TN+FN)三、Precision(...原创 2019-09-17 22:07:44 · 2001 阅读 · 1 评论 -
集成学习(ensemble learning)
一、总述集成学习通过构建并结合各个学习器来完成学习任务,以获得比单个学习器更优的性能(核心是每个学习器“好而不同”):先产生一组个体学习器,再用某种策略将它们组合起来。同质(homogeneous)集成:决策树集成,神经网络集成…个体为基学习器,算法为基学习算法。异质(heterogenous)集成:包含不同类型的学习器,个体为组建学习器。Boosting:个体学习器之间存在强依赖关系、必须串...原创 2019-09-15 18:17:11 · 425 阅读 · 0 评论 -
决策树(decision tree)
一、总述决策树可用于分类和回归,主要是用于分类。决策树包含结点(内结点代表特征,外结点代表类)和有向边,将决策树转换为if-then规则,是互斥且完备的。目标:构建与训练数据矛盾较小的决策树。损失函数是正则化的极大似然函数。决策树的生成只考虑局部最优(这一次选择的特征有最好的分类能力),剪枝考虑全局最优。找出最优树是完全NP问题,找出次优树是一种启发式过程。包含三个步骤:特征选择,决策树的...原创 2019-09-15 15:43:54 · 302 阅读 · 0 评论 -
朴素贝叶斯(naive bayes)
朴素贝叶斯在自然语言处理(NLP)中使用较频繁。步骤:(1)计算先验概率和条件(2)对于需要预测的实例,计算:(3)确定每个实例所属的类别:下面来看一个例子(来自李航的《统计学习方法》):X(1),X(2)X^{(1)},X^{(2)}X(1),X(2)为特征,取值集合分别为A1=A_1=A1={1,2,3},A2=A_2=A2={S,M,L},Y为类别标记,Y=Y=Y={1...原创 2019-09-13 16:34:38 · 119 阅读 · 0 评论 -
支持向量机(SVM)
SVM是典型的二分类器。1.划分超平面WTx+b=0W^Tx+b=0WTx+b=0,将数据划分为两类。划分超平面有多个,选择泛化能力最好的那个2.离超平面最近的点位支持向量点,两个异类支持向量点到超平面之和:r=2/∣∣W∣∣r=2/||W||r=2/∣∣W∣∣,要使它最大,那么就是使∣∣w∣∣2/2||w||^2/2∣∣w∣∣2/2最小。使用拉格朗日法来求解。3.对于线性不可分的数据,映射...原创 2019-09-13 15:09:52 · 160 阅读 · 0 评论 -
激活函数
一般在图像的目标检测,图像分类中,用到损失函数是交叉熵。一、sigmoid用作二分类,在特征相差比较复杂或是相差不是特别大时效果比较好。二、softmax用作多分类。“soft”在于连续可微。比起sigmoid,数值稳定。所有值得和为1,那么就会此消彼涨,有相互抑制的效果softmax(z)i=exp(zi)/Σjexp(zj)softmax(z)_i=exp(z_i)/\Sigma _...原创 2019-10-10 20:34:28 · 899 阅读 · 0 评论