面试题
文章平均质量分 74
CVer儿
开源让世界更美好
展开
-
面试题分享
面试题分享虽然秋招尾巴,感谢各大公司给予自己机会,总结自己面试题目如下,模型、算法、工程、语言,每一个都被问到过:一、C++语言...1、如何理解C++的多态?可以给出一个示例程序证明吗?了解早绑定(静态绑定)和晚绑定(动态绑定)吗?(1)多态的成立条件...(2)多态基本概念...(3)给出一个示例程序...(4)如何实现动态绑定的机制?...(5)多态原理的实质?...(6)向上类型转换和向下类型转换?...(7)虚函数和纯虚函数之间的区别?.原创 2021-12-30 10:18:48 · 352 阅读 · 0 评论 -
深度学习基础面试常见问题总结
1. 为什么需要做特征归一化、标准化? 使不同量纲的特征处于同一数值量级,减少方差大的特征的影响,使模型更准确。 加快学习算法的收敛速度。 2. 常用的归一化和标准化的方法有哪些? 线性归一化(min-max标准化) x’ = (x-min(x)) / (max(x)-min(x)),其中max是样本数据的最大值,min是样本数据的最小值 适用于数值比较集中的情况,可使用经验值常量来来代替max,min 标准差归一化(z-score 0均值标准化)转载 2021-10-22 10:11:47 · 304 阅读 · 0 评论 -
面试 | 22道机器学习常见面试题目
(1) 无监督和有监督算法的区别?有监督学习:对具有概念标记(分类)的训练样本进行学习,以尽可能对训练样本集外的数据进行标记(分类)预测。这里,所有的标记(分类)是已知的。因此,训练样本的岐义性低。无监督学习:对没有概念标记(分类)的训练样本进行学习,以发现训练样本集中的结构性知识。这里,所有的标记(分类)是未知的。因此,训练样本的岐义性高。聚类就是典型的无监督学习。(2) SVM 的推导,特性?多分类怎么处理?SVM是最大间隔分类器,几何间隔和样本的误分次数之间存在关系,,其中从线...转载 2021-07-17 10:33:02 · 694 阅读 · 0 评论 -
数据结构面试
作者:土豆不是马铃薯https://www.zhihu.com/question/24964987/answer/1375545512017年校招,总共面试10家互联网公司,总结一下大概遇到的算法题。1.数组中逆序对计算。(剑指offer)2.判读一个树是不是另一个树的子树(剑指offer)3.数据流要求o(1)求得中位数,o(lgn)插入(剑指offer)4.顺时针打印矩阵(剑指offer)5.复杂链表复制(剑指offer)6.二叉排序树中第k小的数(剑指offer)7.反原创 2021-05-19 09:45:29 · 163 阅读 · 0 评论 -
vtk初探错误记录
1.no override found for 'vtkPolyDataMapper'参考:https://blog.csdn.net/xiaomoxz/article/details/80987381所以,只要在源程序前面加上这三行代码就欧克了!代码如下:#include "vtkAutoInit.h" VTK_MODULE_INIT(vtkRenderingOpenGL2); // VTK was built with vtkRenderingOpenGL2VTK_MODULE_I.原创 2021-02-05 13:30:07 · 430 阅读 · 0 评论 -
深度学习相关面试题
1.CNN的特点以及优势改变全连接为局部连接,这是由于图片的特殊性造成的(图像的一部分的统计特性与其他部分是一样的),通过局部连接和参数共享大范围的减少参数值。可以通过使用多个filter来提取图片的不同特征(多卷积核)。CNN使用范围是具有局部空间相关性的数据,比如图像,自然语言,语音1.局部连接:可以提取局部特征。2.权值共享:减少参数数量,因此降低训练难度(空间、时间消耗都少了)。3.可以完全共享,也可以局部共享(比如对人脸,眼睛鼻子嘴由于位置和样式相对固定,可以用和脸部不一样的卷积转载 2021-02-05 01:08:28 · 567 阅读 · 0 评论 -
深度学习相关面试题
1.CNN的特点以及优势改变全连接为局部连接,这是由于图片的特殊性造成的(图像的一部分的统计特性与其他部分是一样的),通过局部连接和参数共享大范围的减少参数值。可以通过使用多个filter来提取图片的不同特征(多卷积核)。CNN使用范围是具有局部空间相关性的数据,比如图像,自然语言,语音1.局部连接:可以提取局部特征。2.权值共享:减少参数数量,因此降低训练难度(空间、时间消耗都少了)。3.可以完全共享,也可以局部共享(比如对人脸,眼睛鼻子嘴由于位置和样式相对固定,可以用和脸部不一样的卷积转载 2021-01-03 00:12:27 · 462 阅读 · 0 评论