【8】机器学习算法面试八股

131栈溢出有哪些情况

1)、局部数组过大。当函数内部的数组过大时,有可能导致堆栈溢出。
2)、递归调用层次太多。递归函数在运行时会执行压栈操作,当压栈次数太多时,也会导致堆栈溢出。
3)指针或数组越界。这种情况最常见,例如进行字符串拷贝,或处理用户输入等等。

132红黑树

自平衡二叉查找树,用途是实现关联数组。
它可以在O(log n)时间内做查找,插入和删除,这里的n 是树中元素的数目。
set, multiset, map, multimap)应用了红黑树的变体
红黑树是每个节点都带有颜色属性的二叉查找树,颜色或红色或黑色。在二叉查找树强制一般要求以外,对于任何有效的红黑树我们增加了如下的额外要求:
性质1. 节点是红色或黑色。
性质2. 根节点是黑色。
性质3 每个叶节点(NIL节点,空节点)是黑色的。
性质4 每个红色节点的两个子节点都是黑色。(从每个叶子到根的所有路径上不能有两个连续的红色节点)
性质5. 从任一节点到其每个叶子的所有路径都包含相同数目的黑色节点。
红黑树的关键性质: 从根到叶子的最长的可能路径不多于最短的可能路径的两倍长

133对一千万个整数排序,整数范围在[-1000,1000]间,用什么排序最快?

计数排序,计数排序的基本思想为在排序前先统计这组数中其它数小于这个数的个数,其时间复杂度为 ,其中n为整数的个数,k为所有数的范围

134堆排序的思想

将待排序的序列构成一个大顶堆,这个时候整个序列的最大值就是堆顶的根节点,将它与末尾节点进行交换,然后末尾变成了最大值,然后剩余n-1个元素重新构成一个堆,这样得到这n个元素的次大值,反复进行以上操作便得到一个有序序列。

135快速排序的最优情况

链接
快速排序(Quick Sort)使用分治法策略。
它的基本思想是:选择一个基准数,通过一趟排序将要排序的数据分割成独立的两部分;其中一部分的所有数据都比另外一部分的所有数据都要小。然后,再按此方法对这两部分数据分别进行快速排序,整个排序过程可以递归进行,以此达到整个数据变成有序序列。
快速排序流程:
(1) 从数列中挑出一个基准值。
(2) 将所有比基准值小的摆放在基准前面,所有比基准值大的摆在基准的后面(相同的数可以到任一边);在这个分区退出之后,该基准就处于数列的中间位置。
(3) 递归地把"基准值前面的子数列"和"基准值后面的子数列"进行排序。

快速排序是不稳定的算法,它不满足稳定算法的定义。
快速排序的最优情况是Partition每次划分的都很均匀,当排序的元素为n个,则递归树的深度为 。在第一次做Partition的时候需对所有元素扫描一遍,获得的枢纽元将所有元素一分为二,不断的划分下去直到排序结束,而在此情况下快速排序的最优时间复杂度为 。

136topK给出3种解法

1)局部淘汰法 – 借助“冒泡排序”获取TopK
(1)可以避免对所有数据进行排序,只排序部分;
(2)冒泡排序是每一轮排序都会获得一个最大值,则K轮排序即可获TopK。
时间复杂度:排序一轮是O(N),则K次排序总时间复杂度为:O(KN)。
空间复杂度:O(K),用来存放获得的topK,

2)局部淘汰法 – 借助数据结构"堆"获取TopK
我们使用小顶堆来实现。
取出K个元素放在另外的数组中,对这K个元素进行建堆。
然后循环从K下标位置遍历数据,只要元素大于堆顶,我们就将堆顶赋值为该元素,然后重新调整为小顶堆。
循环完毕后,K个元素的堆数组就是我们所需要的TopK。
时间复杂度:每次对K个元素进行建堆,时间复杂度为:O(KlogK),加上N-K次的循环,则总时间复杂度为O((K+(N-K))logK),即O(NlogK),
空间复杂度:O(K),

3)分治法 – 借助”快速排序“方法获取TopK
思路:
(1)比如有10亿的数据,找处Top1000,我们先将10亿的数据分成1000份,每份100万条数据。
(2)在每一份中找出对应的Top 1000,整合到一个数组中,得到100万条数据,这样过滤掉了999%%的数据。
(3)使用快速排序对这100万条数据进行”一轮“排序,一轮排序之后指针的位置指向的数字假设为S,会将数组分为两部分,一部分大于S记作Si,一部分小于S记作Sj。
(4)如果Si元素个数大于1000,我们对Si数组再进行一轮排序,再次将Si分成了Si和Sj。如果Si的元素小于1000,则我们需要在Sj中获取1000-count(Si)个元素的,也就是对Sj进行排序
(5)如此递归下去即可获得TopK。

时间复杂度:一份获取前TopK的时间复杂度:O((N/n)logK)。则所有份数为:O(NlogK),但是分治法我们会使用多核多机的资源,比如我们有S个线程同时处理。则时间复杂度为:O((N/S)logK)。之后进行快排序,一次的时间复杂度为:O(N),假设排序了M次之后得到结果,则时间复杂度为:O(MN)。所以 ,总时间复杂度大约为O(MN+(N/S)logK) 。
空间复杂度:空间复杂度为O(N)。

137小顶堆的调整过程

堆排序的步骤分为三步:
1)建堆;2)交换数据;3)向下调整。

138BFS和DFS的实现思想

BFS:(1)顶点v入队列(2)当队列为非空时继续执行否则停止(3)从队列头取顶点v,查找顶点v的所有子节点并依次从队列尾插入(4)跳到步骤2
DFS:(1)访问顶点v并打印节点(2)遍历v的子节点w,若w存在递归的执行该节点。

139关联规则具体有哪两种算法,它们之间的区别

Apriori和FP-growth算法

Apriori多次扫描交易数据库,每次利用候选频繁集产生频繁集,
而FP-growth则利用树形结构,无需产生候选频繁集而直接得到频繁集,减少了扫描交易数据库的次数,提高算法的效率
但是Apriori有较好的扩展性可用于并行计算。一般使用Apriori算法进行关联分析,FP-growth算法来高效发现频繁项集。

140贪婪算法

贪婪算法(贪心算法)是指在对问题进行求解时,在每一步选择中都采取最好或者最优(即最有利)的选择,从而希望能够导致结果是最好或者最优的算法。

贪婪算法所得到的结果往往不是最优的结果(有时候会是最优解),但是都是相对近似(接近)最优解的结果。

贪婪算法并没有固定的算法解决框架,算法的关键是贪婪策略的选择,根据不同的问题选择不同的策略。策略的选择必须具备无后效性,即某个状态的选择不会影响到之前的状态,只与当前状态有关,

其基本的解题思路为:
1)建立数学模型来描述问题;
2)把求解的问题分成若干个子问题;
3)对每一子问题求解,得到子问题的局部最优解;
4)把子问题对应的局部最优解合成原来整个问题的一个近似最优解。

位运算中异或的性质:两个相同数字异或=0,一个数和0异或还是它本身。

141什么是python的生成器?

python生成器是一个返回可以迭代对象的函数,可以被用作控制循环的迭代行为。生成器类似于返回值为数组的一个函数,这个函数可以接受参数,可以被调用,一般的函数会返回包括所有数值的数组,生成器一次只能返回一个值,这样消耗的内存将会大大减小。
使用了 yield 的函数被称为生成器(generator)
调用一个生成器函数,返回的是一个迭代器对象。
在这里插入图片描述

142迭代器?

迭代器有两个基本的方法:iter() 和 next()。

list=[1,2,3,4]
it = iter(list) # 创建迭代器对象
print (next(it))

143python中is和==的区别

is是用来判断两个变量引用的对象是否为同一个(is判断的是指针是否指向同一个位置),==用于判断引用对象的值是否相等。可以通过id()函数查看引用对象的地址。

144python方法解析顺序

优先级从高到低为:实例本身 类 继承类(继承关系越近,越先定义,优先级越高)

145如何判断两个dict是否一样,list头上删除元素,字符串拼接?

通过==可以判断两个dict是否相同
list.pop(0)删除list第一个元素
join()函数进行字符串拼接

146pytorch中cuda()作用,两个Tensor,一个加了cuda(),一个没加,相加后很怎样?

cuda()将操作对象放在GPU内存中,加了cuda()的Tensor放在GPU内存中而没加的Tensor放在CPU内存中,所以这两个Tensor相加会报错
device = torch.device(“cuda:1” )
model = model.to(device)

Tensor和numpy.ndarray之间可以相互转换:
• Numpy转Tensor: torch.from_numpy(numpy矩阵)
• Tensor转Numpy: Torch矩阵.numpy()
• numpy与Tensor最大的区别就是在对GPU的支持上。Tensor只需要调用cuda()函数就可以将其转化为能在GPU上运行的类型。CPU转GPU: data.cuda()
• GPU转CPU: data.cpu()

147python中dict和list的区别,dict的内部实现

dict查找速度快,占用的内存较大,list查找速度慢,占用内存较小,
dict不能用来存储有序集合。
Dict用{}表示,list用[]表示。
dict是通过hash表实现的,dict为一个数组,数组的索引键是通过hash函数处理后得到的,hash函数的目的是使键值均匀的分布在数组中。

148python dict按照value进行排序

sorted(d.items(),key=lambda x:x[1],reverse=True)

149C++中static关键字的作用

c/c++共有
1):修饰全局变量时,表明一个全局变量只对定义在同一文件中的函数可见。
2):修饰局部变量时,表明该变量的值不会因为函数终止而丢失。
3):修饰函数时,表明该函数只在同一文件中调用。
c++独有:
4):修饰类的数据成员,表明对该类所有对象这个数据成员都只有一个实例。即该实例归 所有对象共有。
5):用static修饰不访问非静态数据成员的类成员函数。这意味着一个静态成员函数只能访问它的参数、类的静态数据成员和全局变量
在这里插入图片描述在这里插入图片描述在这里插入图片描述

150Python多进程

方式一: os.fork()
方式二:使用multiprocessing模块:创建Process的实例,传入任务执行函数作为参数
方式三:使用multiprocessing模块:派生Process的子类,重写run方法
方式四:使用进程池Pool
深拷贝与浅拷贝的区别
深复制和浅复制最根本的区别在于是否是真正获取了一个对象的复制实体,而不是引用。
浅复制 —-只是拷贝了基本类型的数据,而引用类型数据,复制后也是会发生引用,我们把这种拷贝叫做“(浅复制)浅拷贝”,换句话说,浅复制仅仅是指向被复制的内存地址,如果原地址中对象被改变了,那么浅复制出来的对象也会相应改变。 拷贝父对象,不会拷贝对象的内部的子对象
深复制 —-在计算机中开辟了一块新的内存地址用于存放复制的对象。 完全拷贝了父对象及其子对象。
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习算法项目机器学习

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT与Fintech

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值