【13】机器学习算法面试八股

本文深入探讨了机器学习面试中常见的卷积相关问题,包括AB测试原理、卷积类型(如标准卷积、空洞卷积、深度可分离卷积)、反卷积及反池化的实现,以及池化方法和其作用。此外,还涉及卷积的底层实现、1x1卷积的重要性以及CNN的特点和优势。同时,简要讨论了Python的深拷贝、浅拷贝、多线程与垃圾回收机制等基础知识。
摘要由CSDN通过智能技术生成

231AB test的原理

将用户划分为A,B两组,A实验组用户,接受所设计的推荐算法推荐的商品,B对照组用户,接受基线方法推荐的商品。通过对比两组用户的行为来评估推荐算法的性能。
答案解析
ABTest,简单来说,就是为同一个产品目标制定两个方案(比如两个页面一个用红色的按钮、另一个用蓝色的按钮),让一部分用户使用A方案,另一部分用户使用B方案,然后通过日志记录用户的使用情况,并通过结构化的日志数据分析相关指标,如点击率、转化率等,从而得出那个方案更符合预期设计目标,并最终将全部流量切换至符合目标的方案

232说说有哪些卷积

• 标准卷积,
标准卷积核与目标图像矩阵进行卷积运算,多少数量的卷积核,就会对应多少的特征图。
卷积计算:
卷积向下取整,如3.2,向下取整结果为3)
在这里插入图片描述

池化计算:
池化向上取整,如3.6,向上取整结果为4)
在这里插入图片描述当进行池化操作时,步长S就等于池化核的尺寸,如输入为24x24,池化核为4x4,则输出为(24-4)/4+1=6
在这里插入图片描述
反卷积
链接
反卷积是一种特殊的正向卷积,先按照一定的比例通过补0来扩大输入图像的尺寸,接着旋转卷积核(矩阵转置),再进行正向卷积。反卷积的操作只是恢复了矩阵的尺寸大小,并不能恢复 矩阵的每个元素值。(从输出恢复到了输入)
上采样有3种常见的方法:双线性插值(bilinear),反卷积(Transposed Convolution),反池化(Unpooling)
在这里插入图片描述(从输出恢复到了输入)
在这里插入图片描述反池化:
反池化(Unpooling):在池化过程中,记录下max-pooling的max元素值在对应kernel中的坐标,在反池化过程中,根据之前的坐标将max元素填写回去,其他位置补0 。一句话总结就是,在下采样的时候记录max的位置,上采样的时候最大值的位置还原,其它位置填0,
空洞卷积
标准卷积的空洞率是1
空洞卷积或者膨胀卷积是在标准的卷积核里注入空洞,以此来增加感受野。相比原来的正常convolution,dilated convolution 多了一个超参数称之为 dilation rate(空洞率) 指的是kernel的间隔数量(e.g. 标准卷积的空洞率是1)。优点是在保持同等计算量的情况下可以扩大感受野,缺点是存在网格效应, 丢失局部像素信息。

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT与Fintech

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值