腾讯音乐nlp算法实习生一面0806

首先招呼我的面试官他也说了他不是专门做nlp的,他是做音频的,这次不上手撕代码。
第一阶段自我介绍没啥好说的,然后根据我的项目,因为我首先介绍的是一个cv的任务,有用到resnet做bonenet,所以
问了下resnet的特点,以及为什么要引入残差链接。
然后是看到我的简历上有写transformer做nmt,问了下对于对于transformer有什么改进
,我说首先是将数据集替换,任务变成了中英文的翻译,使用了subword中的bpe模型做字词分割,我就说因为原文做的翻译任务使用的都是印欧语系,所以用同一张此表,但是中英文语义分布不同,我各自维护了一张词表这样子,然后他让我详细介绍了bpe原理,以及为什么要这样做,我说是为了解决未登陆词的问题,这一块结束。
然后是问了一些深度学习常见问提以及解决方案,问遇到数据不足,不均衡当值的过拟合问题,这其实是两个问题,一方面是数据问题,我就根据我之前做yolo的经验,给出了,手工增加数据,做数据增强,采取更好的预训练方案这三块,然后他又问了对于图片来说有哪些做数据增强的方法,我就说了一些常见的方法,他似乎挺满意,然后过拟合的话,我就说了dropout还有损失函数引入正则化,他又问了为什么要dropout,我给的答案是:为了减少神经元对于部分上层神经元的依赖,所以要在训练的过程中随机删掉(沉默)掉一部分神经元。他很认同。
接下来是,具体的业务问题,他说根据腾讯音乐的业务场景,你的nlp技术能帮我们做些什么,我就回答说,我之前有用bert做电商文本分类,偶对,他还问了bert的一些问题,让我介绍一下,说说他有哪些创新点,我就说bert就是transformer的编码层,不过做了很多的改进,比如引入了动态位置编码,我后我又从bert的历史讲起,说他其实改善自GPT家族,将LSTM换成了transformer(这里我说错了,bert并不是首先使用transformer的架构,一开始是ELMO使用了LSTM来捕捉长时序依赖,后面GPT换成了单向Tranformer,再后面才是bert使用了双向Transformer),这是一个比较大的创新点,回到刚才说的问题,我给出的答案是,利用文本理解以及摘要提取分析音乐的评论对歌曲打标签为下游的推荐系统做补充,他说如果我们的训练数据不足该咋办,我当时直接没过脑子,就说预训练➕fine-tuning,但又聊了一会,我明白他的意思,就说先手工设计规则(例如正则)提取文本提取文本信息以及tag,作为初始训练数据,然后使用伪标签技术以及合适的预训练模型创造更多的数据。
然后他说让我等二面的消息,结束。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值