锻炼_v2

20221220 美团

1、寻找最长递增子序列

2、self-attention里面Q、K、V维度【Self-Attention机制的计算详解_陈壮实的搬砖生活的博客-CSDN博客_attention机制

3、计算attention为什么要除以sqrt(dk)【Self Attention 详解_EmoryHuang的博客-CSDN博客_selfattention

4、bert里面的多头机制【从源码角度探悉BERT中多头注意力机制和单头的区别 - 知乎】【transformer中multi-head attention中每个head为什么要进行降维? - 知乎

5、做NER时,LSTM后面为什么要跟CRF【LSTM+CRF 解析(原理篇) - 知乎】【百度安全验证

20230303 JD

1、最长公共子序列

2、transformer原理

3、ner原理

4、bert变种介绍

20230308 BOSS

1、无序数组、正整数、可能有重复值数组。找出和为target的所有子序列组合(要去重)

20230309 JD

1、分发项目亮点在哪,怎么体现技术深度;【讲清楚链路逻辑,召回、排序、重排】

和其他推荐不同之处在于:若推荐的问题用户不熟悉,肯定无法给出靠谱答案。因此需要加强人地相关性建设,引出图模型

2、图模型要深究,怎么根据边、点关系能挖掘出更多的隐含关系,技术逻辑是什么

根据定义的边关系和点、边特征挖掘隐含的边连接关系。GeniePath【?】

3、gd自动化处置项目同样的问题,技术深度在哪,怎么体现

样本不均衡问题,focal_loss?

https://www.cnblogs.com/king-lps/p/9497836.html

20230328 FUWAI

1、lightgbm相对xgboost做的优化【LightGBM 详细讲解 - 知乎】【详解LightGBM两大利器:基于梯度的单边采样(GOSS)和互斥特征捆绑(EFB) - 知乎

2、bagging、boosting、stacking【集成算法之bagging, boosting and stacking - 知乎

3、弹性网络(融合l1和l2正则)【机器学习--弹性网络(Elastic-Net Regression)_Huranqingqing的博客-CSDN博客

4、HMM、CRF有向图 无向图【概率图(一)--HMM与CRF对比_crf模型的优点_車輪の唄的博客-CSDN博客

5、batch_norm必要性【Batchnorm原理详解_wzy_zju的博客-CSDN博客

6、textcnn卷积细节

7、lstm为什么能缓解梯度消失【为什么LSTM会减缓梯度消失? - 知乎

8、layer_norm是否需要额外的参数量

9、textcnn卷积细节

10、python垃圾回收机制【python垃圾回收机制_HiSiri~的博客-CSDN博客

11、python元祖、列表为什么可变、不可变

20230329 58

1、crf的损失函数【【CRF】最通俗易懂的BiLSTM-CRF模型中的CRF层介绍

2、有向无环图路径总和

3、svm原理【SVM简介_南方惆怅客的博客-CSDN博客

4、transformer时间复杂度【Transformer/CNN/RNN的对比(时间复杂度,序列操作数,最大路径长度) - 知乎

5、为了达到相似预测效果,RF和GBDT哪个树深【为什么xgboost/gbdt在调参时为什么树的深度很少就能达到很高的精度? - 知乎

20230330 zhixiang

1、原地删除有序数组重复元素(双指针)

2、python垃圾回收机制

20230406 zhixiang

  1. 面向对象【面向对象 和 面向过程 的区别_面向对象和面向过程的区别_shixiaoqinya的博客-CSDN博客】【面向对象--继承_面向对象继承_简之恨寒的博客-CSDN博客
  2. 设计模式(单例【饱汉、饿汉】)【23 种设计模式详解(全23种)_雨中深巷的油纸伞的博客-CSDN博客】【mainshide - 简书
  3. nonlocal【说说 Python 中 nonlocal 的作用 - 简书

20230410 58

  1. crf特征函数怎么构建的【对于CRF的理解_crf特征函数怎么定义_Tianweidadada的博客-CSDN博客

20230504 beihang

  1. torch中tensor和Tensor的区别【torch.Tensor和torch.tensor有什么区别?_三世的博客-CSDN博客

20231113

深度学习

6万字解决算法面试中的深度学习基础问题(一) - 知乎dd

大模型

https://zhuanlan.zhihu.com/p/643560888

大模型八股答案(一)——基础知识 - 知乎

ChatGLM2微调保姆级教程~ - 知乎

BERT

Bert/Transformer 被忽视的细节(或许可以用来做面试题) - 知乎

 

20231215 fenbi

  1. 介绍sim原理、DIN、DIEN
  2. 向量化召回
  3. LC518【零钱兑换】
  4. lightgbm优化点 【LightGBM 详细讲解 - 知乎】【详解LightGBM两大利器:基于梯度的单边采样(GOSS)和互斥特征捆绑(EFB) - 知乎
  5. xgboost相对gbdt的优化【【xgboost系列一】xgboost是什么?_xgboost λ 是啥-CSDN博客】【【xgboost系列二】xgboost树节点分裂方式-CSDN博客】【【xgboost系列三】xgboost树节点分裂方式:带权分位图_value in the input data which needs to be present -CSDN博客

20240102 fenbi

  1. DSSM详细
  2. LC3:最长无重复子串

20240223 zijie

  1. 大模型如何缓解梯度消失
  2. ner解决词嵌套 最新方法
  3. rlhf原理 需要几个模型 如何更新
  4. flash attention
  5. 向量化表征最新方法
  6. 分类如何解决多标签
  7. 怎么解决用户长短期兴趣
  8. 为什么现在都是decoder-only的结构

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值