锻炼___

(1)旋转数组最小值、旋转数组找特定值【力扣

(2)给定数组和tatget,求数组中和为target的最长连续子序列的长度

子数组和为指定值的最大长度_Coding Now的博客-CSDN博客

连续子数组的和为指定值的最大长度_Master-Fei的博客-CSDN博客

(3)100个红球,100个篮球。将200个球放在2个盒子中,取一个球(只取一次),两个盒子拿出红球概率最大。应该怎么放球(一个盒子放一个红球,剩下199个球放入另外一个盒子)

(4)孪生网络、CRF+Bi-LSTM(NER)

# 20201130

(1)输出列表真子集【集合的子集__牛客网】【力扣

class Solution:
    def subsets(self, nums: List[int]) -> List[List[int]]:
        def backtrack(start, tempSubset):
            result.append(tempSubset)
            for i in range(start, n):
                backtrack(i+1, tempSubset+[nums[i]])    # 隐性回溯

        result = []
        n = len(nums)
        backtrack(0, [])
        return result

(2)RF、GBDT、XGBoost

(3)孪生网络【Siamese network 孪生神经网络--一个简单神奇的结构 - 知乎

(4)triplet-loss【【损失函数合集】Contrastive Loss 和 Triplet Loss - 知乎

(5)CRF+Bi-LSTM

##20201202

(1)最长连续子序列

(2)batch_norm训练集和测试集参数有什么区别

(3)LR原理

(4)ID3、C4.5原理、CART原理

(5)xgboost 缺失值处理(训练时左右分别计算增益;若训练时没见过,测试时出现,分到右边)、xgboost正则化

(6)手写K-means、Resnet卷积层实现

(7)CRF

#20201204

(1)判断两棵二叉树结构是否相同

(1)判断

#20201206 ZUOYI现场

(1)洗牌算法【洗牌算法shuffle - caochao88 - 博客园】【如何证明生成的数组每个位置是随机的:多次运行函数,统计每个元素的在列表中index的频数】

(2)二维矩阵,左上角到右下角,只能向左走或向右走,有多少种走法【力扣

(3)二项分布

#20201207 YANGQIANGUAN 现场

(1)batch_norm训练集和测试集参数有什么区别 && LR原理 &&  ID3、C4.5原理 && xgboost正则化 && Resnet卷积层实现 && Kmeans && 列表真子集

(2)K-means【面试题:手写Kmeans_orangefly0214的博客-CSDN博客_手写kmeans

#20201208 DIDI

(1)第K大的数【力扣

(2)快排【快速排序 - python版超详细讲解_Vince Li的博客-CSDN博客_快速排序python

(3)堆排序【堆排序是一种选择排序】【堆排序_python_dipizhong7224的博客-CSDN博客

(4)无序数组最长递增子序列【力扣

#20201210 TIANYANCHA

(1)猩猩坐飞机【https://www.iteye.com/blog/jarfield-1798180

(2)HMM和CRF区别【隐马尔科夫模型HMM(一)HMM模型 - 刘建平Pinard - 博客园】【隐马尔可夫模型(HMM) - J博士 - 博客园

(3)CRF的特征函数【一文理解条件随机场CRF - 知乎

(3)结巴分词原理【结巴分词原理及使用_u014028063的博客-CSDN博客_结巴分词

(4)bert损失函数

(5)svm可以做多分类吗

(6)MLP和attention怎么结合

(7)深入解释ResNet

(8)focal loss原理【Focal Loss理解 - 三年一梦 - 博客园

(9)bert做NER【基于Bert-NER构建特定领域的中文信息抽取框架(上) - FreeBuf网络安全行业门户

(10)找最小和第二小的数(O(n)复杂度)【一次遍历求出数组中的最小值跟第二小值_weixin_30483495的博客-CSDN博客】(如果有重复元素怎么办)

(11)小于n的质数【计算小于n的质数个数 方法总结_跬步至千里-CSDN博客_小于n的质数个数

#20201214 XIAOZHUKUAIPAO

(1)极大似然估计【常见的几种最优化方法(梯度下降法、牛顿法、拟牛顿法、共轭梯度法等) - 蓝鲸王子 - 博客园

#20201215 DIDI

(1)推荐模型(DIN、DIEN)【阿里CTR:从DIN到DIEN看阿里CTR算法的进化脉络 - 知乎

(2)dropout、BN【BN和Dropout在训练和测试时的差别 - 知乎

(3)spark数据不均衡怎么解决【https://www.cnblogs.com/pigdata/p/10305564.htmlhttps://www.cnblogs.com/pigdata/p/10305564.html

(4)二叉树左视图【力扣

(5)learn2rank【机器学习排序之Learning to Rank简单介绍_starzhou的专栏-CSDN博客_rank 机器学习】【学习排序 Learning to Rank:从 pointwise 和 pairwise 到 listwise,经典模型与优缺点_TangowL-CSDN博客_pointwise和pairwise

(6)FM、FFM、DFFM【FM、FFM、DeepFM学习笔记 - 知乎

#20201216 XIAOZHU

(1)有向无环图的所有路径【力扣

(2)爬楼梯【力扣

(3)编辑距离

#20201221 DIDI

(1)平衡二叉树(AVL)

(2)霍夫曼树

#20210105 SHUIDI

(1)deepfm emedding初始化时注意什么

(2)lattice lstm;解决实体嵌套【论文笔记【一】Chinese NER Using Lattice LSTM - bep_code - 博客园

(3)wide & deep(推荐)【推荐系统系列(六):Wide&Deep理论与实践 - yinzm - 博客园

(3-1)FTRL优化【FTRL的理解_ningyanggege的博客-CSDN博客_ftrl

(4)batch norm和layer norm【BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm总结_I am what i am-CSDN博客_layernorm和batchnorm

(5)layer norm【transformer 为什么使用 layer normalization,而不是其他的归一化方法? - 知乎】【模型优化之Layer Normalization - 知乎

(6)batch norm【Batchnorm原理详解_wzy_zju的博客-CSDN博客_batchnorm】【理解Batch Normalization系列2——训练及评估(清晰解释) - 知乎】【Batch Normalization的前向和反向传播过程_silent_crown的博客-CSDN博客

(7)albert和bert区别【ALBERT与BERT的异同_chaojianmo的博客-CSDN博客_albert和bert的区别

#20200110 WEIRUAN

(1)xgboost多分类

(2)Bert多头机制 向量维度【待确认:假设输入维度128,8头的话,每头维度128 / 8】【attention_head_size = int(hidden_size / num_attention_heads) base版本:768 / 12 = 64】【bert/modeling.py at master · google-research/bert · GitHub

(3)剑指offer 39 :超过一半的数字

(4)LC295:数据流中位数

(5)堆 :shift up【堆的 shift down | 菜鸟教程

#20200110 TOUTIAO

(1)Glove、word2vec、LSA(latent semantic analysis)区别【NNLM Word2Vec FastText LSA Glove 总结_taoqick的专栏-CSDN博客

(1-0)NLP发展历程【NLP的发展历程_hwaust2020的博客-CSDN博客

(2)word2vec损失函数:交叉熵损失【word2vec的损失函数 - 知乎

(3)KMP算法【kmp算法python实现 - sfencs - 博客园

(4)SQL:计算相邻两行的差(窗口函数)【求教:Sql如何数据库求相邻两行的差值?-CSDN论坛】【sql计算相邻行的差值-CSDN论坛

(5)堆和栈区别  垃圾回收【堆和栈的区别 - 知乎

(6)RNN参数量计算【RNN和LSTM的参数计算_小人鱼~的博客-CSDN博客_rnn参数计算

#20210116 WEIBO

(1)模型蒸馏【深度神经网络模型蒸馏Distillation - 知乎

#20210119 WEIRUAN

(1)和为target的全部组合

(2)统计24小时内每个clientID点击和不点击的次数

(3)大数相加

#20210119 JINGDONG

(1)强化学习

(2)java单例(设计模式)【单例模式 | 菜鸟教程

#20210127 JINGDONG

(1)k个一组反转链表

(2)self-attention里面的dk维度是啥

(3)bert为什么要用layer-norm

#20210203 TENGXUN

(1)x的n次方

(2)k个一组翻转链表

# 20211227 ZIJIE

(1)指针、引用和变量的区别【介绍 变量 指针 引用 - 大眼小眼 - 博客园

(2)五局三胜 七局四胜 哪个胜算大。 【如果比的局次少,输赢的概率按照胜率的相对强弱关系;比的局次足够多,胜率大的那一方总能赢。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值