锻炼_主动

#20201203

(1)Bi-LSTM+CRF做NER【百度安全验证】【Pytorch Bi-LSTM + CRF 代码详解_Call Me Hi Johnny~~-CSDN博客_crf pytorch

(2)LSTM结构【3. RNN神经网络-LSTM模型结构 - hyc339408769 - 博客园

(3)GRU结构【GRU与LSTM总结_lreaderl的博客-CSDN博客_gru lstm

(4)Transformer【【NLP】Transformer模型原理详解 - 知乎】【图解Transformer(完整版)_龙心尘的博客-CSDN博客_transformer

(4-1)Transformer FFN作用【Transformer模型深度解读_iFlyAI的博客-CSDN博客

(5)ResNet【你必须要知道CNN模型:ResNet - 知乎

(6)卷积的概念,通道数【卷积神经网络(CNN)之一维卷积、二维卷积、三维卷积详解 - szx_spark - 博客园

#20201204

(1)均匀分布、二项分布等概念

(2)任何分布都能转换成正态分布吗【不是,起码标准差要大于0,才能应用中心极限定理;如均匀分布就不符合这个特点】

(3)two-sum【力扣

(4)BPE】【一文读懂BERT中的WordPiece - hyc339408769 - 博客园

#20201205

(1)编辑距离【力扣

#20201206

(1)逻辑回归【【机器学习】逻辑回归(非常详细) - 知乎

(2)GELU【[Deep Learning] GELU (Gaussian Error Linerar Units) - listenviolet - 博客园】【GELU 激活函数_乐享极客-CSDN博客_gelu

(3)RF、GBDT、xgboost区别【随机森林,GBDT,XGBoost的对比_KongQueenie的博客-CSDN博客_xgboost和随机森林的区别

(4)Inception v1-v4【极简解释inception V1 V2 V3 V4_念去去的博客-CSDN博客_inception v2和v3

#20201207

(1)ID3、C4.5、CART

#20201208

(1)DIN和DIEN(阿里CTR:从DIN到DIEN看阿里CTR算法的进化脉络 - 知乎

(2)双塔模型【DSSM双塔模型 - 知乎

(3)xgboost【【xgboost系列一】xgboost是什么?_代码只是抓手,不是人生的博客-CSDN博客_xgboost是什么】【【xgboost系列二】xgboost树节点分裂方式_代码只是抓手,不是人生的博客-CSDN博客】【【xgboost系列三】xgboost树节点分裂方式:带权分位图_代码只是抓手,不是人生的博客-CSDN博客_xgboost节点权重

(4)xgboost和lightgbm区别【XGBoost和LightGBM的比较_fly_Xiaoma的博客-CSDN博客_lightgbm和xgboost

(5)lightGBM如何处理类别型特征【Lightgbm如何处理类别特征?_anshuai_aw1的博客-CSDN博客_lightgbm 类别特征

(6)word2vec 负采样【Word2Vec教程-Negative Sampling 负采样 - 云+社区 - 腾讯云

(7)排序算法【力扣

#20201209

(1)第k大的数

(2)图神经网络

#20201210

(1)TransE【TransE算法(Translating Embedding)_铭霏的记事本-CSDN博客_transe

#20201213

(1)trie树

#20201219

(1)二叉树层序遍历【力扣

(2)深度优先、广度优先【基本算法——深度优先搜索(DFS)和广度优先搜索(BFS) - 简书

#20201220

(1)剪绳子

(2)丑数

(3)k-means++【K-means与K-means++ - 寒杰士 - 博客园

(4)BN和dropout可以一起用吗【Batch Normalization和Dropout如何搭配使用?_hexuanji的博客-CSDN博客_batchnormalization和dropout

(5)dbscan【DBSCAN - bonelee - 博客园

#20201221

(1)xgboost特征重要性

#20201222

(1)self-attention和attention区别【[NLP]Attention机制与self-Attention机制_急流勇进-CSDN博客_selfattention机制

#20201226

(1)mask-rcnn

(2)faster-rcnn

(3)rcnn【【深度学习】R-CNN 论文解读及个人理解_frank 的专栏-CSDN博客_r-cnn

#20201227

(1)tensorflow、keras、pytorch代码demo

(2)SVM

(3)PCA【PCA原理_PiggyGaGa的博客-CSDN博客_pca】【PCA和LDA的对比 - wumh7 - 博客园

(4)红黑树

(5)XGBoost为什么泰勒展开到二阶【终于有人说清楚了--XGBoost算法 - mantch - 博客园

(6)生成式模型、判别式模型【判别式模型与生成式模型 - 酷酷的- - 博客园

(7)解决过拟合方法【解决过拟合方法 - 知乎

(8)RNN训练为什么慢【rnn为什么训练速度慢? - 知乎

(9)bagging、boosting、stacking【集成学习-Boosting,Bagging与Stacking - 知乎

(10)kmeans数据维度高时有什么问题【高维度数据能否使用kmeans? - 知乎

(11)bottleneck【深度学习之Bottleneck Layer or Bottleneck Features_鹊踏枝-码农的专栏-CSDN博客_bottleneck features

(12)堆和树的关系【堆和树有什么区别?堆为什么要叫堆,不叫树呢? - 知乎

(13)python多线程

(14)python垃圾回收

(15)哈希冲突【哈希冲突_Juliussss-CSDN博客_哈希冲突

(16)python list实现【python中list的实现方式_追着光梦游的博客-CSDN博客_python的list实现

(17)各种损失函数【常见的损失函数(loss function)总结 - 知乎

(18)机器学习优化器【机器学习:各种优化器Optimizer的总结与比较_SanFancsgo的博客-CSDN博客_optimizer

(19)XLNet

(20)L0、L1、L2正则【L0,L1,L2正则化浅析_vivi的技术博客-CSDN博客_l0正则化】【机器学习中正则化项L1和L2的直观理解_小平子的专栏-CSDN博客_l2正则

#20210107

(1)LR、XGBoost适用范围【几个常用算法的适应场景及其优缺点(非常好)_木东的博客-CSDN博客_xgboost应用场景

(2)树模型特征重要性计算【树模型特征重要性怎么看? - 知乎】【XGBoost特征重要性的实现原理? - 知乎

(3)贝叶斯公式【条件概率、全概率与贝叶斯概 - AI菌 - 博客园】【贝叶斯公式的直观理解(先验概率/后验概率) - 野蛮小卒 - 博客园

(4)XGBoost并行【xgboost的并行原理究竟是什么? - 知乎

(5)错别字识别

(6)对话系统

(7)协同过滤【推荐系统从入门到接着入门 - 知乎

#20210108

(1)文本压缩、解压缩算法【文本压缩算法的对比和选择 - 知乎】【常见的文本压缩算法_fern_girl的博客-CSDN博客_文本压缩

(2)天平称球【[math] 从信息论到天平称球 - 知乎】【12个外形大小都相同的球,用天平称3次,怎么判断其中的一个坏球?_作业帮

(3)25匹马比赛【算法题:25匹马,找出最快的3匹,最少需要多少次比赛_shayne000的博客-CSDN博客_25匹马

(4)蓄水池抽样【LeetCode---蓄水池抽样算法_sgh666666的博客-CSDN博客_蓄水池抽样算法

(5)哈夫曼树

#20210110

(1)beam-search【如何通俗的理解beam search? - 知乎

#20210111

(1)最长连续子数组

(2)所有排列

(3)LR和最大熵模型

(4)除tfidf外 其他关键字提取方法【关键词提取--技术原理概览_WaltSmith的博客-CSDN博客_关键词提取技术

(5)稳定排序

#20210121

(1)DSSM文本相似度度量【DSSM算法-计算文本相似度 - FlyingWarrior - 博客园

#20210201

(1)word2vec hierarchical softmax【word2vec 相比之前的 Word Embedding 方法好在什么地方? - 知乎】【[NLP] 秒懂词向量Word2vec的本质 - 知乎】【NLP篇【02】白话Word2vec原理以及层softmax、负采样的实现_程序认生-CSDN博客_word2vec负采样实现】【word2vec原理(二) 基于Hierarchical Softmax的模型 - 刘建平Pinard - 博客园

(2)word2vec negative sampling【word2vec原理(三) 基于Negative Sampling的模型 - 刘建平Pinard - 博客园

#20210205

(1)nlp相关比赛(glue等)

(2)nlp paper

(3)文本生成【文本生成概述 | 机器之心

#20210218

(1)语音识别 GMM-HMM【GMM-HMM语音识别模型 原理篇_Rachel Zhang的专栏-CSDN博客_gmm-hmm

(2)NLP任务总结【NLP任务梳理总结 - 打瞌睡的布偶猫 - 博客园

#20210225

(1)transformers介绍【手把手教你用Pytorch-Transformers——部分源码解读及相关说明(一) - 那少年和狗 - 博客园】【深入理解Transformer及其源码 - ZingpLiu - 博客园

#20230323

(1)逻辑回归为什么不用平方损失函数(平方损失函数二阶导数非凸,会陷入局部最优解)【逻辑回归损失函数_为何逻辑回归的损失函数不用平方误差_weixin_39850787的博客-CSDN博客】【凸函数_进击的路飞桑的博客-CSDN博客

(2)CNN和RNN的区别【【RNN基础】——一文搞明白RNN_AI浩的博客-CSDN博客

(3)BN解决过拟合问题的逻辑【深度学习中 dropout 和 batch normlization 可以减少过拟合,原理是什么-百度经验

# 20230423

(1)python深拷贝、浅拷贝【Python中的赋值(复制)、浅拷贝与深拷贝 - 知乎

(2)python位置参数、关键字参数【Python中*args和**kwargs的用法 - 知乎

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值