博客导航

推荐系统

推荐系统算法—协同过滤算法详解推荐系统算法—隐语义模型(LFM)GBDT + LR 理解与实践(附数据 + 代码)
FM系列—FM+FFMFM系列—DeepFFM、DeepFM Deep & Cross Network (DCN) 与 xDeepFM
DIN(Deep Interest Network)模型解读与Deepctr实现DIEN(Deep Interest Evolution Network)模型解读与Deepctr实现

顶会复现

tensorflow2.0实现DeepFMtensorflow2.0实现xDeepFMAutoInt原理+实现代码+deepctr库实现
tensorflow2.0实现Deep & Cross Network(DCN)

图嵌入与图神经网络

【Graph Embedding】LINE的原理、核心代码及其应用【Graph Embedding】图嵌入的最佳实践—EGES(Enhanced Graph Embedding with Side Information)【Graph Embedding】node2vec的原理、核心算法及其应用
【Graph Embedding】SDNE(Structural Deep Network Embedding )的原理,实现与应用【Graph Neural Network】GCN基本原理与tensorflow2.0实现【Graph Neural Network】GraphSAGE基本原理与tensorflow2.0实现
【Graph Neural Network】GAN基本原理与tensorflow2.0实现

竞赛TOP方案

智慧海洋建设TOP_1方案学习笔记图灵邦联视频点击预测大赛TOP方案学习用户套餐个性化推荐TOP方案学习
厦门国际银行 “数创金融杯”TOP方案学习

nlp

潜在语义分析(LSA)详解概率潜在语义分析( PLSA)详解潜在狄利克雷分配(LDA)基础
语言模型基础从one-hot represention到 word2vec基于Hierarchical softmax的word2vec模型
基于Negative Sampling的word2vec模型深入理解 Bert核心:Self-Attention与transformerBert模型的基本原理与Fine-tuning

深度学习基础 & tensorflow2.0学习

循环神经网络RNNLSTM原理详解BP神经网络
tensorflow2.0自定义loss,metrics,callbacktensorflow2.0实现复杂神经网络(多输入多输出nn,Resnet)基于tensorflow2.0的RNN实战(单向RNN,双向RNN,Attention+RNN)
CNN的基本原理与实战(基于tensorflow2.0)tensoflow2.0常见函数速查tensorflow2.0教程—快速入门

机器学习

线性回归的详解朴素贝叶斯详解EM算法详解
EM应用—K均值聚类与混合高斯分布条件随机场(CRF)详解感知机模型
支持向量机—总述支持向量机的软间隔最大化支持向量机—核函数详解
支持向量机—SMO算法线性可分支持向量机最大熵模型详解
逻辑斯蒂回归k近邻法(KNN)softmax回归详解
决策树算法详解(上)决策树算法详解(下)AdaBoost详解
LightGBM详解梯度提升树GBDT详解XGBoost详解
提升树—回归提升树主成分分析(PCA)详解奇异值分解(SVD)详解
潜在语义分析(LSA)详解概率潜在语义分析( PLSA)详解潜在狄利克雷分配(LDA)基础
机器学习(分类回归问题)常用评估指标

sklearn教程

LightGBM教程Xgboost使用教程sklearn中RandomForest详解
sklearn中的LogisticRegressionsklearn中的线性回归,岭回归

数据结构算法

Huffman编码剑指offer_剪绳子剑指offer-持续更新…
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值