机器学习理论与实战
文章平均质量分 89
主要讲解机器学习理论知识,并辅以代码实战加深理解
优惠券已抵扣
余额抵扣
还需支付
¥19.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
爱编程的喵喵
双985硕士毕业,现担任AI大模型全栈工程师一职,热衷于将数据思维应用到工作与生活中。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。官方认证“人工智能领域优质创作者”,入选2023年中国开发者影响力年度榜单,荣获付费内容优质创作者称号。代表专栏《Python基础课程》、《Linux解决方案》、《Windows实用技巧》、《机器学习理论与实战》、《从零开始学Java》等。
展开
-
详解seq2seq结构
本文主要介绍了seq2seq,希望能对学习seq2seq的同学们有所帮助。文章目录1.RNN回顾1.1 ~n VS11.2 ~1 VS n1.3 ~n VS n1.4 ~ n VS m2. seq2seq2.1 encoder2.2 decoder2.2.1 方式一2.2.2 方式二2.2.3 方式三2.2.4 方式四2.2.5 方式五2.3 test处理的方式2.3.1 方法一2.3.2 方法二2.3.3 方法三2.3.4 方法四2.4 ...原创 2019-11-01 16:01:14 · 321 阅读 · 5 评论 -
从numpy到pytorch(以DNN为例)
本文主要介绍了l从numpy到pytorch(以DNN为例),希望能对学习pytorch的同学有所帮助。下面以输入层–>隐藏层–>输出层(linear)三层全连接神经网络(一个batch)为例,从numpy代码逐步扩展到pytorch。文章目录1. 使用numpy构建三层全连接神经网络2. 使用Tensor构建三层全连接神经网络3. 自动求导构建三层全连接神经网络4. 使用torch.nn.sequential构建三层全连接神经网络5. 使用optim构建三层全连接神经网络6. ...原创 2019-04-23 22:05:41 · 4840 阅读 · 4 评论 -
详解pytorch的损失函数、优化器、embedding
本文主要介绍了pytorch的损失函数、优化器、embedding,希望能对学习pytorch的同学有所帮助。文章目录1. softmax问题2. pytorch都有哪些损失函数3. 优化器4. embedding5. 使用GPU6. tensor与numpy相互转化 6.1 tensor转numpy 6.2 numpy转tensor原创 2020-03-29 18:16:40 · 561 阅读 · 6 评论 -
机器学习前面的知识
1.过拟合:在训练集表现很好,但在测试集表现比较差2.机器学习的两大类任务:回归和分类(还有其他,本文仅讨论回归和分类)3.距离公式:点a与点b的距离公式欧拉距离:[∑i=1n(Xia−Xib)2]12[\sum\limits_{i=1}^{n}(X^a_i-X^b_i)^2]^{\frac{1}{2}}[i=1∑n(Xia−Xib)2]21 ,i表示维度。曼哈顿距离:∑i=1...原创 2019-02-19 15:13:20 · 21888 阅读 · 4 评论 -
向量与矩阵乘法
本文主要介绍了向量与矩阵乘法,希望能对学习向量与矩阵乘法的同学有所帮助。文章目录1. 向量与矩阵的本质 1.1 向量的本质 1.2 矩阵的本质2. 向量、矩阵相乘结果3. 向量、矩阵相乘的中间过程 3.1 矩阵的具体形式 3.1.1 B为列向量 3.1.2 B为矩阵或者行向量3.2 矩阵的向量表达形式 3.2.1 B为列向量 3.2.2 B为矩阵或者行向量 3.2.3 总结原创 2019-04-02 10:47:20 · 18087 阅读 · 4 评论 -
训练集和验证集的划分
本文主要介绍了训练集和验证集的划分,希望能对学习机器学习的同学有所帮助。文章目录1. 留出法2. 交叉验证法3. 自助法原创 2019-04-04 16:57:17 · 11729 阅读 · 4 评论 -
高斯分布&拉普拉斯分布
本文主要介绍了高斯分布&拉普拉斯分布,希望能对学习的同学们有所帮助。文章目录1. 一元高斯分布2. 多元高斯分布 2.1 独立多元正态分布 2.2 相关多元正态分布3. 一元拉普拉斯分布原创 2019-08-04 21:49:00 · 24143 阅读 · 6 评论 -
多元(一元)线性回归&多项式回归(万文多图)理论与实战
1. 多元线性回归基本假定与表达式1.1 基本假定1.2 具体值的表达方式1.3 向量表达形式1.4 矩阵表达方式2. 多元线性回归求解2.1 矩阵解2.2 代数解2.3 几何解2.3.1 线性方程组的几何意义2.3.2 最小二乘法2.4 正交投影矩阵3. sklearn中linear model模块简介3.1 总体概述3.2 linear_model.LinearRegression4. 多重共线性5. 岭回归5.1 原理简介5.2 sklearn简介5.3 选择最佳原创 2019-04-13 17:23:47 · 12201 阅读 · 6 评论 -
ARIMA理论及Python实战
本文主要介绍了ARIMA理论及python实战,希望能对学习ARIMA的同学有所帮助。文章目录1. 简介&基础知识2. AR模型3. MA4. ARMA5. ARIMA建模流程及实例原创 2019-08-05 12:38:19 · 86186 阅读 · 28 评论 -
详解Pytorch求导
本文主要详解Pytorch求导,希望能对学习Pytorch的同学有所帮助。文章目录1. pytorch求导问题2. pytorch三大类求导代码示例 2.1 标量求导 2.2 向量求导&矩阵求导原创 2019-04-26 21:03:42 · 2672 阅读 · 3 评论 -
基于TensorFlow和Pytorch的Elmo实战
1. 基于tensorflow的实现2. 基于pytorch的实现原创 2019-10-16 15:50:21 · 1935 阅读 · 10 评论 -
leaf variable & with torch.no_grad & -=
本文主要介绍了leaf variable & with torch.no_grad & -=,希望能对大家有所帮助。文章目录1. leaf variable2. with torch.no_grad()3. w-=n与w=w-n的区别4. with torch.nn.no_grad 与 -= 搭配使用5. 总结原创 2019-04-26 16:09:54 · 12895 阅读 · 4 评论 -
word2vec实战
本文主要介绍了word2vec实战,希望能对学习word2vec的同学有所帮助。文章目录1. 拟合模型2. 模型的保存与加载3. 词向量的保存与加载4. 词向量的一些应用5. build_vocab应用6. Word2Vec参数简介7. train参数简介8. load_api参数简介原创 2019-10-09 16:33:30 · 1956 阅读 · 9 评论 -
FastText实战代码
本文主要介绍FastText实战,希望能对学习FastText的同学有所帮助。文章目录1. fasttext in gensim2. fasttext in fasttext 2.1 词向量 2.2 文本分类 2.3 文本分类自动调参原创 2019-10-09 17:00:32 · 47225 阅读 · 10 评论 -
语言模型(预训练与词向量)第二篇-NNLM(Nerual Network Language Model)
本文主要介绍了语言模型(预训练与词向量)第二篇-NNLM(Nerual Network Language Model),希望能对大家有所帮助。文章目录1. 概述2. 神经语言模型 2.1 神经语言模型基本理论 2.2 疑问 2.3 疑问更新原创 2019-09-30 10:48:22 · 996 阅读 · 5 评论 -
基于bert的阅读理解脚本(run_squad)原理梳理(从举例的角度说明)
1. 例子2. 对文章进行分词3. 确定文章相关属性4. 构造example5. 得到query_tokens6. 将doc_tokens进行更细粒度地划分all_doc_tokens7. 获取答案在all_doc_tokens中的起始位置8. 构造doc_spans9. 构造tokens,并转化为input_ids10. 更新start_position和end_position11. 构造features12. 保存features并作为model的输入13. 构造model.原创 2021-02-09 17:00:54 · 1780 阅读 · 7 评论 -
word2vec三种保存模型方式
本文主要介绍了word2vec三种保存模型方式,希望能对学习word2vec的同学有所帮助。文章目录1. model.save()2. 二进制3. numpy保存原创 2021-06-13 11:26:42 · 1451 阅读 · 2 评论 -
聚类算法全家族讲解(层次聚类、密度聚类、k-mean等)
1. 简介2. K-means算法2.1 k-means基本思想2.2 k-means公式化理解2.3 小批量k-means2.4 k-means适用范围2.5 k-means算法总结3. 二分k-means算法3. k-means++4. Canopy5. 层次聚类6. 密度聚类6.1 DBSCAN6.2 密度最大值聚类7. 谱和谱聚类7.1 谱聚类简单原理简介7.2 拉普拉斯矩阵7.3 标准化谱聚类算法7.3.1 随机游走谱聚类算法7.3.2 对称拉普拉斯矩阵的谱聚原创 2019-08-13 16:58:42 · 2259 阅读 · 5 评论 -
从实例角度万字理解决策树及sklearn参数解析与实战
1. 样本描述2. 决策树基本概念2.1 基本概念2.2 决策树大致流程及相应原则3. 熵相关概念及基尼系数3.1 熵3.2 条件熵3.3 训练数据集D关于特征A的熵H_A(D)H A (D)3.4 信息增益3.5 信息增益比3.6 基尼指数4. 连续值与缺失值处理4.1 连续值处理4.2 缺失值处理5. 使用决策树解决回归问题5.1 基本思想5.2 数学公式解析6. 剪枝处理6.1 预剪枝6.1.1 预剪枝方法1:计算验证准确度6.1.2 预剪枝方法2:设定原创 2019-02-17 11:15:55 · 1423 阅读 · 2 评论 -
集成算法简介&随机森林理论与sklearn参数详解
1.集成算法简介1.1 bagging1.2 boosting1.3 stacking1.4bagging 和 boosting 比较1.5 第一章小结 & 补充2.随机森林2.1 随机森林简介2.2 随机森林优缺点2.3 随机森林推广3.sklearn中随机森林参数简介4. 随机森林应用场景...原创 2019-01-26 00:15:47 · 15418 阅读 · 5 评论 -
从实例 角度理解XGBoost原理及与LightGBM异同
1. xgboost原理1.1训练集样本信息1.2 logistic 及其损失函数1.3 xgboost推导(结合logistic及其损失函数)2.xgboost 优化2.1步长(shrinkage)2.2 行、列抽样2.3 特征选择的优化2.4 切分点的选取 – Weighted Quantile Sketch2.5 稀疏矩阵(缺失值)处理2.6 列排序优化2.7 缓存优化3 xgboost 使用及参数3.1 初识xgboost3.1.1 xgboost使用方法...原创 2019-01-30 22:55:11 · 14591 阅读 · 4 评论 -
概率家族的全方位理解:从概率到条件概率到全概率再到贝叶斯
1. 前言2. 概率3. 条件概率4. 全概率公式5. 应用场景大学,我们首先学习了概率、然后接触了条件概率,最后又学习了全概率公式和贝叶斯公式。那么这几个概念之间有什么联系和区别吗?各自应用的场景是什么呢?下面就做统一的解答。...原创 2019-02-06 09:49:06 · 4699 阅读 · 3 评论 -
常见的概率公式及其推导(马尔科夫HMM系列课程拓展)
文章目录1. 条件概率1. 条件概率条件概率的定义:P(x∣y)=p(xy)p(y)P(x|y)=\frac{p(xy)}{p(y)}P(x∣y)=p(y)p(xy)常见的公式有以下三个:p()p()p()原创 2021-08-04 08:59:22 · 4376 阅读 · 0 评论 -
从头开始(概率)学HMM:精讲第一课-隐马尔可夫模型定义
1. HMM概念(观测序列&状态序列)2. 隐马尔科夫假设3. 状态转移矩阵&观测概率矩阵(发射矩阵)&\lambdaλ3.1 状态转移矩阵和\piπ3.2 观测概率矩阵(发射矩阵)3.3 \lambdaλ3.4 案例理解4. 隐马尔科夫模型需要解决的问题4.1 三大基本问题4.2 由三大问题引发的思考:序列生成及三大基本问题的可用性...原创 2021-08-04 08:56:13 · 3374 阅读 · 0 评论 -
从头开始(概率)学HMM:精讲第二课-学习问题(BW算法)
文章目录1. 简述2. 监督学习方法3. 非监督学习:Baum-Welch算法1. 简述隐马尔可夫的学习问题,根据训练数据只有观测序列还是包含观测序列和状态序列,可以分别非监督学习与监督学习。2. 监督学习方法 假设已知训练数据包含S个长度相同的观测序列和对应的状态序列(O1,I1),...,(Os,Is)(O_1,I_1),...,(O_s,I_s)(O1,I1),...,(Os,Is),那么可以利用极大似然估计来估计隐马尔可夫的模型参数转移概率aija_{ij}aij的估计:设样原创 2021-08-05 08:58:51 · 3422 阅读 · 2 评论 -
从头开始(概率)学HMM:精讲第三课-概率计算问题
给定模型λ=(A,B,π)\lambda=(A,B,\pi)λ=(A,B,π)和观测序列O=(o1,02,...oT)O=(o_1,0_2,...o_T)O=(o1,02,...oT),计算在模型λ\lambdaλ下观测序列O出现的概率P(O∣λ)P(O|\lambda)P(O∣λ)。该问题可以说是依靠学习问题,因为该问题既需要知道O还需要知道λ\lambdaλ。解决该问题经常使用前向算法或者后向算法。注意这里的隐藏序列I是未知的。下面先用直接计算法求解,然后讲解概率计算的两种方法:前向算法和后向原创 2021-08-05 08:59:48 · 3309 阅读 · 0 评论 -
从头开始(概率)学HMM:精讲第四课-预测问题(维特比算法)
预测问题(解码问题):已知模型λ=(A,B,π)\lambda=(A,B,\pi)λ=(A,B,π)和观测序列O=(o1,02,...oT)O=(o_1,0_2,...o_T)O=(o1,02,...oT),求对给定预测序列条件概率P(I|O)最大的状态序列I=(i1,i2,...,iT)I=(i_1,i_2,...,i_T)I=(i1,i2,...,iT)。该问题其实是最被常用的,也是我们之前一直提到的如何进行序列标注。解决该问题需要用到维特比算法。第二章详细讲述了维特比 初看本章目录,原创 2021-08-05 09:00:32 · 3422 阅读 · 0 评论 -
从头开始(概率)学HMM:精讲第五课-EM算法
文章目录1. Q函数的推导2. EM算法的步骤1. Q函数的推导问题:假设有一观测变量数据Y,隐藏变量数据Z,联合部分P(Y,Z∣θ)P(Y,Z|\theta)P(Y,Z∣θ),条件分布P(Z∣Y,θ)P(Z|Y,\theta)P(Z∣Y,θ),已知观测变量数据Y,求参数θ\thetaθ,使P(Y∣θ)P(Y|\theta)P(Y∣θ)取得最大值。(如果学过HMM,这里的Y可以理解成观测序列O;这里的Z可以理解成隐藏序列I,θ\thetaθ就是参数λ\lambdaλ,问题描述就是HMM的学习问题)面原创 2021-08-12 09:05:14 · 3372 阅读 · 0 评论 -
从头开始学CRF:精讲第一课-CRF的定义
本文主要介绍了从头开始学CRF:精讲第一课-CRF的定义,希望能对学习机器学习的同学有所帮助。文章目录1. 图解CRF的发展2. 详细讲解原创 2021-08-28 20:28:42 · 621 阅读 · 0 评论 -
RNN理论详解及tensorflow实战
1. 多元线性回归基本假定与表达式1.1 基本假定1.2 具体值的表达方式1.3 向量表达形式1.4 矩阵表达方式2. 多元线性回归求解2.1 矩阵解2.2 代数解2.3 几何解2.3.1 线性方程组的几何意义2.3.2 最小二乘法2.4 正交投影矩阵3. sklearn中linear model模块简介3.1 总体概述3.2 linear_model.LinearRegression4. 多重共线性5. 岭回归5.1 原理简介5.2 sklearn简介5.3 选择最佳原创 2019-04-30 17:11:55 · 1678 阅读 · 5 评论 -
多图讲解LSTM理论
1. 前言2. LSTM原理2.1 整体框架2.2 遗忘门2.3 输入门2.4 cell state(细胞状态更新)2.5 输出门3. LSTM小结原创 2019-07-25 14:00:46 · 1637 阅读 · 5 评论 -
BERT模型主体架构图(多图理解)
本文主要介绍了BERT模型主体架构图(多图理解),希望能对学习bert的同学有所帮助。文章目录1. 总架构图2. 其他图原创 2020-12-29 15:09:55 · 20541 阅读 · 11 评论 -
如何使用谷歌colab
本文主要介绍了如何使用谷歌colab的实战方案,希望能对大家有所帮助。文章目录1. 背景描述2. colab实战方案原创 2020-03-18 11:37:31 · 3567 阅读 · 14 评论 -
sklearn中f1_score参数解析
本文主要介绍了sklearn中f1_score参数解析,希望能对学习python和机器学习的同学有所帮助。文章目录1. f1_score2. average原创 2020-03-29 20:45:05 · 12897 阅读 · 8 评论