![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 92
橘子鸭血粉丝汤
可不是天天的小可爱嘛~
展开
-
数据预处理-DataFrame相关操作
数据预处理-DataFrame相关操作1 查看一些基本信息2 取出特定的列3 删除列3.1 删除以…开头的列4 删除NA值5 删除重复值6 重命名列7 重新对index进行从0到n-1的排序8 数据类型的转换9 根据某一列排序10 根据某一列的值查找index/行数11 值的替换12 表的连接13 表的拆分-groupby在做数据分析的时候,数据的预处理总是非常繁琐,因此整理了与DataFrame相关的并且常用的一些数据的操作。1 查看一些基本信息表达式解释df.head(n)df原创 2021-06-28 21:49:41 · 529 阅读 · 1 评论 -
进程,多线程,线程同步
进程,多线程,线程同步1. 进程和线程2. 为什么会有多线程2.1 那有没有对任务1和任务2使用多线程(轮流做)的时间,比任务1和任务2按顺序做的时间短的情况呢?3. 根据上面对多线程的解释,有疑惑的点吗?3.1 前面提到,任务1做1s,任务2做1s,再做任务1时,怎么保证是从上次中断的地方继续做的呢?3.2 如果两个线程都要对同一个变量进行操作。假设线程1是从某人的账户里取钱,线程2是向某人的账户里存钱,那操作不就乱套了吗?4. Python中多线程的实现这是一篇根据自己查阅资料,基于自己理解写的关于进原创 2021-06-06 23:37:51 · 242 阅读 · 1 评论 -
AI相关面经
AI相关面经1.为什么要对特征做归一化*2.什么是组合特征?如何处理高维组合特征?3.请比较欧式距离与曼哈顿距离?*4.为什么一些场景中使用余弦相似度而不是欧式距离*5.One-hot的作用是什么?为什么不直接使用数字作为表示*6.RNN发生梯度消失的原因是什么*7.写出Attention的公式,Attention机制,里面的q,k,v分别代表什么*8.在实时竞价场景中,制定广告主的出价策略是一个什么问题?自己的解答不一定正确,可能会不停更新思路。1.为什么要对特征做归一化归一化(Normalizat原创 2021-05-10 23:02:28 · 548 阅读 · 1 评论 -
正则逻辑回归
正则逻辑回归1.逻辑回归2.参数估计3.二分类问题在介绍正则逻辑回归之前,先来介绍一下普通的逻辑回归。1.逻辑回归逻辑回归虽然叫回归,但其实是分类模型,同时也是一种判别式模型。(不理解概念的同学可以查看:判别式模型和生成式模型的区别 )。假设现在有w1,w2,...,wkw_1,w_2,...,w_kw1,w2,...,wk一共KKK种类别,X为描述样本个体的特征向量,X=(X1,X2,...,Xp)TX=(X_1,X_2,...,X_p)^TX=(X1,X2,...,Xp)T。观测到一原创 2020-10-03 03:11:33 · 462 阅读 · 1 评论 -
梯度与梯度上升|下降法
梯度与梯度上升|下降法1. 导数2.偏导数3.方向导数4.梯度这是一个我一直没有弄透彻的概念,特地整理总结一下,希望在这个过程中思路得以拓展。在引入梯度的概念之前,先介绍一下以下几个概念:导数,偏导数,方向导数。1. 导数导数的定义如下:f′(x0)=limΔx→0f(x0+Δx)−f(x0)Δxf'(x_0)=lim_{\Delta x \to 0}\frac{f(x_0+\Delta x)-f(x_0)}{\Delta x}f′(x0)=limΔx→0Δxf(x0+Δx)−f(x0)原创 2020-09-26 23:49:32 · 914 阅读 · 2 评论 -
判别模型和生成模型的区别(图解)
判别模型和生成模型的区别常见的判别模型有:支持向量机(SVM),逻辑回归(LR),线性判别分析(LDA)等常见的分类模型有:贝叶斯推断,朴素贝叶斯分类器,高斯混合模型和其他混合模型等判别模型需要求出一条决策边界,该决策边界直接区分了不同的类别。例如左图中,假设求出的决策边界为0.5,蓝色类别<0.5,黄色类别>0.5。对于未见示例-绿三角,可以直接求出P(Y=类别|X=绿三角)与0.5进行大小对比,得到绿三角的类别。生成模型需要计算P(X,Y)的联合概率分布。对于未见示例-绿三角,需要原创 2020-09-26 05:35:31 · 426 阅读 · 1 评论 -
贝叶斯推断-要点整理
贝叶斯推断1 贝叶斯推断的介绍及公式2 先验概率分布的选择2.1共轭先验在上一篇文章中,我们提到了最大似然估计法 来在已知样本的情况下求分布的参数。这一次整理一下贝叶斯推断。1 贝叶斯推断的介绍及公式贝叶斯推断,据说是推论统计的一种方法,使用贝叶斯定理,能在有更多证据及信息时,更新特定假设的概率。当没有足够多的数据,而又想准确地获取预测信息时,它特别有用,目前我还不清楚为什么在这样的场景下它非常有用,先整理一下与其相关的内容,看看自己能否在这个过程中有更深的理解。贝叶斯定理:P(A∣B)=P(A∩原创 2020-09-25 18:51:43 · 794 阅读 · 1 评论 -
似然函数和最大似然估计
贝叶斯推断贝叶斯推断,据说是推论统计的一种方法,使用贝叶斯定理,在有更多证据及信息时,更新特定假设的概率。当没有足够多的数据,而又想准确的获取预测信息时,它特别有用。目前我还不清楚为什么在这样的场景下它非常有用,先整理一下与其相关的内容,看看自己能否在这个过程中有更深的理解。拿到一组样本时,在大致判断了它服从什么样的分布以后,最重要的步骤就是求得分布的参数,以下均简称为θ\thetaθ。这里回顾以下最大似然估计法。1 最大似然估计最大似然估计,以我的理解,就是找到一个参数θ\thetaθ,使得能抽样原创 2020-09-24 23:05:26 · 1359 阅读 · 1 评论 -
概率密度,概率分布和联合概率分布
联合概率分布及相关概念理解刚开始学机器学习的时候,很多概念都没有理解清楚,现在对一些基础概念进行一下整理概率密度和概率分布的区别首先要理解概率密度函数,就要先分清离散型随机变量和连续型随机变量。离散型随机变量,例如骰子的点数,取值只可能是1-6。连续型随机变量,例如温度,小数点后可能有很多位,是无法精确测量的,不可数。所以可以简单理解为,取值可数的变量是离散型随机变量,取值不可数的变量是连续型随机变量。对于离散型随机变量,取得某一个值的概率为点概率概率密度函数是概率分布函数的求导。原创 2020-09-24 05:25:04 · 9243 阅读 · 1 评论