机器学习
文章平均质量分 72
机器学习笔记,以及一些实战的笔记
A-Egoist
这个作者很懒,什么都没留下…
展开
-
推荐系统中常用评价指标及其实现
本文参考大量文章整理了推荐系统中推荐系统中常用评价指标的定义及实现, 包含 Recall, Precision, HR, MRR, MAP, NDCG 等指标.原创 2024-03-20 21:04:45 · 699 阅读 · 0 评论 -
RL Note 1, Basic Concepts in Reinforcement Learning
Basic Concepts in Reinforcement Learning原创 2023-05-26 15:30:38 · 1205 阅读 · 0 评论 -
数学基础_3——概率论
本篇博客不包含深度学习中所有的数学知识,只是我在学习过程中,对不会或者不熟悉的数学知识的记录,因此部分内容和推导我会省略掉。条件概率P(A∣B)=P(A,B)P(B)P(A|B)=\frac{P(A,B)}{P(B)}P(A∣B)=P(B)P(A,B)乘法公式P(A,B)=P(B)⋅P(A∣B)s.t. P(B) >0P(A,B)=P(A)⋅P(B∣A)s.t. P(A) >0P(A,B)=P(B)\cdot P(A|B)\\s.t.\ P原创 2021-10-18 20:41:45 · 338 阅读 · 0 评论 -
数学基础_4——信息论
自信息任何事件都会承载着一定的信息量,包括已经发生的事件和未发生的事件,只是它们承载的信息量会有所不同。如昨天下雨这个已知事件,因为已经发生,既定事实,那么它的信息量就为0。如明天会下雨这个事件,因为未有发生,那么这个事件的信息量就大。从上面例子可以看出信息量是一个与事件发生概率相关的概念,而且可以得出,事件发生的概率越小,其信息量越大。定义事件 X=xX=xX=x 的自信息为I(x)=−log2P(x)I\left(x\right)=-\log_2 P\left(x\right)I(x)=原创 2021-10-17 22:32:29 · 272 阅读 · 0 评论 -
anaconda常用指令
虚拟环境创建conda create -n env-name python=3.8激活conda activate env-name退出conda deactivate删除conda remove -n nv-name --all源查看源conda config --show channels添加中科大源conda config --add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/main/conda con原创 2021-06-16 17:59:43 · 162 阅读 · 0 评论 -
动手学深度学习-Note1-环境配置
环境配置anaconda安装CPU版本pytorch1)创建虚拟环境conda create -n d2l-zh python=3.82)安装pip install jupyter d2l torch torchvisionGPU版本pytorchcuda 10.0conda create -n d2l-zh-gpu python=3.7conda install pytorch==1.2.0 torchvision==0.4.0 cudatoolkit=10.0 -c pytorc原创 2021-06-16 17:42:40 · 150 阅读 · 0 评论 -
感知机模型
感知机模型感知机模型感知机是根据输入实例的特征向量 xxx 对其进行二类分类的线性分类模型:f(x)=sign(w⋅x+b)f(x)=sign(w\cdot x+b)f(x)=sign(w⋅x+b)感知机模型对应于输入空间(特征空间)中的分离超平面w⋅x+b=0w \cdot x+b=0w⋅x+b=0。感知机学习策略极小化损失函数:minw,bL(w,b)=−∑xi∈Myi(w⋅xi+b)\min _{w, b} L(w, b)=-\sum_{x_{i} \in M} y_{i}\le原创 2021-05-31 16:53:49 · 194 阅读 · 0 评论 -
常用距离度量
距离度量欧氏距离d=∑i=1n(xi−yi)2d=\sqrt{\sum_{i=1}^{n}{(x_i-y_i)^2}}d=i=1∑n(xi−yi)2其中X=(x1,x2,...,xn)X={(x_1,x_2,...,x_n)}X=(x1,x2,...,xn),Y=(y1,y2,...,yn)Y={(y_1,y_2,...,y_n)}Y=(y1,y2,...,yn)。曼哈顿距离d=∑i=1n∣xi−yi∣d=\sum_{i=1}^{n}|x_i-y_i|d=i=1∑n∣原创 2021-05-31 16:44:01 · 154 阅读 · 0 评论 -
EM算法学习笔记
Expectation Maximization Algorithm1 极大似然估计(Maximum Likelihood Estimate)极大似然估计思想:若已知某事件A发生有多种概率可能性P1,P2...PnP_1,P_2...P_nP1,P2...Pn,则认为其中最大的概率为事件A发生的概率。极大似然估计的通常解法:①构造似然函数L(θ1,θ2,...,θn)={∏i=1nP(xi;θ1,θ2,...,θn)∏i=1nf(xi;θ1,θ2,...,θn)L(\theta_1,\th原创 2021-05-23 17:04:05 · 142 阅读 · 0 评论