- 博客(7)
- 收藏
- 关注
原创 聚类效果评价指标:MI, NMI, AMI(互信息,标准化互信息,调整互信息)
聚类效果评价指标:MI, NMI, AMI简介在无监督学习中,常见的两种任务为聚类与降维。这里给出三个聚类效果评价指标:互信息,标准化互信息,调整互信息(MI, NMI, AMI),分别给出它们的计算方法与代码。需要指出的是,这三个指标均需要已知数据点的真实标签。Preliminaries and Notation已知 NNN 个 DDD 维的数据,构成数据矩阵 X=[x1,x2,⋯ ,xN]∈RD×N\mathbf{X} = [x_1, x_2, \cdots, x_N] \in \mathbb
2020-05-18 15:25:15
31510
29
原创 近端梯度下降与软阈值迭代:PGD and ISTA
近端梯度下降与软阈值迭代:PGD and ISTA简介对于包含不可微部分的优化目标如lasso回归的求解,梯度下降等算法已不再适用。近端梯度下降(Proximal Gradient Descent)即被用来解决包含不可导项的优化问题。写在前面:由于CSDN使用的KaTEX不支持align环境QAQ,因此我没有找到方法在多行公式中分行标序号的方法。欢迎到我的博客去阅读: https://xiaotian13.github.io/。回顾梯度下降给定一个无约束优化问题形如minxf(x)(1)\
2020-05-10 17:38:00
3315
11
原创 梯度下降:BGD、SGD、Mini-Batch GD
梯度下降:BGD、SGD、Mini-Batch GD简介梯度下降(Gradient Descent)是常见的优化算法,它是一系列优化算法的基石,是一个良好的思路。Preliminaries and Notation:优化模型给定一个无约束优化问题形如minxf(x)(1)\min_\mathbf{x} f(\mathbf{x})\tag{1}xminf(x)(1)其中 x∈Rn,f:Rn→R\mathbf{x} \in \mathbb R^n, f:\mathbb R^{n} \ri
2020-05-10 10:10:03
660
原创 lasso回归与岭回归
lasso回归与岭回归简介lasso回归(Least Absolute Shrinkage and Selection Operator Regression)与岭回归(Ridge Regression)以线性回归为基础,在其之上做出了一定的改进。Preliminaries and Notation:线性回归对于一个线性回归模型,我们有:假设数据集中共有 nnn 个变量,包含 mmm 个数据。数据集形似x=[x1(1)x1(2)⋯x1(n)x2(1)x2(2)⋯x2(n)⋮⋮⋱⋮xm(1)xm
2020-05-10 10:07:16
627
原创 线性回归与最小二乘
线性回归与最小二乘简介线性回归最小二乘编程实现code 1code 2简介线性回归是一个简单易用且十分强大的工具。线性回归在一些情况下,我们的数据呈现出线性,这时我们通常会尝试用形似y=ax+b(1)y = a x +b \tag{1}y=ax+b(1)的线性方程来做拟合、预测。上式还可以被推广至多维,即y=a1x1+a2x2+⋯+anxn+b(2)y = a_1 x_1 + ...
2019-09-21 02:52:28
343
原创 数据结构之树的遍历、求深度—基于C
首先构造出如下图的树。画出上图使用了python,代码如下。#首先要安装binarytree库,pip install binarytreefrom binarytree import Noderoot = Node(1)root.left = Node(2)root.right = Node(3)root.left.left = Node(4)root.left.right...
2018-12-08 22:54:14
341
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人