【机器学习-小白向】简单的超参数优化实现,以K-means为例

1. 什么是超参数

超参数是机器学习算法中需要人为设定的参数,不能直接从训练数据中学习得到;
模型参数则是模型的参数,可由模型从训练数据中学习得到。

2. 简单的超参数优化方法

手肘法

以K-means聚类算法为例,要选择一个合适的超参数k,使得聚类结果最佳:

确定一个k值的范围,如(1-10),遍历k值,绘制一个折线图,y轴为性能指标(此例中为数据点离簇心距离之和),x轴为k。
得到如下图像:
手肘
可见在k=1-2,2-3时,y有明显变化,而从k=3-4开始则没有明显变化,所以k=3即为手肘,选择3作为超参数k的值最为合适。

代码实现

distances = []  # 所有样本点离其簇中心的距离
for k in range(1, 10):
    centers, cluster = k_means(X, k)  # cluster为聚类结果,有k个list,每个list里是属于该类的所有样本点
    print('聚类中心为:%s' % centers)
    disk = 0
    for ci in range(0, k):
        for point in np.array(cluster[ci]):
            disk += euclidean_distance(centers[ci], point, 4)
    distances.append(disk)
plt.figure(1)
plt.plot(range(1, 10), distances)
plt.ylabel("distances")
plt.xlabel("k")
plt.title("K-means distances-k")
plt.show()
# 计算两个点之间的欧拉距离
def euclidean_distance(X1, X2, feature_num):
    distance = 0.0
    for x in range(feature_num):
        distance += pow((X1[x] - X2[x]), 2)
    return distance
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值