GMM(高斯混合模型)与KMean聚类

本文介绍了最大期望算法EM以及其在高斯混合模型GMM中的应用。GMM是由多个高斯模型组成的混合模型,其求解方式与EM算法相似。同时对比了GMM和K-means聚类算法的步骤,指出两者在迭代优化过程中的异同。
摘要由CSDN通过智能技术生成

最大期望算法EM

EM (Expectation Maximization)算法是一种求参数的极大似然估计方法,可以广泛地应用于处理缺损数据、截尾数据等带有噪声的不完整数据。

  • 最大期望算法经过两个步骤交替进行计算:
    – 第一步是计算期望(E),利用对隐藏变量的现有估计值,计算其最大似然估计值;
    – 第二步是最大化(M),最大化在E步上求得的最大似然值来计算参数的值。M步上找到的参数估计值被用于下一个E步计算中,这个过程不断交替进行。

高斯混合模型GMM

GMM(Gaussian Mixture Model)是指该算法由多个高斯模型线性叠加混合而成, 每个高斯模型称之为component。

类似k-means方法,求解方式跟EM一样。

import pandas as pd
data = pd.read_csv('Fremont.csv', index_col='Date', parse_dates=True)
data.head()

import matplotlib.pyplot as plt
%matplotlib inline

data.plot()
data.resample('w').sum().plot() #数据重采样,按周进行计算
data.resample('D').sum().rolling(365).sum().plot()

data.groupby(data.index.time).mean().plot()
plt.xticks(rotation=45)

在这里插入图片描述
在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述

  • pivot表
data.columns = ['West','East']
data['Total'] = data['West'] + data['East']
pivoted = data.pivot_table('Total', index=da
  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值