因为你会到最后发现每种方法有自己善于识别的异常也有不善于识别的一场,单个算法没法尽善尽美。
哪怕HTM也是如此,而实际运维人员是用很苛刻的眼光来看待的。
传统时间序列分析有他们的长处,也有他们的短处
深度学习有他们的长处也有他们的短处。
https://blog.csdn.net/sinat_16643223/article/details/106413109
这也是一个宣扬集成的。
单个的KPI曲线的异常检测还是好做的,无名可以针对性地给它建模分析,传统的时间序列分析就可以做得不错了,但是如果是成千上万的KPI曲线异常检测,你肯定不可能挨个去建模分析,
另外就是同样的曲线,它在不同的KPI环境下,甚至不同的时刻,它可能是异常也可以不是异常。另外异常也有人为的主观性,没有死的标准。
不同KPI的异常的标准不同,同样的波动,在有的KPI是正常有的KPI是异常。所以还需要一小部分的有监督,跟着人学,因为人的主观性较大,很难用有限的规则写出来。
还有KPI量大,异常种类复杂,很难通过传统的基于规则的运维来弄,很难通过有限的规则去描述了,那就通过机器学习深度学习让它自动去发掘挖掘特征。达到百万KPI曲线一人挑的地步。
所以为什么要从自动化运维到智能运维。
随机森林其实训练的是不同检测器的权重。
这里面单个检测判断是否为异常的阈值好像是认为设定的,这也是它的一个缺点。