异常用户发现(Spark MLlib+Spark SQL+DataFrame)

环境:Amabri 2.2.2、HDP 2.4.2、Spark 1.6.1 

***这是我自己东拼西凑整出来的,错误在所难免,但应该也有部分可借鉴之处...***

整体思路:对原始数据提取特征后,使用KMeans做聚类,把元素明显少的类视为异常类,类中的用户视为异常用户,打上标签,之后用随机森林进行分类,
训练出模型后对新数据进行分类,找出异常用户。

之前统计分析、特征工程部分用的MySQL,聚类用了R和Mahout,分类用了MLlib,怎一个乱字了得。我想了想觉得完全可以只用Spark完成。

1.前面的统计分析、特征工程用Spark SQL代替MySQL即可,都是SQL只有部分函数不一样,改一下就行,比较简单不再做了。
(我的原则是能用SQL解决的坚决先用SQL 0.0)

2.将MySQL中的特征表通过Sqoop导入Hive。(Hive和Spark SQL的元数据是共享的)
#因为特征表没有主键,需要切分字段或设置map数为1
[hdfs@ws1dn1 root]$ sqoop import --connect jdbc:mysql://192.168.1.65:3306/v3 --username root -P --table t_log_2016_all --hive-import -m 1
3.使用Spark MLlib进行聚类、分类,注意与[Spark MLlib RandomForest(随机森林)建模与预测]
(http://blog.csdn.net/dr_guo/article/details/53258037)的区别,这里是对DataFrame操作的,那篇博客是对RDD操作的。

请注意包名与类名不同org.apache.spark
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

光于前裕于后

您的打赏将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值