11/03
1.spark升级为1.1版本后,研究院集群无法运行程序,查找原因。报的错的cannot find LZO library
11/04
1.spark升级为1.1版本后,研究院集群无法运行程序,查找原因。报的错的cannot find LZO library
原因为集群的配置文件有误,需要把hadoop的参数删去
1.查找资料,如何在hadoop上运行mahout的随机森林算法
1.查找资料,如何在hadoop上运行mahout的随机森林算法
2.开会
11/07
1.运行mahout的随机森林算法,记录结果
2.在spark1.1集群上运行离网预测,F1提高到0.2