Amazon Elastic Map Reduce使用Apache Mahout计算建议

Apache Mahout是一个“可扩展的机器学习库”,其中包含各种单节点和分布式推荐算法的实现。 在我的上一篇博客文章中, 我描述了如何在单个节点上实现在线推荐系统来处理数据。 如果数据太大而无法放入内存(> 100M首选项数据点)怎么办? 然后我们别无选择,只能看一下Mahout的分布式推荐器实现!

分布式推荐器基于Apache Hadoop。 这是一项需要输入用户偏好列表,计算项目共现矩阵并为每个用户输出前K个建议的工作。 有关此博客如何工作以及如何在本地运行的介绍性博客,请参见此博客文章

我们当然可以在自定义的Hadoop群集上运行此作业,但是仅使用预先配置的作业(如EMR)会更快(且痛苦更少)。 但是,有一个小问题。 EMR上可用的最新Hadoop版本是1.0.3,其中包含Apache Lucene 2.9.4的jar。 但是,推荐器作业取决于Lucene 4.3.0,这将导致以下漂亮的堆栈跟踪:

2013-10-04 11:05:03,921 FATAL org.apache.hadoop.mapred.Child (main): Error running child : java.lang.NoSuchMethodError: org.apache.lucene.util.PriorityQueue.<init>(I)V
  at org.apache.mahout.math.hadoop.similarity.cooccurrence.TopElementsQueue.<init>(TopElementsQueue.java:33)
	at org.apache.mahout.math.hadoop.similarity.cooccurrence.RowSimilarityJob$UnsymmetrifyMapper.
map(RowSimilarityJob.java:405)
	at org.apache.mahout.math.hadoop.similarity.cooccurrence.RowSimilarityJob$UnsymmetrifyMapper.
map(RowSimilarityJob.java:389)
	at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:144)
	at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:771)
	at org.apache.hadoop.mapred.MapTask.run(MapTask.java:375)
	at org.apache.hadoop.mapred.Child$4.run(Child.java:255)
	at java.security.AccessController.doPrivileged(Native Method)
	at javax.security.auth.Subject.doAs(Subject.java:415)
	at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1132)
	at org.apache.hadoop.mapred.Child.main(Child.java:249)

如何解决呢? 好吧,我们“只是”需要在EMR Hadoop安装中更新Lucene。 我们可以为此使用引导操作 。 具体步骤如下:

  1. 下载lucene-4.3.0.tgz(例如从此处下载)并将其上传到S3存储桶中; 将文件公开。
  2. 将该脚本也上传到存储桶中; 称之为例如update-lucene.sh
    #!/bin/bash
    cd /home/hadoop
    wget https://s3.amazonaws.com/bucket_name/bucket_path/lucene-4.3.0.tgz
    tar -xzf lucene-4.3.0.tgz
    cd lib
    rm lucene-*.jar
    cd ..
    cd lucene-4.3.0
    find . | grep lucene- | grep jar$ | xargs -I {} cp {} ../lib

    该脚本将在Hadoop节点上运行,并将更新Lucene版本。 确保更改脚本并输入正确的存储桶名称和存储桶路径,以使其指向公共Lucene存档。

  3. mahout-core-0.8-job.jar到存储桶
  4. 最后,我们需要将输入数据上传到S3。 输出数据也将保存在S3上。
  5. 现在,我们可以开始设置EMR作业流程。 转到Amazon控制台上的EMR页面,并开始创建新的工作流程。 我们将使用“ Amazon Distribution” Hadoop版本,并使用“ Custom JAR”作为作业类型。

    2013-10-15_1230-1024x672

  6. “ JAR位置”必须指向我们上载Mahout jar的位置,例如s3n://bucket_name/bucket_path/mahout-0.8-job.jar (请确保将其更改为指向真实的存储桶!)。 至于jar参数,我们将运行RecommenderJob并使用对数似然性:
    org.apache.mahout.cf.taste.hadoop.item.RecommenderJob 
    --booleanData 
    --similarityClassname SIMILARITY_LOGLIKELIHOOD 
    --output s3n://bucket_name/output 
    --input s3n://bucket_name/input.dat

    这也是指定S3上输入数据的位置以及应将输出写入何处的地方。

    2013-10-15_1232-1024x405

  7. 然后,我们可以选择要使用的计算机数量。 当然,这取决于输入数据的大小以及所需的结果速度。 这里主要要更改的是“核心实例组”计数。 2是测试的合理默认值。

    2013-10-15_1236-1024x532

  8. 我们可以保持高级选项不变
  9. 现在我们进入更重要的步骤之一:设置引导程序动作。 我们需要设置两个:
    • 内存密集型配置(否则您会很快看到一个OOM)
    • 我们的自定义update-lucene操作(路径应指向S3,例如s3://bucket_name/bucket_path/update-lucene.sh

    2013-10-15_1240-1024x622

就是这样! 现在,您可以创建并运行作业流程,在几分钟/几小时/几天之后,您将在S3上等待结果。


翻译自: https://www.javacodegeeks.com/2013/10/amazon-elastic-map-reduce-to-compute-recommendations-with-apache-mahout.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值