在HADOOP平台上运行MATLAB程序(Centos7系统)(incorporate)

6 篇文章 0 订阅
4 篇文章 0 订阅

“遇到的任何解决不了的问题,只是因为你没有找到对的教程而已。”这边只是把我遇到的问题和找到的合适的教程整理一下。希望有帮助。感谢学习路上遇到个每一个认识或者不认识的大神

之前写过一个教程,是standalone形式的,其实官网上还有一种是把map和reduce函数分别合并到hadoop的mapreduce的job里。

这是是standalone的官方教程https://ww2.mathworks.cn/help/compiler/hadoop/example-on-running-a-standalone-matlab-mapreduce-application.html

incorporate的官方教程https://ww2.mathworks.cn/help/compiler/hadoop/example-using-the-mcc-command-workflow.html

看两个的workflow就大概知道两个的区别了https://ww2.mathworks.cn/help/compiler/hadoop-integration.html?s_tid=CRUX_lftnav

上次集群崩了,重新弄了一个,然后测试了incorporate的example,遇到了一些问题。总结一下

./install -mode silent -agreeToLicense yes -fileInstallationKey 1111-1111-1111-1111,后面1111填上自己的序列号就行了

  • 装的时候遇到了各种打不开license文件的问题,其实是因为新手,不敢给自己太大权限,所以不敢用root用户,所以当前用户在matlab安装文件下的权限不够。那就简单了 sudo chmod -R 777 MATLAB,把matlab文件夹下的所有文件权限变成所有用户都能访问就可以了
  • 装完matlab以后,报了internal error的错,打开就报错,然后就退出了。这个问题matlab官网上给出了解释https://ww2.mathworks.cn/support/bugreports/1297894,总之,要强制让matlab用系统文件,别用自己的文件,所以给他自己的文件重命名就可以了。这个错是把 sys/os/glnxa64文件夹下的libstdc++.so.6重命名就可以了 mv libstdc++.so.6 libstdc++.so.6.old
  • 装了MCR环境以后要把它添加到环境变量,添加完发现ssh不管用了。报错,ssh: /usr/local/MATLAB/R2015b/bin/glnxa64/libcrypto.so.1.0.0: no version information available (required by ssh)而且提示的是openssh版本不一致,那就和之前的问题一样,matlab的文件和系统文件版本不一致,不能用matlab带的文件,要强制他用系统文件,所以把matlab自带的那个文件libcrypto.so.1.0.0重命名 mv libcrypto.so.1.0.0 libcrypto.so.1.0.0.old就可以了。

至此,matlab的问题完全解决了?呵呵呵。

anyway,反正现在matlab是正常了。然后照着教程来了。

首先会在hadoop在运行job的时候报一些小错,不报错我都不习惯了。比如报错

/libexec/ld-elf.so.1: /usr/local/lib/libssl.so.6: Undefined symbol "EVP_idea_cbc"

反正就是某个文件不对啊之类的,这个其实很简单,基本上和上面说的问题一样,matlab版本的问题,找到把它提示错的那些文件,都重命名就OK了。

然后就是卡在job running不动了。去master:8088上看工作情况,是一直在accepted,然后提示的错误是container is not running,或者是container is running beyond memory limits之类的,就是在集群配置的时候配置文件没有配置好,这个在stackoverflow有详细解答https://stackoverflow.com/questions/21005643/container-is-running-beyond-memory-limits

具体的yarn-site.xml和mapred-site.xml的内存配置需要根据集群内机器的具体情况决定。我现在也没很清楚。目前我的配置是这样的,集群有3台机器,每台4核cpu,8g内存。然后两个文件的配置是下图。可以运行,但是不知道这样配置合不合理。如果有大神的话求解答。

 

最后,每一个坑,不管有没有帮助,反正都躲不掉,那就努力解决吧。你要相信你遇到的问题,总有别人也遇到过,也总有别人解决了。耐心找到对应的教程吧。

或者,实在不行了,如果程序简单的话,直接自己写matlab并行程序吧。哈哈哈哈哈。好的,我去学习matlab和python并行程序的编程了。

 

更新,刚刚又发现了一个问题。重启集群以后,再运行一次测试,卡在了running job,提示是Container is not yet running. Current state is LOCALIZING Hadoop 2.6.5

后来发现是我master上的zookeeper没有启动成功

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 要在Hadoop平台上部署WordCount程序,需要按照以下步骤进行操作: 1. 准备Hadoop环境:安装Hadoop并配置好环境变量。 2. 准备WordCount程序:编写WordCount程序并打包成jar文件。 3. 将输入文件上传到HDFS:使用hadoop fs -put命令将输入文件上传到HDFS中。 4. 运行WordCount程序:使用hadoop jar命令运行WordCount程序,指定输入文件和输出文件的路径。 5. 查看输出结果:使用hadoop fs -cat命令查看输出文件的内容,确认WordCount程序是否运行成功。 以上是在Hadoop平台上部署WordCount程序的基本步骤,具体操作可以参考Hadoop官方文档或相关教程。 ### 回答2: Hadoop是一个分布式计算平台,它在处理大数据集方面具有很强的优势。WordCount程序Hadoop平台上一个非常简单而又常用的样例程序,它的实现过程可以让初学者更好地了解Hadoop平台的原理和流程。 下面是在Hadoop平台上部署和实现WordCount程序的详细步骤: 1. 安装和配置Hadoop:首先需要在每台节点上安装Hadoop,并进行配置。在Hadoop平台运行WordCount程序至少需要一个主节点和一个从节点,因此需要按照相应的规格配置机器。 2. 准备数据:WordCount程序最基本的输入数据是由一些文本文件组成的文件夹。数据可以存储在Hadoop平台的HDFS分布式文件系统中。在准备数据时需要注意保证数据数量足够,充分的满足MapReduce的并行运算需求。 3. 编写WordCount程序:实现WordCount程序需要编写两个Java程序:一个是Map程序,另一个是Reduce程序。Map程序是用来将输入文件分割成一个一个的数据块,然后对每个数据块计算出单词和它们的次数。Reduce程序接受Map程序输出的结果,对这些结果进行汇总,得到最终的单词和它们的计数。 4. 打包和上传程序:将编写好的程序打包成jar包,并上传到Hadoop集群中的任意节点,随后到节点上执行WordCount程序。 5. 运行WordCount程序:在Hadoop平台上启动WordCount程序,本地模式或集群模式都可。在运行程序前需要设置好程序的输入、输出路径等参数。程序将从HDFS分布式文件系统读取输入数据,执行MapReduce运算,然后将结果存储到HDFS分布式文件系统中。 通过上述步骤,我们就可以成功地在Hadoop平台上部署和实现WordCount程序了。这个简单的程序虽然实现起来很容易,但是它为我们进一步使用Hadoop平台进行大数据处理提供了基础。 ### 回答3: 在Hadoop平台上部署WordCount程序,需要按照以下步骤进行: 1. 安装和配置Hadoop 首先需要安装配置好Hadoop。其安装过程可以通过官网提供的文档进行操作,也可以参考一些第三方的教程进行操作。在安装过程中,需要保证Hadoop的配置文件正确,同时需要调整好集群中各个节点的配置。 2. 准备WordCount程序 WordCount程序是一个经典的Hadoop应用程序,其可以对文本进行统计单词数的操作。开发者可以在官网提供的文档中找到WordCount程序的源代码,然后进行下载和编译。在这个过程中需要保证程序编译成功,并且可以被Hadoop正确的加载和运行。 3. 部署WordCount程序 在准备完WordCount程序之后,需要将其部署到Hadoop的节点上。这个过程需要做好以下几个准备工作: - 将程序打包成可执行的JAR文件。 - 将JAR文件上传到Hadoop集群中,可以使用hdfs命令进行上传。 - 配置Hadoop中JobTracker的参数,将WordCount程序文件所在目录添加到Hadoop的CLASSPATH中,同时将java运行参数设置正确。 - 在Hadoop集群中进行WordCount的提交,并等待程序运行完成。 4. 查看程序运行结果 最后,可以通过Hadoop提供的命令行工具查看程序运行结果。具体命令如下: - Hadoop fs -ls /output:查看程序的输出结果。 - Hadoop fs -cat /output/part-r-00000:查看程序的统计结果。 以上就是在Hadoop平台上部署WordCount程序的基本过程。这个过程比较复杂,需要仔细的操作和配置才能顺利的完成。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值