hadoop+spark
文章平均质量分 91
Blessing_CR
无聊随便写写
展开
-
hadoop+spark的安装 配置 新手
步骤1:(准备工作) 首先需要两台(其实更多更好)安装好Centos7 的机器: 安装java (没有选择yuminstall default-jdk 因为我安装完后发现他没有jps 所以我去sun官网下下了个1.8.0) 然后解压安装 到/usr/java/jdk/ 然后安装ssh 如果没有安装的话 yum–原创 2017-08-22 18:53:10 · 765 阅读 · 0 评论 -
hadoop 和spark的基准测试(1)
Hadoop 2.8.0 基准测试1.查看jar包命令2.建立乱序100M数据3.排序4.删除文件 1.执行:hadoop jar../share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.8.0-tests.jar结果: Anexample program must be given a原创 2017-08-22 18:56:22 · 1519 阅读 · 0 评论