环境搭建
一脸黑
这个作者很懒,什么都没留下…
展开
-
陪陪陪陪陪文文文文
(1)core_site.xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:8020</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/var...原创 2021-10-22 22:37:15 · 406 阅读 · 0 评论 -
完全分布spark
原创 2021-10-22 22:03:23 · 134 阅读 · 0 评论 -
配置JAVA_HOME HAOOP_HOME
原创 2021-10-22 21:53:22 · 80 阅读 · 0 评论 -
hadoop完全分布式搭建
压缩: tar -zxf /opt/software/hadoop-2.6.4.tar.gz -C /usr/local 配置文件 (1)core-site.xml <>原创 2021-10-22 21:40:07 · 64 阅读 · 0 评论 -
题是什么什么什么
大数据平台组件搭建。 要求在Hadoop集群上搭建1.6.3版本的Spark分布式集群。(提示如下,注意每一步骤的代码与结果需截图在报告中体现) 1.Spark安装包处理,解压到/usr/local目录下,在master节点通过命令“wget -P /opt http://datasrc.tipdm.net:81/bigdata/spark/software/spark-1.6.3-bin-hadoop2.6.tgz”进行获取。 2.Spark配置文件修改(spark-env.sh、slaves、s..原创 2021-10-22 21:09:41 · 134 阅读 · 0 评论 -
hadoop环境搭建
在hadoop102上面配置配置jdk和hadoop环境变量。 (1)配置jdk环境变量 打开/etc/profile vi /etc/profile 进去以后先按a(插入文本)然后去文件的最后一行在里面添加如下内容(其中JAVA_HOME为安装jdk的路径) export JAVA_HOME=/opt/module/jdk1.8.0_144 export PATH=$PATH:$JAVA_HOME/bin vi /etc/hosts 配置JAVA_HOME HAOO.原创 2021-10-22 21:00:25 · 276 阅读 · 0 评论 -
9. 在hadoop102上面配置配置jdk和hadoop环境变量。(1)配置jdk环境变量打开/etc/profilevi /etc/profile进去以后先按a(插入文本)然后去文件的最后
在hadoop102上面配置配置jdk和hadoop环境变量。 (1)配置jdk环境变量 打开/etc/profile vi /etc/profile 进去以后先按a(插入文本)然后去文件的最后一行在里面添加如下内容(其中JAVA_HOME为安装jdk的路径) export JAVA_HOME=/opt/module/jdk1.8.0_144 export PATH=$PATH:$JAVA_HOME/bin vi /etc/hosts 配置JAVA_HOME HAOOP_H原创 2021-10-22 20:53:32 · 356 阅读 · 0 评论