大数据:平台搭建(hadoop+spark+zeppelin)(一)

随着信息化时代的加深,国家人力资源和社会保障部新规定了13个新型职业,大数据工程技术人员赫然在列,下面我将从一个初学者的态度,搭建我们的大数据平台。系统和软件版本如下:

软件相应版本
操作系统CentOS 6.7
JAVAJDK 1.8.0.131
SCALASCALA 2.11.2
HadoopHadoop 2.7.3
SparkSpark 2.0.2
ZeppelinZeppelin 0.6.2

一、环境准备

  1. 卸载并安装JDK
    由于CentOS默认安装的是OpenJDK,不满足我们的要求,所以需要我们先卸载,再重新安装上Oracle版本的JDK。
    1.1. 查询java版本:rpm -qa|grep java
    1.2. 卸载openjdk:yum -y remove java-xxx-openjdk-xxx(tzdata-java也需要卸载,卸载完之后用1.1命令查询不出包就可以)
    1.3. 配置java环境变量:

    export JAVA_HOME=/usr/java/jdk1.8.0_131
    export CLASSPATH=.: J A V A H O M E / l i b / d t . j a r : JAVA_HOME/lib/dt.jar: JAVAHOME/lib/dt.jar:JAVA_HOME/lib/tools.jar
    export PATH= P A T H : PATH: PATH:JAVA_HOME/bin

    配置完之后可以通过java -versionjavac -version查看是否配置成功。

  2. 修改hostname
    查看hostname:vim /etc/sysconfig/network将HOSTNAME修改成需要设置的名称,需要重启服务器生效。
    修改hosts:vim /etc/hosts
    ip1 master worker0 namenode
    ip2 worker1 datanode1
    ip3 worker2 datanode2
    在这里插入图片描述

  3. 配置ntp服务
    安装ntp软件包:yum -y install ntp(安装ntp和ntpdate两个包)
    启动ntp服务:service ntpd start
    查看ntp时间服务器:vim /etc/ntp.conf
    在这里插入图片描述
    从上面找一个可用的时间源,手动同步时间源:ntpdate 0.centos.pool.ntp.org
    另外,如果不能上外网的话,也可以配置内网服务器。

  4. scala安装
    解压scala压缩包:tar zxvf scala-2.11.2.tgz -C /home
    在/etc/profile文件中配置scala环境变量:export PATH=$PATH:$JAVA_HOME/bin:/home/scala/bin

  5. 集群间免密登录
    每个节点生成公私钥:ssh-keygen -t rsa -P ''
    将所有id_rsa.pub公钥内容拷贝到master节点authorized_keys文件中:cat id_rsa.pub >> authorized_keys

    ssh-copy-id -i master #登录worker1,将公钥拷贝到master的authorized_keys中
    ssh-copy-id -i master #登录worker2,将公钥拷贝到master的authorized_keys中,

    最终authorized_keys文件内容如下:
    在这里插入图片描述
    登录master节点,修改authorized_keys的权限:chmod 600 authorized_keys
    将授权后的文件authorized_keys拷贝到worker1、worker2节点上,命令如下:

    scp /root/.ssh/authorized_keys worker1:/root/.ssh/ #拷贝到worker1上
    scp /root/.ssh/authorized_keys worker2:/root/.ssh/ #拷贝到worker2上

至此,免密码登录已经设定完成,注意第一次ssh登录时需要输入密码,再次访问时即可免密码登录。

  1. 关闭SELinux
    获取SELinux运行状态:getenforce
    修改/etc/selinux/config文件,将SELINUX=disabled,如下图所示:
    在这里插入图片描述
  2. 关闭防火墙
    查看防火墙状态:service iptables status
    永久关闭防火墙:chkconfig iptables off
    开放某个端口,需要编辑/etc/sysconfig/iptables,增添一条 -A INPUT -m state --state NEW -m tcp -p tcp --dport 8080 -j ACCEPT,/etc/init.d/iptables restart 命令将iptables服务重启:
    在这里插入图片描述

二、Hadoop安装部署

  1. 解压并重命名文件目录
    解压并移动至相应目录:tar zxvf hadoop-2.7.3.tar.gz -C /home(将所有软件都放置在/home目录下)
    进入/home重命名文件目录:mv hadoop-2.7.3 hadoop

  2. 修改配置文件
    2.1 /etc/profile文件,配置环境变量:
    在这里插入图片描述
    2.2 $HADOOP_HOME/etc/hadoop/hadoop-env.sh,修改JAVA_HOME:

    export JAVA_HOME=/usr/java/jdk1.8.0_131

    2.3 $HADOOP_HOME/etc/hadoop/slaves,配置hadoop工作节点
    在这里插入图片描述
    2.4 $HADOOP_HOME/etc/hadoop/core-site.xml
    在这里插入图片描述
    2.5 $HADOOP_HOME/etc/hadoop/hdfs-site.xml
    在这里插入图片描述
    2.6 $HADOOP_HOME/etc/hadoop/mapred-site.xml,复制template,生成xml:cp mapred-site.xml.template mapred-site.xml
    在这里插入图片描述
    2.7 $HADOOP_HOME/etc/hadoop/yarn-site.xml
    在这里插入图片描述
    至此master节点的hadoop搭建完毕,复制master节点的hadoop文件夹到worker上:scp -r /home/hadoop root@wokerN:/opt #注意这里的N要改为1或者2,工作节点上也需要修改/etc/profile文件。
    修改完/etc/profile文件之后,如果需要马上生效的话,一定要执行:source /etc/profile

  3. 启动并验证
    3.1 进入$HADOOP_HOME/sbin命令,执行start-all.sh脚本,服务启动之后,可以通过jsp命令查看本地的java程序进程,master节点和worker节点查看到的进程如下:
    在这里插入图片描述
    在使用hadoop之前,我们需要格式化namenode:hadoop namenode -format
    3.2 验证hadoop集群
    通过web的50070端口访问,可以查询到node接口信息
    在这里插入图片描述
    向hadoop集群系统提交第一个mapreduce任务(wordcount):
    3.2.1 hdfs dfs -mkdir -p /data/input在虚拟分布式文件系统上创建一个测试目录/data/input
    3.2.2 hdfs dfs -put README.txt /data/input将当前目录下的README.txt 文件复制到虚拟分布式文件系统中
    3.2.3 hdfs dfs -ls /data/input查看文件系统中是否存在我们所复制的文件
    3.2.4 hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /data/input /data/output/result查看result,结果在result下面的part-r-00000中:hdfs dfs -cat /data/output/result/part-r-00000
    在这里插入图片描述
    通过上面的jsp进程、web界面和执行一个任务,可以验证hadoop集群搭建成功。

三、Spark安装部署

  1. 解压并重命名目录
    解压到指定目录:tar zxvf spark-2.0.2-bin-hadoop2.7.tgz -C /home
    重命名目录:mv spark-2.0.2-bin-hadoop2.7 spark
  2. 修改配置文件
    2.1 /etc/profie
    在这里插入图片描述
    2.2 $SPARK_HOME/conf/spark-env.sh
    复制模板文件生成新文件:cp spark-env.sh.template spark-env.sh
    在这里插入图片描述
    2.3 $SPARK_HOME/conf/slaves
    复制模板文件并生成新文件:cp slaves.template slaves
    在这里插入图片描述
  3. 将配置好的spark文件复制到workerN节点

    scp -r spark root@worker1:/home
    scp -r spark root@worker2:/home

修改/etc/profile,增加spark相关的配置,如Master节点一样。

  1. Hadoop+Spark启动服务、关闭服务脚本
    启动脚本:start-cluster.sh
    在这里插入图片描述
    关闭脚本:stop-cluster.sh
    在这里插入图片描述
  2. 启动验证Spark集群
    5.1 通过web网页访问:http://master:8080,可以查看到节点信息。
    在这里插入图片描述
    5.2 通过在启动spark-shell程序,没有报错信息,并执行一个任务
    在这里插入图片描述

    val file=sc.textFile(“hdfs://master:9000/data/input/README.txt”)
    val rdd = file.flatMap(line => line.split(" ")).map(word =>(word,1)).reduceByKey(+)
    rdd.collect()
    rdd.foreach(println)
    在这里插入图片描述
    通过上面的web界面和spark-shell启动和任务执行,可以验证spark集群搭建成功。

四、Zeppelin安装部署

  1. 解压并重命名目录
    解压到指定目录:tar zxvf zeppelin-0.6.2-bin-all.tgz -C /home
    重命名文件目录:mv zeppelin-0.6.2-bin-all/ zeppelin

  2. 修改配置文件
    2.1 $ZEPPELIN_HOME/conf/zeppelin-env.sh

    export JAVA_HOME=/usr/java/jdk1.8.0_112/
    export MASTER=“spark://master:7077”
    export SPARK_HOME=/opt/spark-2.0.2-bin-hadoop2.7/
    export HADOOP_HOME=/opt/hadoop-2.7.3/
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

    2.2 $ZEPPELIN_HOME/conf/zeppelin-site.xml
    为防止端口冲突,修改zeppelin访问端口
    在这里插入图片描述

  3. Hadoop+Spark+Zeppelin集群启动服务、关闭服务脚本
    启动服务脚本:start-cluster.sh
    在这里插入图片描述
    关闭服务脚本:stop-cluster.sh
    在这里插入图片描述

  4. 启动验证Zeppelin服务
    登录zeppelin web界面:http://zeppelin:9090 (访问安装zeppelin服务的服务器)
    在这里插入图片描述
    访问Zeppelin实例,运行截图。
    在这里插入图片描述
    如果能够通过web访问,并可以执行zeppelin实例,可以验证系统搭建成功。
    至此,大数据环境(hadoop+spark+zeppelin)集成搭建成功。

20190410:问题1:之前执行spark-shell的时候没有问题,但spark-shell后面带上参数spark-shell --executor-memory 1g --driver-memory 1g --master spark://master:7077控制台就会报错,执行完之后,spark web界面也没有相应执行任务的信息,所以怀疑还是单机版执行。
问题出在spark配置文件上没有配置清楚,基于上面的/home/spark/conf/spark-env.sh配置,增加节点信息配置如下:

export SCALA_HOME=/home/scala
export JAVA_HOME=/usr/java/jdk1.8.0_131
export SPARK_MASTER_IP=master
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/home/hadoop/etc/hadoop
export HADOOP_HOME=/home/hadoop
export SPARK_MASTER_IP=193.168.9.79
export SPARK_MASTER_HOST=193.168.9.79
export SPARK_LOCAL_IP=193.168.9.79
export SPARK_WORKER_MEMORY=1g
export SPARK_WORKER_CORES=2
export SPARK_HOME=/home/spark
export SPARK_DIST_CLASSPATH=$(/home/hadoop/bin/hadoop classpath)

重新调用下关闭集群脚本,再调用启动集群脚本,这个时候的界面没有任何报错信息,如下图:
在这里插入图片描述
执行完任务之后,spark web界面有执行任务的信息,如下图:
在这里插入图片描述
问题2: Zeppelin页面上执行查询任务,出现的SparkContext问题。
在这里插入图片描述
原因是Zeppelin调用Spark查询失败后,Spark Interpreter就被一直占用,需要重新启动zeppelin服务才能解决这个问题。(由于采用的zeppelin0.6.2版本,据说0.7版本之后问题就解决了)

问题3: Zeppelin执行查询任务的时候提示Jackson版本太低。
在这里插入图片描述
Zeppelin版本所有的库都放在${ZEPPELIN_HOME}/lib下面,找到Jackson的三个包:

jackson-core-2.5.3.jar
jackson-annotations-2.5.0.jar
jackson-databind-2.5.3.jar

jackson网站上去下载更新版本的jar包,作者下载的是2.6.0版本,2.9.x版本存在兼容性问题。
问题4: Spark On Yarn提示ERROR client.TransportClient:Failed to send RPC …
在这里插入图片描述
原因:主要是给节点分配的内存少,yarn kill了spark application,解决方法是给yarn-site.xml增加配置:
在这里插入图片描述
正常无错误运行截图
在这里插入图片描述

引用:

  1. hadoop官网
  2. spark官网
  3. zeppelin官网
  4. Github系统操作脚本
  5. Hadoop File System Shell Guide
  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
实战大数据(hadoop spark flink)pdf是指利用大数据处理技术(如HadoopSpark、Flink)进行实际的数据分析和应用开发,并以PDF格式进行文档化。 大数据处理技术的出现,使得企业和机构可以处理和分析海量的数据,从而发掘出更多有价值的信息和洞察。而HadoopSpark和Flink作为目前比较流行的大数据处理框架,具有各自的特点和适用场景。 首先,Hadoop是一个基于分布式文件系统的大数据处理框架,能够实现数据的存储和计算的分布式处理。它采用MapReduce计算模型,可以对大规模数据进行批处理,适用于离线的数据分析任务。因此,在实战大数据的PDF中,可以介绍如何使用Hadoop进行大数据的存储和离线计算,以及如何利用Hadoop的生态系统组件如Hive、HBase等进行数据处理和查询。 其次,Spark是一个内存计算框架,它具有很强的处理速度和灵活性。Spark提供了一系列的API,可以方便地处理和分析大规模数据,同时支持批处理和实时流处理,适用于交互式和实时的数据分析任务。在实战大数据的PDF中,可以介绍如何使用Spark进行数据的处理和分析,包括数据清洗、特征工程、机器学习等方面的实践。 最后,Flink是一个流式计算框架,它具有低延迟、高吞吐量和状态一致性等特点。Flink支持基于时间的窗口计算、迭代计算和状态管理等功能,适用于复杂的实时数据分析任务。在实战大数据的PDF中,可以介绍如何使用Flink进行实时数据处理和分析,包括窗口计算、流式机器学习等方面的实践。 总之,实战大数据(hadoop spark flink)pdf可以从不同维度和使用场景来介绍大数据处理技术的应用,帮助读者了解和掌握这些技术在实际项目中的使用方法和优势。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

故郷の雲

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值