Hadoop学习平台的搭建 与pyspark平台的安装

#伪分布式
##1.安装虚拟机
##2.安装CentOS6.4-i386
##3.修改主机名

		# su root
		# vi /etc/sysconfig/network
		本主机名设置为:vitamin07

##4.修改ip
设置虚拟机的网络连接方式–参考文档:《虚拟机配置》来实现
1)Hostonly,将windos上的虚拟网卡改成与linux上的网卡在同一网段,将虚拟机上的Vmnet1 ip设置和你的虚拟机在同一个网段 ,但ip不相同。
###4.1非克隆机,将以下内容更新到ifcfg-eth0中

# vi /etc/sysconfig/network-scripts/ifcfg-eth0 
		BOOTPROTO="static"
		......
		IPADDR="192.168.8.201"
		NETMASK="255.255.255.0"
		GATWAY="192.168.8.1"
		DNS1="8.8.8.8"
		DNS2="8.8.4.4"  

###4.2克隆机

So here’s how we fix it:
	Remove the kernel’s networking interface rules file so that it can be regenerated
 
		# rm -f /etc/udev/rules.d/70-persistent-net.rules

	Restart the VM

		# reboot

	UPDATE your interface configuration file

		# more  /etc/udev/rules.d/70-persistent-net.rules
		# vi /etc/sysconfig/network-scripts/ifcfg-eth0 
	Remove the MACADDR entry or update it to the new MACADDR for the interface (listed in this file: /etc/udev/rules.d/70-persistent-net.rules).
	Remove the UUID entry 
	Uapdate IPADDR="192.168.8.xxx"--新地址 
	Save and exit the file

	Restart the networking service
 
	# service network restart

##5.修改主机名和ip映射关系
# vi /etc/hosts
##6.关闭防火墙–参考文档:《虚拟机配置》
查看防火墙状态
# service iptables status
命令关闭防火墙(重新启动虚拟机后防火墙依然是开着的)
# service iptables stop
查看在哪种状态下 防火墙会是开的 还是关的
# chkconfig iptables --list
启动方式:
0—关机 6–不停重启
1—单用户模式
2–多用户模式但没有NFS
3–多用户模式
4—没有使用的
5—图形界面模式
关闭防火墙:
# chkconfig iptables off
查看防火墙状态
# chkconfig iptables --list
##7.ssh免登录–参考文档:《设置ssh免密码登录》,其中有讲免密码登录的原理
生成一对密码
注: 若是克隆机则需要把.ssh/目录下的文件删除
root用户在 /.ssh下
非root用户 /home/model/.ssh/下

		# sudo apt-get install openssh-server
		#rm authorized_keys  id_rsa id_rsa.pub known_hosts 
		# ssh-keygen -t rsa
		   四个回车后
		# cd /root/.ssh		or	# cd /home/model/.ssh/
		# ls
		# cp id_rsa.pub authorized_keys

##8.安装jdk1.7–参考文档:《安装JDK》
###8.1官网获取jdk1.7
官网获取jdk1.7
官网
###8.2解压jdk安装包

# mkdir /usr/local/java
# mkdir /usr/local/java/jdk
# tar -zxvf jdk安装包 -C /usr/local/java/jdk/

###8.3添加环境变量,在profile中添加以下内容

# vi /etc/profile
		export JAVA_HOME=/usr/local/java/jdk/jdk1.7
		export PATH=$PATH:$JAVA_HOME/bin
		export JAVA_HOME=/usr/lib/jvm/jdk1.7  
		export JRE_HOME=${JAVA_HOME}/jre   
		export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib   
		export PATH=${JAVA_HOME}/bin:$PATH 
		export JAVA_HOME=/home/vitamin/software/jdk1.7.0_79 
		export JRE_HOME=${JAVA_HOME}/jre   
		export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib   
		export PATH=${JAVA_HOME}/bin:$PATH 

###8.4刷新配置
# source /etc/profile
##9.安装hadoop-2.2.0
###9.1下载和解压hadoop(注意hadoop版本要和jdk匹配)
下载链接
新建文件夹:
# mkdir /bigdata
解压文件夹:
# tar -zxvf hadoop安装包 -C /bigdata/
***若解压后的文件所属用户不是root,则要进行以下步骤–参考网址: 网址
递归修改一个目录及其目录下所有文件的所有者:

		# chown -R 用户名 文件目录名
		# chgrp -R 用户名 文件目录名
***hadoop2.2.0目录说明:
	    hadoop-2.2.0/bin      可执行的脚本
			/include  存放本地库的头文件
			/sbin     启动 停止相关的文件
			/etc      hadoop配置文件
			/lib      本地的一些库
			/share    依赖的java
			/share /hadoop/
			      /hdfs
			      /yarn

###9.2搭建伪分布式,修改目录(/bigdata/hadoop-2.2.0/etc/hadoop)下的配置文件–注意:主机名的修改,本文档中vitamin07要改为自己的主机名或者localhost
####1)修改环境变量,在hadoop-env.sh添加以下内容
# cd /bigdata/hadoop-2.2.0/etc/hadoop
# vi hadoop-env.sh
找到 export JAVA_HOME=…那行 更新为:
export JAVA_HOME=/usr/local/java/jdk/jdk1.7
保存退出。
####2)修改 core-site.xml # vi core-site.xml

<configuration>
		<!--指定hdfs的namenode地址-->
			<property>
				<name>fs.defaultFS</name> 
				<value>hdfs://vitamin07:9000</value>
				<description>the adress of namenode</description>
			</property>
		<!--指定hadoop运行时产生文件的存放目录(linux上具体某个目录)-->
			<property>
				<name>hadoop.tmp.dir</name>
				<value>/bigdata/hadoop-2.2.0/tmp</value>
				<description>the filespace where the producing file will be store </description>
			</property>
	</configuration>

####3)修改 hdfs-site.xml # vi hdfs-site.xml

<configuration>
		<!--指定hdfs的存储文件的副本数-->
		<property>
			<name>dfs.replication</name> 
			<value>1</value>
			<description></description>
		</property>
	</configuration>

####4)修改 mapred-site.xml.example 为:mapred-site.xml # mv mapred-site.xml.template mapred-site.xml

   # vi mapred-site.xml
	<configuration>
		<!--设置hadoop的MapReduce运行在yarn上 -->
		<property>
			<name>mapreduce.framework.name</name> 
			<value>yarn</value>
			<description>mapreduce will run in yarn</description>
		</property>
	</configuration>

####5)修改 yarn-site.xml # vi yarn-site.xml

<configuration>
		<!-- 指定nameManager获取数据的方式是shuflle方式 -->
		<property>
			<name>yarn.nodemanager.aux-services</name> 
			<value>mapreduce_shuffle</value>
			<description></description>
		</property>
		<!-- 指定yarn的管着者resourceManager的地址 -->
		<property>
			<name>yarn.resourcemanager.hostname</name>
			<value>vitamin07</value>
			<description></description>
		</property>
	</configuration>	

####6)添加hadoop环境变量,在profile中更新以下内容

	# vi /etc/profile
			 export JAVA_HOME=/usr/local/java/jdk目录
			 export HADOOP_HOME=/bigdata/hadoop-2.2.0
			 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
	# source   /etc/profile

####7)格式化文件系统
# Hdfs namenode -format 格式化文件系统
####8)启动hdfs和yarn
sbin目录下:
# ./start-dfs.sh
# ./start-yarn.sh
###9.2测试hdfs
首先向hdfs上传一个文件

	# hadoop fs -put /etc/profile /profile
	# hadoop fs -ls /

###9.3测试MapReduce

	# hadoop jar /bigdata/hadoop-2.2.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar wordcount /profile /out

#多节点集群
hadoop2.0已经发布了稳定版本了,增加了很多特性,比如HDFS HA、YARN等。

/本次所用软件为:hadoop-2.2.0、CentOS6.4-i386、zookeeper-3.4.5、jdk-7u79-linux-i586*******/

注意:apache提供的hadoop-2.2.0的安装包是在32位操作系统编译的,因为hadoop依赖一些C++的本地库,
所以如果在64位的操作上安装hadoop-2.2.0就需要重新在64操作系统上重新编译

##1.修改Linux主机名
##2.修改IP
##3.修改主机名和IP的映射关系
######注意######如果你们公司是租用的服务器或是使用的云主机(如华为用主机、阿里云主机等)
/etc/hosts里面要配置的是内网IP地址和主机名的映射关系
##4.关闭防火墙
##5.ssh免登陆 (可先不做此步)
##6.安装JDK,配置环境变量等

集群规划:
主机名 IP 安装的软件 运行的进程
vitamin01 192.168.1.201 jdk、hadoop NameNode、DFSZKFailoverController
vitamin02 192.168.1.202 jdk、hadoop NameNode、DFSZKFailoverController
vitamin03 192.168.1.203 jdk、hadoop ResourceManager
vitamin04 192.168.1.204 jdk、hadoop、zookeeper DataNode、NodeManager、JournalNode、QuorumPeerMain
vitamin05 192.168.1.205 jdk、hadoop、zookeeper DataNode、NodeManager、JournalNode、QuorumPeerMain
vitamin06 192.168.1.206 jdk、hadoop、zookeeper DataNode、NodeManager、JournalNode、QuorumPeerMain

说明:
在hadoop2.0中通常由两个NameNode组成,一个处于active状态,另一个处于standby状态。Active NameNode对外提供服务,而Standby NameNode则不对外提供服务,仅同步active namenode的状态,以便能够在它失败时快速进行切换。
hadoop2.0官方提供了两种HDFS HA的解决方案,一种是NFS,另一种是QJM。这里我们使用简单的QJM。在该方案中,主备NameNode之间通过一组JournalNode同步元数据信息,一条数据只要成功写入多数JournalNode即认为写入成功。通常配置奇数个JournalNode
这里还配置了一个zookeeper集群,用于ZKFC(DFSZKFailoverController)故障转移,当Active NameNode挂掉了,会自动切换Standby NameNode为standby状态

##7.集群安装步骤:
###1.安装配置zooekeeper集群
####1.1解压
mkdir /bigdata
tar -zxvf zookeeper-3.4.5.tar.gz -C /bigdata/
####1.2修改配置
cd /bigdata/zookeeper-3.4.5/conf/
cp zoo_sample.cfg zoo.cfg
vim zoo.cfg
***修改:dataDir=/bigdata/zookeeper-3.4.5/tmp
在最后添加:
server.1=vitamin04:2888:3888
server.2=vitamin05:2888:3888
server.3=vitamin06:2888:3888
保存退出
然后创建一个tmp文件夹
mkdir /bigdata/zookeeper-3.4.5/tmp
再创建一个空文件
touch /bigdata/zookeeper-3.4.5/tmp/myid
最后向该文件写入ID
echo 1 > /bigdata/zookeeper-3.4.5/tmp/myid
####1.3将配置好的zookeeper拷贝到其他节点(首先分别在vitamin05、vitamin06根目录下创建一个bigdata目录:mkdir /bigdata)
scp -r /bigdata/zookeeper-3.4.5/ vitamin05:/bigdata/
scp -r /bigdata/zookeeper-3.4.5/ vitamin06:/bigdata/

		注意:修改vitamin05、vitamin06对应/bigdata/zookeeper-3.4.5/tmp/myid内容
		vitamin05:
			echo 2 > /bigdata/zookeeper-3.4.5/tmp/myid
		vitamin06:
			echo 3 > /bigdata/zookeeper-3.4.5/tmp/myid

###2.安装配置hadoop集群
####2.1解压
mkdir /bigdata
tar -zxvf hadoop-2.2.0.tar.gz -C /bigdata/
####2.2配置HDFS(hadoop2.0所有的配置文件都在KaTeX parse error: Expected 'EOF', got '#' at position 31: …/hadoop目录下) #̲将hadoop添加到环境变量中…PATH: J A V A H O M E / b i n : JAVA_HOME/bin: JAVAHOME/bin:HADOOP_HOME/bin

		#hadoop2.0的配置文件全部在$HADOOP_HOME/etc/hadoop下
		cd /bigdata/hadoop-2.2.0/etc/hadoop

#####2.2.1修改hadood-env.sh # vi hadoop-env.sh

			export JAVA_HOME=/usr/local/java/jdk/jdk1.7

#####2.2.2修改core-site.xml # vi core-site.xml



fs.defaultFS
hdfs://ns1



hadoop.tmp.dir
/bigdata/hadoop-2.2.0/tmp



ha.zookeeper.quorum
vitamin04:2181,vitamin05:2181,vitamin06:2181

#####2.2.3修改hdfs-site.xml # vi hdfs-site.xml



dfs.nameservices
ns1



dfs.ha.namenodes.ns1
nn1,nn2



dfs.namenode.rpc-address.ns1.nn1
vitamin01:9000



dfs.namenode.http-address.ns1.nn1
vitamin01:50070



dfs.namenode.rpc-address.ns1.nn2
vitamin02:9000



dfs.namenode.http-address.ns1.nn2
vitamin02:50070



dfs.namenode.shared.edits.dir
qjournal://vitamin04:8485;vitamin05:8485;vitamin06:8485/ns1



dfs.journalnode.edits.dir
/bigdata/hadoop-2.2.0/journal



dfs.ha.automatic-failover.enabled
true



dfs.client.failover.proxy.provider.ns1
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider



dfs.ha.fencing.methods

sshfence
shell(/bin/true)




dfs.ha.fencing.ssh.private-key-files
/root/.ssh/id_rsa



dfs.ha.fencing.ssh.connect-timeout
30000

#####2.2.4修改mapred-site.xml # cp mapred-site.xml.template mapred-site.xml # vi mapred-site.xml



mapreduce.framework.name
yarn

#####2.2.5修改yarn-site.xml # vi yarn-site.xml



yarn.resourcemanager.hostname
vitamin03



yarn.nodemanager.aux-services
mapreduce_shuffle

#####2.2.6修改slaves(slaves是指定子节点的位置,因为要在vitamin01上启动HDFS、在vitamin03启动yarn,所以vitamin01上的slaves文件指定的是datanode的位置,vitamin03上的slaves文件指定的是nodemanager的位置)
# cd /bigdata/hadoop-2.2.0/etc/hadoop
vitamin04
vitamin05
vitamin06

#####2.2.7配置免密码登陆
#首先要配置vitamin01到vitamin02、vitamin03、vitamin04、vitamin05、vitamin06的免密码登陆
#在vitamin01上生产一对钥匙
ssh-keygen -t rsa
#将公钥拷贝到其他节点,包括自己
ssh-coyp-id vitamin01 # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub root@vitamin01
ssh-coyp-id vitamin02 # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub root@vitamin02
ssh-coyp-id vitamin03 # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub root@vitamin03
ssh-coyp-id vitamin04 # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub root@vitamin04
ssh-coyp-id vitamin05 # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub root@vitamin05
ssh-coyp-id vitamin06 # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub root@vitamin06

			非root用户 ssh-coyp-id vitamin12	# /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub  model@vitamin12
			
			#配置vitamin03到vitamin04、vitamin05、vitamin06的免密码登陆
			#在vitamin03上生产一对钥匙
			ssh-keygen -t rsa
			#将公钥拷贝到其他节点  
			ssh-coyp-id vitamin03  # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub  root@vitamin03
			ssh-coyp-id vitamin04  # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub  root@vitamin04
			ssh-coyp-id vitamin05  # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub  root@vitamin05
			ssh-coyp-id vitamin06  # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub  root@vitamin06
			
			#注意:两个namenode之间要配置ssh免密码登陆,别忘了配置vitamin02到vitamin01的免登陆
			在vitamin02上生产一对钥匙
			ssh-keygen -t rsa
			ssh-coyp-id -i vitamin01   # /usr/bin/ssh-copy-id -i ~/.ssh/id_rsa.pub  root@vitamin01				

####2.4将配置好的hadoop拷贝到其他节点
scp -r /bigdata/ vitamin02:/
scp -r /bigdata/ vitamin03:/
scp -r /bigdata/hadoop-2.2.0/ root@vitamin04:/bigdata/
scp -r /bigdata/hadoop-2.2.0/ root@vitamin05:/bigdata/
scp -r /bigdata/hadoop-2.2.0/ root@vitamin06:/bigdata/

	###注意:严格按照下面的步骤

####2.5启动zookeeper集群(分别在vitamin04、vitamin05、vitamin06上启动zk)
cd /bigdata/zookeeper-3.4.5/bin/
./zkServer.sh start
#查看状态:一个leader,两个follower
./zkServer.sh status

####2.6启动journalnode(在vitamin01上启动所有journalnode,注意:是调用的hadoop-daemons.sh这个脚本,注意是复数s的那个脚本)
cd /bigdata/hadoop-2.2.0
sbin/hadoop-daemons.sh start journalnode
#运行jps命令检验,vitamin04、vitamin05、vitamin06上多了JournalNode进程

####2.7格式化HDFS
#在vitamin01上执行命令:
hdfs namenode -format
#格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件,这里我配置的是/bigdata/hadoop-2.2.0/tmp,然后将/bigdata/hadoop-2.2.0/tmp拷贝到vitamin02的/bigdata/hadoop-2.2.0/下。
scp -r tmp/ vitamin02:/bigdata/hadoop-2.2.0/

####2.8格式化ZK(在vitamin01上执行即可)
hdfs zkfc -formatZK

####2.9启动HDFS(在vitamin01上执行)
sbin/start-dfs.sh

####2.10启动YARN(#####注意#####:是在vitamin03上执行start-yarn.sh,把namenode和resourcemanager分开是因为性能问题,因为他们都要占用大量资源,所以把他们分开了,他们分开了就要分别在不同的机器上启动)
sbin/start-yarn.sh

到此,hadoop2.2.0配置完毕,可以统计浏览器访问:
	http://192.168.8.201:50070
	NameNode 'vitamin01:9000' (active)
	http://192.168.8.202:50070
	NameNode 'vitamin02:9000' (standby)

验证HDFS HA
	首先向hdfs上传一个文件
	hadoop fs -put /etc/profile /profile
	hadoop fs -ls /
	然后再kill掉active的NameNode
	kill -9 <pid of NN>
	通过浏览器访问:http://192.168.8.202:50070
	NameNode 'vitamin02:9000' (active)
	这个时候vitamin02上的NameNode变成了active
	在执行命令:
	hadoop fs -ls /
	-rw-r--r--   3 root supergroup       1926 2014-02-06 15:36 /profile
	刚才上传的文件依然存在!!!
	手动启动那个挂掉的NameNode
	sbin/hadoop-daemon.sh start namenode
	通过浏览器访问:http://192.168.8.201:50070
	NameNode 'vitamin01:9000' (standby)

验证YARN:
	运行一下hadoop提供的demo中的WordCount程序:
	hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar wordcount /profile /out

OK,大功告成!!!


Secondary NameNode

spark学习平台的搭建:

win10系统;
参考:
安装步骤
异常处理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值