hadoop-2.10.1伪分布式安装

hadoop是java开发的,其运行的环境必须是java环境,在vmvare中安装CentOS7并配置网络和jdk环境中已配置好,这里不再重复说明。

由于伪分布式需要一台电脑

修改IP和主机名分别为192.168.18.101和node01(具体操作可以参考vmvare安装那篇)

设置本机到主机的映射

vi /etc/hosts

在问答末尾添加

关闭防火墙

systemctl stop firewalld.service  
systemctl disable firewalld.service

关闭selinux

vi /etc/selinux/config

     SELINUX=disabled

编辑profile,在最后添加两行

   export JAVA_HOME=/usr/java/default

   export PATH=$PATH:$JAVA_HOME/bin

ssh免密设置

ssh localhost

执行ssh localhost有两个作用,1、验证自己还没免密 2、被动生成了 /root/.ssh目录(这个目录最好不要自己创建,涉及到权限配置,最好自动生成)

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

注:

    如果A想免密登录到B:

    A: ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

    B: cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

    结论:B包含了A的公钥,A就可以免密的登陆,你去陌生人家里得撬锁,去女朋友家里:拿钥匙开门

创建Hadoop安装目录

mkdir /opt/bigdata

上传Hadoop压缩包到跟目录下,然后解压缩

tar xf hadoop-2.10.1.tar.gz

将解压缩的文件夹移动到新创建的目录下

mv hadoop-2.10.1  /opt/bigdata/

配置Hadoop环境变量

vi /etc/profile

加载文件命令

source  /etc/profile

配置hadoop的角色

cd $HADOOP_HOME/etc/hadoop

必须给Hadoop配置JAVAHOME要不ssh过去找不到这个环境变量的,所有要修改

vi hadoop-env.sh

    export JAVA_HOME=/usr/java/ default

给出NameNode角色在哪里启动

vi core-site.xml

<property>
<name>fs.defaultFS</name>
<value>hdfs://node01:9000</value>
</property>

vi hdfs-site.xml

<property>
	<name>dfs.replication</name>
	<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/var/bigdata/ hadoop/local/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/var/bigdata/hadoop/local/dfs/data</value>
</property>
<property>
	<name>dfs.namenode.secondary.http-address</name>
	<value>node01:50090</value>
</property>
<property>
	<name>dfs.namenode.checkpoint.dir</name>
	<value>/var/bigdata/hadoop/local/dfs/secondary</value>
</property>

配置DN这个角色再哪里启动

vi slaves

    node01

初始化运行

hdfs namenode -format

启动

cd   /var/bigdata/hadoop/local/dfs
start-dfs.sh

第一次: datanode和secondary角色会初始化创建自己的数据日录

访问  http://node01:50070

修改windows:C:\windows\System32\drivers\etc\hosts

192.168.18.101 node01

验证知识点

//观察ediflog的id是不是再fsimage的后边

cd /var/bigdata/hadoop/local/dfs/name/current

//SNN 只需要从NN拷贝最后时点的FSimage和增量的Editlog

cd /var/bigdata/hadoop/local/dfs/secondary/current

//hadoop命令创建目录(hdfs  dfs  可以查看帮助)

hdfs dfs -mkdir /bigdata

 hdfs dfs -mkdir -p  /user/root

hdfs dfs -put hadoop*.tar.gz /user/root

cd /var/bigdata/hadoop/local/dfs/data/current/BP-281175a-23-192.168.150.11-15327683431/current/finalized/subdir0/subdir0

//生成一个1到100000的文件

for i in `seq 100000`;do echo "hello hadoop $i" >> data.txt;done

//设置block为1M切割,然后上传data.txt文件到当前目录下

hdfs dfs -D dfs.blocksize=1048576 -put data.txt

cd /var/bigdata/hadoop/local/dfs/data/current/BP-281175a-23-192.168.150.11-15327683431/current/finalized/subdir0/subdir0

检查data.txt被切割的块,看数据是什么样子

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
包含hadoop平台Java开发的所有所需jar包,例如activation-1.1.jar apacheds-i18n-2.0.0-M15.jar apacheds-kerberos-codec-2.0.0-M15.jar api-asn1-api-1.0.0-M20.jar api-util-1.0.0-M20.jar asm-3.2.jar avro-1.7.7.jar commons-beanutils-1.9.4.jar commons-cli-1.2.jar commons-codec-1.4.jar commons-collections-3.2.2.jar commons-compress-1.19.jar commons-configuration-1.6.jar commons-digester-1.8.jar commons-io-2.4.jar commons-lang-2.6.jar commons-lang3-3.4.jar commons-logging-1.1.3.jar commons-math3-3.1.1.jar commons-net-3.1.jar curator-client-2.7.1.jar curator-framework-2.7.1.jar curator-recipes-2.7.1.jar gson-2.2.4.jar guava-11.0.2.jar hadoop-annotations-2.10.0.jar hadoop-auth-2.10.0.jar hadoop-common-2.10.0-tests.jar hadoop-common-2.10.0.jar hadoop-nfs-2.10.0.jar hamcrest-core-1.3.jar htrace-core4-4.1.0-incubating.jar httpclient-4.5.2.jar httpcore-4.4.4.jar jackson-core-asl-1.9.13.jar jackson-jaxrs-1.9.13.jar jackson-mapper-asl-1.9.13.jar jackson-xc-1.9.13.jar java-xmlbuilder-0.4.jar jaxb-api-2.2.2.jar jaxb-impl-2.2.3-1.jar jcip-annotations-1.0-1.jar jersey-core-1.9.jar jersey-json-1.9.jar jersey-server-1.9.jar jets3t-0.9.0.jar jettison-1.1.jar jetty-6.1.26.jar jetty-sslengine-6.1.26.jar jetty-util-6.1.26.jar jsch-0.1.54.jar json-smart-1.3.1.jar jsp-api-2.1.jar jsr305-3.0.0.jar junit-4.11.jar LIST.bat LIST.TXT log4j-1.2.17.jar mockito-all-1.8.5.jar netty-3.10.6.Final.jar nimbus-jose-jwt-4.41.1.jar paranamer-2.3.jar protobuf-java-2.5.0.jar servlet-api-2.5.jar slf4j-api-1.7.25.jar slf4j-log4j12-1.7.25.jar snappy-java-1.0.5.jar stax-api-1.0-2.jar stax2-api-3.1.4.jar woodstox-core-5.0.3.jar xmlenc-0.52.jar zookeeper-3.4.9.jar

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值