hadoop

安装java

在官网下载源文件后,执行sudo tar -zxvf jdk-8u112-linux-x64.tar.gz -C /usr/lib/java/

配置JAVA环境变量,打开’sudo gedit ~/.bashrc’,在末尾增加:

export JAVA_HOME=/usr/lib/java/jdk1.8.0_112
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin:$PATH

重启或者source ~/.bashrc,查看版本java -version

安装hadoop

下载源文件后,执行sudo tar -zxvf hadoop-2.6.4.tar.gz -C /usr/local/hadoop/

配置hadoop环境变量,打开sudo gedit ~/.bashrc,在末尾增加:

export HADOOP_HOME=/usr/local/hadoop/hadoop-2.6.4
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME

配置hadoop

1更改hadoop-2.6.4/etc/hadoop/hadoop-env.sh文件

export JAVA_HOME=/usr/lib/java/jdk1.8.0_112 (系统对应的jdk路径)

2更改hadoop-2.6.4/etc/hadoop/core-site.xml文件

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://localhost:8020</value>
    </property>
</configuration>

3更改hadoop-2.6.4/etc/hadoop/hdfs-site.xml文件

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

4从mapred-site.xml.template复制成mapred-site.xml再更改

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

5更改hadoop-2.6.4/etc/hadoop/yarn-site.xml文件

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

参考1
参考2

验证hadoop安装

cd ~
hdfs namenode -format
start-dfs.sh

访问http://localhost:50070

start-yarn.sh

访问http://localhost:8088/ (不会马上显示网页,需要耐心等待)

执行start-dfs.sh时报错:Unable to load native-hadoop library for your platform

在hadoop-2.6.4/etc/hadoop/hadoop-env.sh文件中添加
export HADOOP_OPTS="$HADOOP_OPTS -Djava.library.path=$HADOOP_HOME/lib/native"

执行start-dfs.sh时报错:localhost: ssh: connect to host localhost port 22: Connection refused

重装openssh

sudo apt-get remove openssh-client openssh-server
sudo apt-get install openssh-client openssh-server

在hadoop-2.6.4/etc/hadoop/hadoop-env.sh文件中添加
`export HADOOP_SSH_OPTS="-p 22"``

安装hbase

下载源文件后,执行sudo tar -zvxf hbase-1.2.0-bin.tar.gz -C /usr/local/hbase/

1更改hbase-1.2.0/conf/hbase-env.sh文件
export JAVA_HOME=/usr/lib/java/jdk1.8.0_112 (系统对应的jdk路径)

2更改hbase-1.2.0/conf/hbase-site.sh文件

<configuration>
   <property>
      <name>hbase.rootdir</name>
      <value>hdfs://localhost:8020/hbase</value>
   </property>
   <property>
      <name>hbase.cluster.distributed</name>
      <value>true</value>
   </property>
</configuration>

验证hbase

启动hbase,执行指令

bin/start-hbase.sh
hadoop fs -ls /hbase

zookeeper安装

下载源文件后,执行sudo tar -zxvf zookeeper-3.4.10.tar.gz -C /usr/local/hadoop/`` 配置spark环境变量,打开sudo gedit ~/.bashrc`,在末尾增加:

export ZOOKEEPER_HOME=/usr/local/zookeeper/zookeeper-3.4.10
export PATH=$PATH:$ZOOKEEPER_HOME/bin
source ~/.bashrc

在conf目录下执行: cp zoo_sample.cfg zoo.cfg

更改zoo.cfg内容:dataDir=/home/yanzi/zookeeper

启动zookeeper:zkServer.sh start

kafka安装

下载源文件后,执行sudo tar -zxvf kafka-0.10.2.2.tgz -C /usr/local/kafka/`` 配置spark环境变量,打开sudo gedit ~/.bashrc`,在末尾增加:

export KAFKA_HOME=/usr/local/kafka/kafka_2.10-0.10.2.2
export PATH=$PATH:$KAFKA_HOME/bin
source ~/.bashrc

更改config/server.properties内容:

broker.id=1
log.dir=/home/yanzi/kafka/logs-1

进入到kafka的路径下:bin/zookeeper-server-start.sh -daemon config/zookeeper.properties

参考

从本地拷贝到hadoop

hadoop fs -put oneId_test500.txt /yanzi/

删除hadoop文件夹

hadoop fs -rm -R /yanzi/edges
hadoop fs -rm -R /yanzi/vertices

将多个文件合并成单个文件

hadoop fs -getmerge /yanzi/vertices/ /opt/neo4j/neo4j-community-3.3.6/import/combineVertices.csv
hadoop fs -getmerge /yanzi/edges/ /opt/neo4j/neo4j-community-3.3.6/import/combineEdges.csv

使用FileUtil.copyMerge(hadoop 3.0以下)

创建Hbase表时显示已存在,list显示却没有

执行zkCLI.sh

ls /hbase/table发现不为空,将相应的表痕迹删除即可

rmr /hbase/table/”table_name” (将”table_name”替换成相应的表名即可)
参考

Hive操作

>hive
>show databases;
>use xxDatabase;
>show tables;
>describe xxDatabase.xxTable;
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值