1. 集群的配置
在/ect/worker文件中输入你协同启动的hadoop虚拟机
可以同时在本地和其他的端口处启动。
2. 基本使用
- 运行mapReduce程序
进入这个文件加
cd /usr/local/hadoop/share/hadoop/mapreduce
执行以下命令
hadoop jar hadoop-mapreduce-examples-3.1.1.jar pi 10 10
- 文件操作
# 和基本的shell语法差不多只不过多了hadoop和fs而已
hadoop fs -mkdir /itcast
hadoop fs -put zookeeper.out /itcast
hadoop fs -fs ls /
hadoop fs rm /itcast zookeeper.out
- 使用localhost:9870进行操作
3. 总结
- HDFS是一个文件系统
- 有目录树结构 和linux相似,分文件,文件夹
- 上传一个小文件也很慢
问题
-
为什么配置文件都不,结果可以使用ssh 中的 scp直接将Hadoop或者java上传到
-
Debain如何配置maven和java
删除线格式
编辑~/.bashrc文件
增加以下内容 -
如果不能运行:
- Linux的防火墙没有关闭
- 系统不稳定
- 系统处于安全模式:
hadoop dfsadmin -safemode leave
- mapred-site.xml文件配置不合适。
-
为什么首先请求YRAM
-
先Map后Reduce
-
适合处理小数据量的程序吗?为什么?
# java
JAVA_HOME=/usr/local/jdk1.8
PATH=$PATH:$JAVA_HOME/bin
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME
export CLASSPATH
export PATH
# 自定义环境变量设置
# maven
M2_HOME=/opt/apache-maven-3.6.0
PATH=$PATH:$M2_HOME/bin
export M2_HOME
export PATH