接下来是Running Hadoop In Docker On Mac。
Running Hadoop In Docker On Macamitasviper.github.io![ce24c4fce509383924f982925b752804.png](https://img-blog.csdnimg.cn/img_convert/ce24c4fce509383924f982925b752804.png)
尝试连接hdfs报错
java.lang.IllegalArgumentException: Wrong FS://expected: file:///
https://blog.csdn.net/zh519080/article/details/76923137
拒绝连接的问题参见文章
https://blog.csdn.net/qq_24342739/article/details/89429786
根据这个我能够本地调试了(IntelliJ IDEA集成了maven,根据文章配置了本地环境),但是Mac上IntelliJ IDEA连接docker还是没成功,但是打包成jar到机器上单节点运行成功。
Hadoop本地调试+连接docker单节点blog.csdn.net文件的一些命令
docker cp //本地和docker文件拷贝
hdfs dfs -put //hdfs宿主机拷贝到hdfs
hadoop宿主机中
yum -y install vim* //安装VIM
sbin/start-all.sh
sbin/stop-all.sh
docker命令
//停止所有docker容器
docker stop $(docker ps -aq)
//删除所有docker容器
docker rm $(docker ps -aq)
根据基于Docker搭建Hadoop集群之升级版,我能在三个节点的hadoop集群执行MapReduce了。
Docker搭建Hadoop集群之升级版kiwenlau.com但是我按照文章修改了5节点,start hdfs仍然只有2个slave
问题1:我进入不了http://192.168.59.1:50070/(我的是172.18.0.2)
问题2:我无法在MapReduce任务中连接上hdfs。本地连接和hdfs://localhost:9000都不行
调优的blog.csdn.net