原文见:http://nubetech.co/accessing-hdfs-over-ftp
这个程序是通过hdfs的9000端口访问的。听说还有hadoop自己的拓展包,需要重新编译hadoop。有机会的话安装一次来对比一下效率。
下载压缩包:hdfs-over-ftp-0.20.0.tar.gz(我的hadoop是0.20.2)

1.解压之后在目录下执行
./register-user.sh username password >> users.conf
这会在users.conf中生成新的ftp账户配置。
废话一句,xxxx.homedirectory=/,这里的/就是你的hadoop的根目录。
2.修改hdfs-over-ftp.conf,有两个要注意的地方:
hdfs-uri = hdfs://localhost:9000###确认localhost:9000可以访问到你的hadoop。
superuser = hadoop#####hadoop是不是你起hadoop服务的用户。
3.修改log4j.conf的
log4j.appender.R.File=xxxxxxx

4.启动/关闭:
sudo ./hdfs-over-ftp.sh start
###必须使用sudo,没有sudo权限的话,修改/etc/sudoers ,在root下一行添加。
username    ALL=(ALL)       ALL
sudo ./hdfs-over-ftp.sh stop