疯掉了,测试Hadoop下的wordcount示例,需要复制文件到hdfs,照书上的操作使用
$ ./hadoop dfs -put ~/input/file0* input
出现错误
put: File /home/shan/input/file01.txt does not exist.
File /home/shan/input/file02.txt does not exist.
太可笑了,Cygwin都已经解析出通配符*,竟然说文件不存在。搞了几个小时,终于在http://www.hindoogle.com/blog/2009/12/cygwin-vs-hadoop-dfs-copy/找到了解决方案。
原来是路径错误,不能用左划线分割的Unix风格的路径即,‘/',要用带转义字符的window风格的路径,’\\',而且要用window下的绝对路径