参考的github的代码rHadoopClient源码
在R语言里面定义一个function函数,函数比较简单,就是利用hdfs的cat命令进行读取临时文件,然后再加载临时文件,最后删除临时文件,启动read.svs()
方法根据需求自行修改。
qtread.hdfs <-
function(hdfs.path, hadoop.cmd = "hadoop") {
tmp.file <- sprintf("tmp_hadoop_%s.csv", as.numeric(Sys.time()))
cmd <- sprintf("%s fs -cat %s | perl -pe 's/\t/,/g' > %s"