cloudera虚拟机的搭建

 首先第一点,我想说我是用vmware装的cloudera,我居然选了win7系统,我错了,应该选linux系统,我选了centos,看着眼熟,可能看书看见过吧……怎么发现装错系统了呢,因为下载的vmware tool的安装包是exe类型的啊……和同学一交流,没错还是同一个同学……人家不懂为什么是exe,应该是个Linux系统的安装包啊……然后我就发现我错了,这样按照网上的教程流程大致走就行,一点就是cloudera系统有直接解压的软件,所以可以省去命令行解压的步骤~总之,就说一下vmware tool安装成功的过程,安装它是为了共享文件夹~也就是/mnt/hgfs~

第二点,过了这么多天,我把自己都要吓死了……因为上一次我把org.apache.hadoop的jar包加到工程里以后一直在building workspace,同学问我改没改maven的settings文件,我当然都没听说啊,我一看,哦,还要改啊!有完没完了!刚弄完vmware tool,还有问题啊!我就没弄,因为寸步难行啊,太吓人了,就从我看看,大概十月四号吧一直拖到今天,快一个星期,今天也是闲来无聊,总不能还像本科一样一本真经地思考人生吧,那样做是不对的微笑我没说没事干,有的是专业书和文献可以看,当然还有所谓实验室项目的第一步,md到现在还跟代码没关系呢……一直在弄环境,之前我都在想啊,说不定虚拟机弄了半天,可能是个死胡同啊……只要是和专业有关系的事就行,那就继续一步一步往上爬吧尴尬没想到啊,跟之前一样,这次加jar包之后很快啊……我也没设置settings文件啊……也许我们之间需要一些时间和空间,让彼此好好想想微笑,太情绪化了,快赶上了win10了

本地跑了一下wordcountoldapi.java,我不得不说,今天进行得异常顺利

--------------------------------md 敢情我全白写了----------------------------------------------------------------------------

在大神的手把手教导下幸福到失忆得在集群上跑出了结果:

先把本地jar和input上传到服务器,然后再把服务器上的文件上传到hdfs

上传到服务器:scp -r /Users/apple/Desktop/firsthadoop username@1.1.1.1:~

上传到hdfs:hadoop fs -put 文件目录或文件路径

运行:hadoop jar xxxx.jar xxxx.WordCountOldAPI input output

input是hdfs上的文件目录,里面是输入数据

output目录不用创建

hadoop fs -ls: 查看hdfs上的文件

hadoop fs -cat 文件目录:查看结果文件内容

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值