- 博客(3)
- 资源 (11)
- 问答 (1)
- 收藏
- 关注
原创 在hadoop环境下用spark跑wordcount(没有安装scala)
在spark和hdfs上运行wordcount:一、单机单节点安装spark:1、解压2、配置conf,cp,, spark-env.sh,写路径,sbin跑动[root@localhost spark-1.6.1-bin-hadoop1]# cd sbin[root@localhost sbin]# lsslaves.sh st
2016-04-29 23:20:17 2181 2
原创 刚配置完hadoop文本
因为hadoop的配置上进行了一些修改(core,hdfs,mapred,-site.xml),刚配置完hadoop文本后一、[root@hadoop Desktop]# jps10111 SecondaryNameNode7811 TaskTracker9900 NameNode10007 DataNode10190 JobTracker10302 Jps二、
2016-04-29 22:37:31 379
原创 有趣的单机单节点现象
建立了hadoop的伪分布,但总是上传0node文档,即空的文本,关了防火墙,安全模式,又没有出什么错,start的都有,jps也没问题于是只能断开主从节点的链接,返回单机单节点,在单机单节点下:一、[root@hadoop conf]# start-all.shstarting namenode, logging to /usr/lib/hadoop/hadoop-1.2.1/lib
2016-04-29 21:30:54 897
U8125 SchemaDoc.chm
2020-04-15
06-助力AI生态布局,昇腾云服务器案例解读.pdf
2019-11-14
数据结构与算法分析pdf
2017-06-04
TA创建的收藏夹 TA关注的收藏夹
TA关注的人