杂
todo
安于此生_
这个作者很懒,什么都没留下…
展开
-
hadoop学习
文章目录实现机制实现机制####### hdfs ###########hadoop fs -put 文件名 路径url # 传文件hadoop fs -get 文件名 路径url # 下载文件###### mapreduce #########hadoop -jar 名字.jar pi 5 5 # 参数(5个map。5个reduce)# 可以指定输入...转载 2018-09-23 15:28:07 · 275 阅读 · 0 评论 -
hive和
Hive和HbaseHive和Hbase是两种基于Hadoop的不同技术–Hive是一种类SQL的引擎,并且运行MapReduce任务,Hbase是一种在Hadoop之上的NoSQL 的Key/vale数据库。当然,这两种工具是可以同时使用的。就像用Google来搜索,用FaceBook进行社交一样,Hive可以用来进行统计查询,HBase可以用来进行实时查询,数据也可以从Hive写到Hba...转载 2018-09-25 10:37:04 · 178 阅读 · 0 评论 -
hadoop第一天 基本概念、伪分布式集群安装
解决的问题:海量数据存储(HDFS)海量数据分析(MapReduce)资源调度(YARN)google的是(GFS、MapReduce、BigTable)原创 2018-09-22 19:30:53 · 151 阅读 · 0 评论 -
利用tomcat发布webservice
1、下载jax-ws依赖包 说明:JAX-WS 2.0的全称为 Java API for XML-Based Webservices (JAX-WS) 2.0 JAX-WS 2.0 是对 JAX-RPC 1.0 规范的扩展,是 JAX-RPC 1.1 的后续版本, JAX-RPC 2.0 标准发布不久后便被重新命名为 JAX-WS 2.0。 JAX-WS 2.0 是面原创 2017-03-31 19:59:17 · 1579 阅读 · 0 评论 -
myeclipse->project->clean…到底有什么用
其实主要作用就是把编译好的class等文件删除,激活eclipse的自动编译。解决的问题就是,有时候你把代码改了,但因为一些未知的原因,eclipse的自动编译没有成功,导致运行结果不正常。当你的工程出现一些莫名其妙的错误时(当然不是语法错误),用一下这个功能,效果不错的链接:https://zhidao.baid转载 2017-03-31 19:52:11 · 371 阅读 · 0 评论