![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Hadoop
Eyeshort
这个作者很懒,什么都没留下…
展开
-
HDFS_API基本应用
实验 目的 要求 目的: 了解HDFS文件系统; 掌握HDFS的架构及核心组件的职能; 掌握HDFS数据的读写操作; HDFS常用操作(Shell。Java API) 了解Hadoop2.0中HDFS相关的新特性 实 验 环 境 ...原创 2019-05-28 08:04:32 · 654 阅读 · 0 评论 -
Hadoop_MapReduce的基本应用
实验 目的 要求 目的: 了解MapReduce 掌握MapReduce编程模型 掌握MapReduce常见核心API编程 MapReduce开发常用功能 实 验 环 境 Java jdk 1.8; apache-maven...原创 2019-05-28 08:04:59 · 407 阅读 · 0 评论 -
HBASE_API的应用
实验 目的 要求 目的: 掌握HBase编程; 搭建HBase编程环境; 配置Myeclipse引入对应的jar包; 实 验 环 境 Java ...原创 2019-05-28 08:05:17 · 179 阅读 · 0 评论 -
Hive的基本应用
实验 目的 要求 目的: 了解Hive架构,掌握Hive环境部署; 了解Hive与Hadoop及传统关系型数据库的对比; 掌握Hive中DDL和DML的使用; 了解Hive高级应用; Hive内置函数使用及Hive自定义函数; 了解Hive常用优化策略; ...原创 2019-05-28 08:06:09 · 357 阅读 · 0 评论 -
Spark集群启动时worker节点启不起来
在spark集群中使用命令:sbin/start-all.sh启动集群时报错:starting org.apache.spark.deploy.master.Master, logging to /home/yxk/cluster/spark/logs/spark-yxk-org.apache.spark.deploy.master.Master-1-linux.outyxk@l...原创 2019-06-07 16:54:15 · 4460 阅读 · 0 评论 -
Sqoop的基础应用
实验目的要求了解ET了工具Sqoop; 学会安装配置Sqoop; 学会使用数据迁移框架Sqoop; 使用Sqoop导入MySQL到HDFS和Hive; 使用Sqoop导出HDFS数据到MySQL;实验环境Java jdk 1.7; apache-maven-3.6.0; Myeclipse C10; CDH Hadoop集群; 已配置MySQL数据库; 已配置Sqoop...原创 2019-06-18 08:36:51 · 237 阅读 · 0 评论 -
Spark的基础应用
目的要求搭建Spark集群环境; Spark集群的启动、浏览与关闭; 使用Eclipse编写Spark应用程序包; 如何运行Spark任务;实验环境Java jdk 1.7; apache-maven-3.6.0; Eclipse; Apache_Hadoop集群; 安装配置Spark 具体规划: 主机名 IP地址 服务...原创 2019-06-18 08:44:50 · 278 阅读 · 0 评论