Linux--hadoop--jupyter-----27

这篇博客介绍了如何在Linux环境下操作Hadoop文件系统,包括创建目录、删除目录、上传和查看文件。同时,详细阐述了启动Hadoop DFS和YARN的过程。还提到了使用Jupyter Notebook进行Python编程,并在Spark环境中执行MapReduce任务进行数据统计分析,如WordCount。此外,解释了Scala的基础语法,如变量声明、循环和条件判断。
摘要由CSDN通过智能技术生成

hadoop fs -mkdir -p /user/hadoop  创建一个目录

hadoop fs -rm-r /user/hadoop  删除目录

hadoop fs -put data.txt  上传文件

hadoop fs -cat  data.txt   查看文件

exit() 退出
source 更新

start-dfs.sh 启动hadoop   三个Node

start-yarn.sh   两个Manager

jupyter notebook --ip python5  虚拟机里退出jupyter   Ctrl+c

在丘比特网址写代码,先运行环境代码

import os
import sys
spark_home = os.environ.get('SPARK_HOME',None)
if not spark_home:
    raise ValueError('SPARK_HOME enviroment variable is not set')
sys.path.insert(0,os.path.join(spark_home,'python'))
sys.path.insert(0,os.path.join(spark_home,'python/lib/py4j-0.10.4-src.zip'))
exec(open(os.path.join(spark_home,'python/pyspark/shell.py')).read())

等出现welcome to 就OK了,就可以在下面的框里面写代码了



map 将数据打散成你想要的格式

reduce 根据键值对进行统计

hadoop 存贮数据  MapReduce分析数据

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值