mac下Hadoop、HDFS、Spark环境的安装和搭建

环境搭建

相比之前搭建Hadoop环境的Windows系统的相对繁琐步骤,Mac下显得简单不少。
虽然我们需要搭建的是Spark环境,但是因为Spark依赖了Hadoop的HDFS以及YARN计算框架,当然还有类似软件包管理软件。

安装前必备

操作系统:Mac OS X
JDK:1.8.0_121
命令终端:iTerm2(Mac自带的命令终端也一样,只是配置环境参数需要到~/.bash_profile下添加,对于iTerm2需要到~/.zshrc中添加)
软件包管理工具:brew(能够方便的安装和卸载软件,使用brew cash还可以安装图形化的软件,类似于Ubuntu下的apt-get以及前端里的npm


安装Hadoop

上面步骤和条件如果都具备的话,就可以安装Hadoop了,这也是我唯一遇到坑的地方。

1. 配置ssh

配置ssh就是为了能够实现免密登录,这样方便远程管理Hadoop并无需登录密码在Hadoop集群上共享文件资源。
如果你的机子没有配置ssh的话,在命令终端输入ssh localhost是需要输入你的电脑登录密码的。配置好ssh后,就无需输入密码了。
第一步就是在终端执行ssh-keygen -t rsa -P '',之后一路enter键,当然如果你之前已经执行过这样的语句,那过程中会提示是否要覆盖原有的key,输入y即可。
第二步执行语句cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys用于授权你的公钥到本地可以无需密码实现登录。
理论上这时候,你在终端输入ssh lcoalhost就能够免密登录了。

但是,我在这里遇到了个问题,折腾了我蛮久。当我执行cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys的时候,总是出现如下警告zsh: permission denied: /Users/jackie/.ssh/authorized_keys
显然这是权限问题,我直接为ssh目录赋予777

  • 9
    点赞
  • 74
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
提供的源码资源涵盖了Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 适合毕业设计、课程设计作业。这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。 所有源码均经过严格测试,可以直接运行,可以放心下载使用。有任何使用问题欢迎随时与博主沟通,第一时间进行解答!
HadoopSpark是两个常用的大数据处理框架,它们可以一起使用来构建大规模数据处理和分析的环境。 要搭建HadoopSpark环境,可以按照以下步骤进行: 1. 安装Java:首先需要安装Java开发工具包(JDK),因为HadoopSpark都是基于Java开发的。你可以从Oracle官网下载适合你操作系统的JDK版本,并按照官方文档进行安装。 2. 下载Hadoop:访问Apache Hadoop官方网站,下载最新的稳定版本。解压缩下载的文件到你选择的目录。 3. 配置Hadoop:进入Hadoop解压缩后的目录,编辑`etc/hadoop/hadoop-env.sh`文件,设置JAVA_HOME为你安装的JDK路径。然后,根据你的需求,修改`etc/hadoop/core-site.xml`和`etc/hadoop/hdfs-site.xml`等配置文件,配置Hadoop集群的相关参数。 4. 启动Hadoop:在Hadoop解压缩后的目录中,使用命令`bin/hadoop namenode -format`初始化Hadoop文件系统。然后,使用命令`sbin/start-dfs.sh`启动Hadoop分布式文件系统(HDFS)。 5. 下载Spark:访问Apache Spark官方网站,下载最新的稳定版本。解压缩下载的文件到你选择的目录。 6. 配置Spark:进入Spark解压缩后的目录,复制`conf/spark-env.sh.template`文件并重命名为`conf/spark-env.sh`。编辑`conf/spark-env.sh`文件,设置JAVA_HOME为你安装的JDK路径。然后,根据你的需求,修改`conf/spark-defaults.conf`等配置文件,配置Spark集群的相关参数。 7. 启动Spark:在Spark解压缩后的目录中,使用命令`sbin/start-all.sh`启动Spark集群。 至此,你已经成功搭建HadoopSpark环境

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值