整理系列-20161111-Spark学习周记_2

11 篇文章 0 订阅
8 篇文章 0 订阅
刚才那篇有bug呀,一按删除键/回车键就闪退。我可以上报CSDN技术组吗?估计是遇到EOF了(我猜)。

2016.02.07

  • Eclipse在Linux中的使用:
    前后台切换:
    (1) Eclipse &
    (2) 已经在前台执行的程序,可以先ctrl+z,再bg %num(作业编号)
    (3)Jobs 可以知道后台运行的程序,将后台job切换到前台fg %1(即回到前台)
  • 安装插件:
    hadoop2x-eclipse-plugin.zip\release复制到$(eclipse_home)\plugin
  • 使用ant插件:
<project name=”hadoopdemo2” basedir=”.” default=”package”>
    <target name=”prepare”>
        <delete dir=”${basedir}/build/classes”/>
        <mkdir dir=”${basedir}/build/classes”/>
    </target>
    <path id=”path1”>
        <fileset dir=”${basedir}/lib”>
            <include name=”*.jar”/>
        </fileset>
    </path>
    <target name=”compile” depends=”prepare”>
        <javac includeantruntime=”true” 
            srcdir=”${basedir}/srcdestdir=”${basedir}/build/classesclasspathref=”path1”/>
    </target>
    <target name=”package” depends=”compile”>
        <jar destfile=”${base}/lib/My,jarbasedir=”${basedir}/build/classes”/>
    </target>
</project>//validate out dir exists
Configuration conf = new Configuration();
FileSystem fs = FileSystem.get(conf);
Path path = new Path(“/hadoop/it/out”);
if(fs.exists(path)){
    fs.delete(path, true);
}
path = new Path(“/tmp”);
if(fs.exists(path)){
    fs.delete(path, true);
}

2016.02.15

项目中遇到的问题

U盘挂载

fdisk -l # 查看U盘目录
sudo mount -t # vfat /dev/sdb1 /mnt/usb 挂载目录
umount /dev/sdb1 # 卸载

Hadoop & Spark安装过程

  • 官网下载
  • mv至 ~/Downloads
  • 在/usr/soft下tar -zxvf
  • /etc/environment 添加JAVA_HOME / HADOOP_INSTALL / SPARK_HOME / PATH
  • cd /etc; source environment或者sudo reboot
  • spark-shell –master local[4]

Spark无法启动

  • 问题:
    曾经的坑一一踩过
  • 原因分析:
    JAVA内存泄露
  • 解决方案:
    将虚拟机内存调大至2G,再重试
  • 最终效果:
    怕什么
    完美解决!

各种不同的模式实践:

A)重要的四个文件:(重要的事情说两遍!!)
(1) Core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost</value>
    </property>
</configuration>

(2) Hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

(3) Mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

(4) Yarn-site.xml

<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>localhost</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce-shuffle</value>
    </property>
</configuration>

B)安装ssh

sudo apt-get install ssh
sudo apt-get search ssh

C)生成非对称加密

ssh-keygen -t rsa -P ‘’ -f ~/.ssh/id_rsa

D)生成授权文件

cat id_rsa.pub >> authorized_keys

E)登录localhost

ssh localhost

于是终于把之前计算机系统结构上讲的那些ssh内容又复习了一遍,and终于看懂了每个option的实际含义,感动!

F)格式化hdfs文件系统

Hadoop namenode -format

然后!!出现了神级报错!!
6.png
检查path发现了致命伤!
HADOOP_INSTALL下的binsbin都要添加到path中去。
7.png
8.png
完美!
然而namenode挂了!
9.png
namenode:
10.png
resource manager:
11.png
关闭时的报错:
12.png
在独立模式转换为伪分布模式的过程中忘记格式化了!!打脸了!!
「整理感想:好了,这段我也不知道发生了什么。。==我记得后面有正常的整理版本。。实在看不明白。」
13.png
Happy ending!
14.png
感谢:
chillon_m.hadoop伪分布式安装.2016.02.15
G)利用hadoop_pseudo中的配置文件启动:

start-dfs.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo/
start-yarn.sh --config $HADOOP_INSTALL/etc/hadoop_pseudo/

H)查看效果:

jps

I)查看文件:

出错了!这是本地的文件系统?

15.png

16.pn

这样才对!所以,
export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop_pseudo\

之后的文件操作就和Linux下的相同了!

Hadoop fs -ls / 
Hadoop fs -mkdir usr
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值