Alluxio(Tachyon) 集群独立运行模式安装遇到的问题(非root用户)

1、如果启动报sudo相关命令错误,是因为启动用户未在sudoers里面,需要将用户添加到此文件中,添加方法搜下root位置,再后面添加即可。

内容如下:

root ALL=(ALL) ALL

hadoop ALL=(ALL) ALL

同时把此文件中的:#Defaults    requiretty 注释掉。


2、经过上面的设置之后,通过 alluxio-start.sh all 时,又报了另外一个错误,

 [sudo] password for hadoop

 的错误,解决方法如下:

hadoop ALL=(ALL)  NOPASSWD:ALL

即可。


3、再次通过 alluxio-start.sh all 命令启动整个集群,但是启动worker时报错,报错内容:Pseudo-terminal will not be allocated because stdin is not a terminal。解决方法如下:

更改:alluxio\bin\alluxio-workers.sh  的44行内容

原始内容为:

nohup ssh -o ConnectTimeout=5 -o StrictHostKeyChecking=no -t ${worker} ${LAUNCHER} \

 改成如下:

nohup ssh -o ConnectTimeout=5 -o StrictHostKeyChecking=no -tt  $ {worker}  ${LAUNCHER} \


4、经过上面的处理之后,通过 alluxio-start.sh all 命令再次启动集群时,Worker上的 AlluxioWorker 进程还是没有,然后在 alluxio-1.2.0/logs 目录下有一个 worker.out 文件,其中的内容如下:

which: no java in (/sbin:/bin:/usr/sbin:/usr/bin)

dirname: 缺少操作数

请尝试执行"dirname --help"来获取更多信息。

ALLUXIO_RAM_FOLDER was not set. Using the default one: /mnt/ramdisk

Formatting RamFS: /mnt/ramdisk (1gb)

Starting worker @ HDFS-YARN-2. Logging to /usr/alluxio-1.2.0/logs

从错误信息中,可以看出,在启动脚本中运行which java 时报错了,然后找到报错的脚本,脚本内容如下:


但是,我们已经在 /etc/profile 中已经配置了 JAVA_HOME,并将 JAVA_HOME/bin 加入到了 PATH 中了,如图:


,并且在命令行中单独运行 which java 是没有问题的。

[hadoop@HDFS-YARN-2 logs]$ which java

/usr/java/jdk1.7.0_55/bin/java

[hadoop@HDFS-YARN-2 logs]$ 

并且我又在 bin/alluxio-env.sh中,又配置了 JAVA_HOME 了,可为什么不行呢,原因还在上面的脚本中,可以看到其先是进行Java是否存在的判断,之后再进行conf/alluxio-env.sh脚本的运行,所以不管再怎么在alluxio-env.sh中设置JAVA_HOME已经没有用了。解决方法:

将两处的内容对调,如下图:


再次运行 alluxio-start.sh all 脚本,此时,整个集群启来了。




Tachyon是一个分布式内存文件系统,可以在集群里以访问内存的速度来访问存在tachyon里的文件。把Tachyon是架构在最底层的分布式文件存储和上层的各种计算框架之间的一种中间件。主要职责是将那些不需要落地到DFS里的文件,落地到分布式内存文件系统中,来达到共享内存,从而提高效率。同时可以减少内存冗余,GC时间等。        特性:类 Java 的文件 API兼容性:实现 Hadoop 文件系统接口可插入式的底层文件系统内建 Raw 原生表的支持基于 Web 的 UI 提供命令行接口Tachyon 架构:与 HDFS 的比较:        Hadoop足够快吗?美国加州大学伯克利分校的AMPLab基于Hadoop的核心组件开发出一个更快的版本Tachyon。AMPLab从底层重建了Hadoop平台,“没有最快,只有更快”。        AMPLab在大数据领域最知名的产品是Spark,它是一个内存中并行处理的框架,Spark的创造者声称:使用Shark运行并行处理Job速度要比MapReduce快100倍。又因为Spark是在内存运行,所以Shark可与Druid或者SAP's HANA系统一较高下。Spark也为ClearStory下一代分析和可视化服务提供处理引擎。如果你喜欢用Hive作为Hadoop的数据仓库,那么你一定会喜欢Shark,因为它代表了“Hive on Spark”。       AMPLab的最新目标就是Hadoop分布式文件系统(HDFS),不过HDFS在可用性和速度方面一直受人诟病,所以AMPLab创建了Tachyon( 在High Scalability上常夺目,引起了Derrick Harris的注意)。       当然,AMPLab并不是第一个对HDFS提出质疑的组织,同时也有很多商业版本可供选择,像Quantcast就自己开发了开源文件系统,声称其在运行大规模文件系统时速度更快、更高效。诚然,AMPLab所做的工作就是打破现有商业软件的瓶颈限制。如果碰巧破坏了现状,那么就顺其自然吧!不过,对于用户来说,AMPLab只是为那些寻找合适工具的人员提供了一种新的选择,AMPLab的合作伙伴和赞助商包括谷歌,Facebook,微软和亚马逊网络服务,它们当然常乐意看到这些新技术,如果很有必要的话。       AMPLab的其他项目包括PIQL,类似于一种基于键/值存储的SQL查询语言;MLBase,基于分布式系统的机器学习系统;Akaros,一个多核和大型SMP系统的操作系统;Sparrow,一个低延迟计算集群调度系统。Tachyon运行在如下任意平台上: 标签:分布式  文件系统
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值