快速开始使用Spark和Alluxio

原文[英]:http://www.alluxio.com/2016/04/getting-started-with-alluxio-and-spark/

简介

Alluxio是一个基于内存的分布式文件系统,它是架构在底层分布式文件系统和上层分布式计算框架之间的一个中间件,主要职责是以文件形式在内存或其它存储设施中提供数据的存取服务。

在大数据计算领域,Spark正成为耀眼的新星。当Spark与其大量的生态系统结合使用时,更加能够发挥出超长的能力。Alluxio, 原名Tachyon, 为Spark提供了可靠的数据共享层, 使Spark之行应用逻辑而Alluxio用于处理存储。例如, 全球金融集团 Barclays made the impossible possible,通过Alluxio和Spark融入其体系架构。 Baidu 分析petabytes级别的数据得到 30x performance improvements ,通过使用基于 Alluxio 和 Spark 的新架构。 通过 Alluxio 1.0 release and 和即将到来的 Spark 2.0 release, 我们建立了一个简单而清晰的方式,把两者整合起来。

本文针对Alluxio 和 Spark的新的使用者,在单机上如何配置、使用大数据能力提供帮助。后续,我们将进一步将Spark和Alluxio扩展到分布式集群上。

本文内容

  • 如何在本地机器上设置 Alluxio 和 Spark。
  • 使用 Alluxio 和 Spark 的优势。
    • Data sharing between multiple jobs: Only one job needs to incur the slow read from cold data
    • Resilience against job failures: Data is preserved in Alluxio across job failures or restarts
    • Managed storage: Alluxio optimizes the utilization of allocated storage across applications
  • 权衡是否使用基于内存的 Spark application storage 还是 Alluxio storage。
  • 如何连接 Alluxio 到外部存储, 如 S3。

开始

为了进行本教程, 我创建一个工作目录并且赋给环境变量。这使在不同的项目目录中引用代码变得更为容易。

  1. mkdir alluxio-spark-getting-started
  2. cd alluxio-spark-getting-started
  3. export DEMO_HOME=$(pwd)

为了启动 Alluxio 和 Spark, 首先需要下载这两个软件的分发版。本文中, 我们使用 Alluxio 1.0.1 和 Spark 1.6.1, 使用Alluxio 1.0+ 和 Spark 1.0+的步骤是一样的。

设置 Alluxio

下载, 提取, 和启动一个预编译的 Alluxio,网址: Alluxio website:

  1. cd $DEMO_HOME
  2. wget http://alluxio.org/downloads/files/1.0.1/alluxio-1.0.1-bin.tar.gz
  3. tar xvfz alluxio-1.0.1-bin.tar.gz
  4. cd alluxio-1.0.1
  5. bin/alluxio bootstrap-conf localhost
  6. bin/alluxio format
  7. bin/alluxio-start.sh local

验证一下 Alluxio 是否运行正常,访问: localhost:19999/home.

设置 Spark

下载预编译的Spark版本。Spark需要Alluxio客户端 jar软件包,连接 Spark 到 Alluxio; 现在是时候整合两个系统。

下载完后, 创建一个新的Spark environment配置,拷贝conf/spark-env.sh.template 到 conf/spark-env.sh。然后,你可以让Alluxio client jar可用,通过将其加到文件conf/spark-env.sh的SPARK_CLASSPATH 项中; 确认你的环境的path配置是正确的。

  1. cd $DEMO_HOME
  2. wget http://apache.mirrors.pair.com/spark/spark-1.6.1/spark-1.6.1-bin-hadoop2.4.tgz
  3. tar xvfz spark-1.6.1-bin-hadoop2.4.tgz
  4. wget http://alluxio.org/downloads/files/1.0.1/alluxio-core-client-spark-1.0.1-jar-with-dependencies.jar
  5. cd spark-1.6.1-bin-hadoop2.4
  6. cp conf/spark-env.sh.template conf/spark-env.sh
  7. echo 'export SPARK_CLASSPATH=/path/to/alluxio-core-client-spark-1.0.1-jar-with-dependencies.jar:$SPARK_CLASSPATH' >> conf/spark-env.sh

 

运行一个简单的例子

作为第一个例子, 我们运行Alluxio with Spark 从本地存储读取数据,来熟悉一下这两个系统整合后的使用方法。

注意,这种方式从Alluxio得到的性能提升是有限的; 本地存储的快速存取和OS buffer cache极大地帮助了磁盘数据的读取。 对于小的文件,有可能得到更低的效率,因为在执行期的通讯会增加开销。

示范数据

可以下载到一个从英文字典中随机创建的单词文件。

  1. cd $DEMO_HOME
  2. # compressed version
  3. wget https://s3.amazonaws.com/alluxio-sample/datasets/sample-1g.gz
  4. gunzip sample-1g.gz
  5. # uncompressed version
  6. wget https://s3.amazonaws.com/alluxio-sample/datasets/sample-1g

使用Spark

开启 spark-shell,如下面从Spark目录中启动。 可以在交互的shell中操作不通来源的数据,就像本地文件系统一样。

  1. cd $DEMO_HOME/spark-1.6.1-bin-hadoop2.4
  2. bin/spark-shell

在Spark中处理文件,统计文件中有多少行, 确认下载的示范数据文件在指定的目录中。

  1. val file = sc.textFile("/path/to/sample-1g")
  2. file.count()

使用Alluxio

Alluxio 也可以作为数据源。 你可以保存文件到Alluxio 或者在Alluxio上的数据运行其他的数据操作, 就像使用本地文件存储系统一样。

  1. val file = sc.textFile("/path/to/sample-1g")
  2. file.saveAsTextFile("alluxio://localhost:19998/sample-1g")
  3. val alluxioFile = sc.textFile("alluxio://localhost:19998/sample-1g")
  4. alluxioFile.count()

你可以看到两个操作的结果的性能很接近,但在大文件时Alluxio的表现会更好。

与Alluxio存储数据在内存然后存取处理一样,Spark 也使用Spark的 application memory,通过cache() API实现。但是,与Alluxio对比,优劣势是不一样的。

如果你使用一个 1 GB 文件, 你将看到一个提示:缓存RDD在内存的空间不够。这是因为spark-shell缺省启动时使用 1 GB 内存,并且仅仅分配那么大的空间用于存储。

  1. val file = sc.textFile("/path/to/sample-1g")
  2. file.cache()
  3. file.count()
  4. file.count()

你可以增加驱动的内存,然后重试:

  1. cd $DEMO_HOME/spark-1.6.1-bin-hadoop2.4
  2. bin/spark-shell --driver-memory 4g

你可以看见第二个count的执行更快一些。但是,Spark缓存的好处是有限的,因为数据存储在 JVM 内存中。在特殊情况下, 数据集更大的情况下, 还有可能引起下降。除此之外,cache 操作不能存储 raw data, 因此你将需要比文件要大的内存。

你可以下载一个 2 GB 的示范数据文件:

  1. cd $DEMO_HOME
  2. # compressed version
  3. wget https://s3.amazonaws.com/alluxio-sample/datasets/sample-2g.gz
  4. gunzip sample-2g.gz
  5. # uncompressed version
  6. wget https://s3.amazonaws.com/alluxio-sample/datasets/sample-2g

Spark中缓存数据

作为一个简单的例子, 我们在 spark-shell 分配4 GB内存,然后处理这个 2 GB 文件. 由于存储在JVM堆上的Java对象比实际数据要大, Spark 将不能存储全部数据集在内存中。这将显著降低job的执行性能,甚至比从磁盘上读取还要花费更长的时间。

  1. val file = sc.textFile("/path/to/sample-2g")
  2. file.cache()
  3. file.count()
  4. file.count()

一个变通的方案是将对象以序列化方式存储,将比 Java objects占用更少的存储空间。 第二个count 明显更快一些, 数据必须存储在Spark process中,并且退出后将不再可用。此外, 这很难完全得到Spark’s 存储和执行的分片优势,除非根据处理工作情况手动调节配置参数。

  1. import org.apache.spark.storage.StorageLevel
  2. val file = sc.textFile("/path/to/sample-2g")
  3. file.persist(StorageLevel.MEMORY_ONLY_SER)
  4. file.count()
  5. file.count()

Alluxio缓存数据

Alluxio可以解决使用Spark的执行存储遇到的上述问题。 在Alluxio上运行同样的例程, 我们首先需要增加Alluxio管理的内存总量。修改 Alluxio’的行 conf/alluxio-env.sh 从 1GB 到 3GB。 这基本上与spark-shell 中的 4 GB 内存相当 (Alluxio 3 GB + spark-shell 1 GB). 然后重新启动  Alluxio 让配置参数生效。

  1. cd $DEMO_HOME/alluxio-1.0.1
  2. vi conf/alluxio-env.sh
  3.  
  4. # Modify the memory size line to 3GB in the file, then save and exit
  5. export ALLUXIO_WORKER_MEMORY_SIZE=${ALLUXIO_WORKER_MEMORY_SIZE:-3GB}
  6.  
  7. bin/alluxio-start.sh local

然后, 我们加载同样的文件到 Alluxio 系统。可以通过 Alluxio shell来容易地完成, 或者通过spark-shell 来进行。

  1. cd $DEMO_HOME/alluxio-1.0.1
  2. bin/alluxio fs copyFromLocal ../sample-2g /sample-2g
  3. cd $DEMO_HOME/spark-1.6.1-bin-hadoop2.4
  4. bin/spark-shell

尝试运行之前同样的例子, 但使用这个更大的文件。

  1. val alluxioFile2g = sc.textFile("alluxio://localhost:19998/sample-2g")
  2. alluxioFile2g.count()
  3. val alluxioFile1g = sc.textFile("alluxio://localhost:19998/sample-1g")
  4. alluxioFile1g.count()

结果对比

这里是运行的结果,使用 1 GB spark-shell 和 3 GB Alluxio,与只使用Spark时 4 GB spark-shell (lower is better)的情况对比。

 

imageedit_24_2141051996

 

imageedit_22_3012070734

 

远程数据访问

现在,我们已经突破了将 Alluxio 和 Spark整合在一起的障碍, 我们将进一步尝试更接近生产环境下的例子。这个例子中,我们将使用Amazon的 S3 存储服务作为数据源, 这也很容易替换为其他的存储系统。

很多时候, 数据并不在本地计算机上而是保存在共享存储上。这种情况下, Alluxio 可以透明地连接到远程存储的优势立刻体现出来。这意味使用另一个客户端或者改变文件路径的时候,可以接着使用 Alluxio path,就像保存在一个命名空间下一样。

除此以外, 很多人可能查询同一个数据集, 例如一个数据团队的成员。 使用 Alluxio 摊销了从S3获取数据的昂贵成本,可以将其保存在Alluxio的存储空间中,并且减少了内存消耗。采用这种方法,只要一个人访问了数据,后续的调用都会在Alluxio的内存中进行。

访问S3中的数据集

我们来看一下如何访问S3中的数据集。

首先, 更新Alluxio使用想要的数据仓储。 一个公共的,只读的 S3 bucket中的样本数据集位于  s3n://alluxio-sample/datasets。

然后, 指定S3 credentials参数 到 Alluxio,通过在 alluxio-env.sh 中设置环境变量来实现。

访问S3 bucket这个数据不需要权限, 但需要 AWS 用户账号才能访问 S3. 保存您的keys 环境变量 AWS_ACCESS_KEY 和 AWS_SECRET_KEY, 然后更新 alluxio-env.sh.

  1. cd $DEMO_HOME/alluxio-1.0.1
  2. export AWS_ACCESS_KEY=YOUR_ACCESS_KEY
  3. export AWS_SECRET_KEY=YOUR_SECRET_KEY
  4. vi conf/alluxio-env.sh
  5.  
  6. # Modify the ALLUXIO_JAVA_OPTS to add the two parameters
  7. export ALLUXIO_JAVA_OPTS+="
  8. -Dlog4j.configuration=file:${CONF_DIR}/log4j.properties
  9. ...
  10. -Dfs.s3n.awsAccessKeyId=$AWS_ACCESS_KEY
  11. -Dfs.s3n.awsSecretAccessKey=$AWS_SECRET_KEY
  12. "

现在重启 Alluxio 系统让Alluxio Server获得需要的授权信息。然后,你可以直接通过 Alluxio 连接到 S3 bucket,通过使用 mount 操作来实现。这将使任何对 Alluxio 路径 /s3 的访问直接连接到S3 bucket。

  1. cd $DEMO_HOME/alluxio-1.0.1
  2. bin/alluxio-start local
  3. bin/alluxio fs mount /s3 s3n://alluxio-sample/datasets

你将需要添加 S3 credentials 到Spark 环境。如下,在 conf/spark-env.sh中添加下面的行:

  1. cd $DEMO_HOME/spark-1.6.1-bin-hadoop2.4
  2. vi conf/spark-env.sh
  3.  
  4. export SPARK_DAEMON_JAVA_OPTS+="
  5. -Dfs.s3n.awsAccessKeyId=$AWS_ACCESS_KEY
  6. -Dfs.s3n.awsSecretAccessKey=$AWS_SECRET_KEY
  7. "

如果只是简单地使用Spark,你可以如下方式在spark-shell中使用数据。你可能注意到,速度比本地磁盘慢了不少,因为这是通过网路远程访问的。 为了避免在后续调用中出现这个问题, 您可以缓存这个数据,但Spark memory需要至少与数据集一样大 (在使用serialized cache时需要更大), 并且数据需要缓存在每一个Spark context中,不能在不同的应用和用户间共享。注意,运行下面的例子将需要几分钟,取决于网络带宽的大小。您可以使用 100 MB 示例文件,在 s3n://alluxio-sample/datasets/sample-100m。

  1. val file = sc.textFile("s3n://alluxio-sample/datasets/sample-1g")
  2. file.count()
  3. val cachedFile = sc.textFile("s3n://alluxio-sample/datasets/sample-1g")
  4. cachedFile.cache()
  5. cachedFile.count()

使用 Alluxio, 你可以存取在S3 下的数据。你也许注意到,执行效率一样, 因为在两种情况下都是第一次读取远程S3上的数据。但是, 对于后续的读取来说, 在Alluxio效率更好,因为数据存储在本地内存上了。 你可以想象,对于那些非同寻常的计算负荷如数据处理流水线或者递归的机器学习, 数据存取的次数会远远多于一次。

S3中的数据预取

为了减少第一次读取的成本,您可以预取远程的数据,通过Alluxio shell的load命令来完成,如下所示。

  1. cd $DEMO_HOME/alluxio-1.0.1
  2. bin/alluxio fs load /s3/sample-1g

如果不预取数据, 直接从 S3 装入数据到 Alluxio 将设置 partition size 为1,以确保文件被载入到Alluxio。但是,当读数据时, 可以按照适合的方式分区文件。

  1. val file = sc.textFile("alluxio://localhost:19998/s3/sample-1g", 1)
  2. file.count()
  3. val file = sc.textFile("alluxio://localhost:19998/s3/sample-1g", 8)
  4. file.count()

数据访问性能对比

这里的执行性能是通过 10 MB/s 网络连接到 S3测试的结果。Alluxio 和 Spark 设置为分配内存 3 GB 给Alluxio 和 1 GB 给 spark-shell, 与Spark 独立分配 4 GB 的结果 (下图中,数值越低越好)。

imageedit_20_4538102820

 

imageedit_18_4833158381

 

结论

这里介绍了 Alluxio 在 Spark上的运行和使用。后续将进行一些更深入的案例和 Alluxio 类似于 Spark的计算框架。 你希望下次看到那些内容,和哪些对你有帮助,可以电邮告诉我们: blogs@alluxio.com

转载于:https://my.oschina.net/u/2306127/blog/692983

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值