scala执行linux shell,Scala的REPL Shell的调用

最近突然对spark的spark-shell发生了兴趣

它是如何启动scala的REPL的,并且在此前写入了常用的环境变量的呢?

通过查看spark的源码,找到了SparkILoop.scala

import scala.tools.nsc.interpreter.{JPrintWriter, ILoop}

/**

*  A Spark-specific interactive shell.

*/

class SparkILoop(in0: Option[BufferedReader], out: JPrintWriter)

extends ILoop(in0, out) {

def this(in0: BufferedReader, out: JPrintWriter) = this(Some(in0), out)

def this() = this(None, new JPrintWriter(Console.out, true))

def initializeSpark() {

intp.beQuietDuring {

processLine("""

@transient val sc = {

val _sc = org.apache.spark.repl.Main.createSparkContext()

println("Spark context available as sc.")

_sc

}

""")

processLine("""

@transient val sqlContext = {

val _sqlContext = org.apache.spark.repl.Main.createSQLContext()

println("SQL context available as sqlContext.")

_sqlContext

}

""")

processLine("import org.apache.spark.SparkContext._")

processLine("import sqlContext.implicits._")

processLine("import sqlContext.sql")

processLine("import org.apache.spark.sql.functions._")

}

}

...

}

可以看出SparkILoop继承自scala.tools.nsc.interpreter.ILoop

紧接着着看了ILoop的api doc

终于找到了启动ILoop的方法:

import scala.tools.nsc.interpreter.ILoop

import scala.tools.nsc.Settings

val loop = new ILoop

loop.process(new Settings)

Scala 的详细介绍:请点这里

Scala 的下载地址:请点这里

0b1331709591d260c1c78e86d0c51c18.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值