现在Spark支撑四种办法从数据库中读取数据,这里以Mysql为例进行介绍。
一、不指定查询条件
这个办法连接MySql的函数原型是:
def jdbc(url: String, table: String, properties: Properties): DataFrame
咱们只需求供给Driver的url,需求查询的表名,以及连接表有关特点properties。下面是详细比如:
val url = "jdbc:mysql://www.iteblog.com:3306/iteblog?user=iteblog&password=iteblog"
val prop = new Properties()
val df = sqlContext.read.jdbc(url, "iteblog", prop )
println(df.count())
println(df.rdd.partitions.size)
咱们运转上面的程序,能够看到df.rdd.partitions.size输出成果是1,这个成果的意义是iteblog表的所有数据都是由RDD的一个分区处理的,所以说,假如你这个表很大,很可能会呈现OOM
WARN TaskSetManager: Lost task 0.0 in stage 1.0 (TID 14, spark047219):
java.lang.OutOfMemoryError: GC overhead limit exceeded at com.mysql.jdbc.MysqlIO.reuseAndReadPacket(MysqlIO.java:3380)
这种办法在数据量大的时分不主张运用。
二、指定数据