python使用spark-sql读取数据并可视化_[Spark][Python]Spark 访问 mysql , 生成 dataframe 的例子:...

这篇博客展示了如何使用Python的Spark SQL模块连接到MySQL数据库,读取数据并将其转换为DataFrame。通过示例代码,展示了从数据库加载数据、创建DataFrame以及执行数据计数的操作,进一步说明了在大数据分析中Spark SQL的功能。
摘要由CSDN通过智能技术生成

[Spark][Python]Spark 访问 mysql , 生成 dataframe 的例子:

mydf001=sqlContext.read.format("jdbc").option("url","jdbc:mysql://localhost/loudacre")\

.option("dbtable","accounts").option("user","training").option("password","training").load()

In [10]: mydf001=sqlContext.read.format("jdbc").option("url","jdbc:mysql://localhost/loudacre")\

....: .option("dbtable","accounts").option("user","training").option("password","training").load()

17/10/03 05:59:53 INFO hive.HiveContext: default warehouse location is /user/hive/warehouse

17/10/03 05:59:53 INFO hive.HiveContext: Initializing metastore client version 1.1.0 using Spark classes.

17/10/03 05:59:53 INFO client.ClientWrapper: Inspected Hadoop version: 2.6.0-cdh5.7.0

17/10/03 05:59:53 INFO client.ClientWrapper: Loaded org.apache.hadoop.hive.shims.Hadoop23Shims for Hadoop version 2.6.0-cdh5.7.0

17/10/03 05:59:56 INFO hive.metastore: Trying to connect to metastore with URI thrift://localhost.localdomain:9083

17/10/03 05:59:56 INFO hive.metastore: Opened a connection to metastore, current connections: 1

17/10/03 05:59:56 INFO hive.metastore: Connected to metastore.

17/10/03 05:59:56 INFO session.SessionState: Created local directory: /tmp/c2d22d09-7425-4bb3-94c3-39cb32267c7d_resources

17/10/03 05:59

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值