Databricks Runtime 包含Azure SQL 数据库的 JDBC 驱动程序,本文介绍如何使用数据帧 API 连接到使用 JDBC 的 SQL 数据库,通过 JDBC 接口进行的读取操作和更新操作。
在Databricks的Notebook中,spark是Databricks内置的一个SparkSession,可以通过该SparkSession来创建DataFrame、引用DataFrameReader和DataFrameWriter等。
一,创建JDBC URL
本文适用Python语言和JDBC驱动程序来连接Azure SQL Database,
jdbcHostname = "Azure SQL Database"
jdbcDatabase = "db_name"
jdbcPort = 1433
jdbcUsername="user_name"
jdbcPassword="user_password"
jdbcUrl = "jdbc:sqlserver://{0}:{1};database={2}".format(jdbcHostname, jdbcPort, jdbcDatabase)
connectionProperties = {
"user" : jdbcUsername,
"password" : jdbcPassword,
"d