java 读取db3 数据库_JDBC java数据连接 读取properties 数据库连接池 预编译

1.创建连接,下载MySQL驱动(JDBC接口的实现类,就是一个jar包)

public classDemo01 {public static voidmain(String[] args)throwsClassNotFoundException, SQLException {//1. 注册驱动 告诉虚拟机使用的是哪个数据库软件

Class.forName("com.mysql.jdbc.Driver");//2. 获取连接对象

Connection conn = DriverManager.getConnection("jdbc:mysql://localhost:3306/newdb3", "root", "root");

System.out.println(conn);//3. 创建SQL执行对象

Statement stat =conn.createStatement();//4. 执行SQL语句

String sql = "create table jdbct1 (id int primary key,name varchar(10))";

stat.execute(sql);

System.out.println("执行完成!");//5. 关闭资源

conn.close();

}

}

public classDemo02 {public static void main(String[] args) throwsClassNotFoundException, SQLException {

Class.forName("com.mysql.jdbc.Driver");

Connection conn= DriverManager.getConnection("jdbc:mysql://localhost:3306/newdb3", "root", "root");

Statement stat=conn.createStatement();

String sql= "drop table jdbct1";

stat.execute(sql);

System.out.println("执行完成");

conn.close();

}

}

public classDemo03 {public static void main(String[] args) throwsClassNotFoundException, SQLException {

Class.forName("com.mysql.jdbc.Driver");

Connection conn= DriverManager.getConnection("jdbc:mysql://localhost:3306/newdb3", "root", "root");

Statement stat=conn.createStatement();//执行增删改SQL//String sql = "insert into emp(empno,ename) values(100,'Tom')";//String sql = "update emp set ename='Jerry' where empno=100";//String sql = "delete from emp where empno=100";//stat.executeUpdate(sql);//执行查询SQL

String sql = "select ename,sal,job from emp";//查询到的结果装进了rs对象中

ResultSet rs =stat.executeQuery(sql);//遍历结果集对象获取数据

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我了解到您想了解如何通过JDBC连接MySQL数据库并使用Spark DataFrame进行数据操作。 首先,您需要在Spark应用程序中引入相应的JDBC驱动程序。如果您使用MySQL数据库,则可以通过以下方式引入MySQL驱动程序: ```scala // Scala val spark = SparkSession.builder() .appName("JDBC example") .config("spark.master", "local") .getOrCreate() // Add MySQL JDBC driver spark.sparkContext.addJar("/path/to/mysql-connector-java.jar") ``` ```java // Java SparkSession spark = SparkSession.builder() .appName("JDBC example") .config("spark.master", "local") .getOrCreate(); // Add MySQL JDBC driver spark.sparkContext().addJar("/path/to/mysql-connector-java.jar"); ``` 接下来,您需要指定MySQL数据库连接参数,例如URL、用户名和密码等。以下是一个示例: ```scala // Scala val jdbcUrl = "jdbc:mysql://localhost:3306/mydatabase" val connectionProperties = new Properties() connectionProperties.put("user", "myuser") connectionProperties.put("password", "mypassword") ``` ```java // Java String jdbcUrl = "jdbc:mysql://localhost:3306/mydatabase"; Properties connectionProperties = new Properties(); connectionProperties.put("user", "myuser"); connectionProperties.put("password", "mypassword"); ``` 现在,您可以使用Spark DataFrame API来读取MySQL数据库中的数据。以下是一个示例: ```scala // Scala val df = spark.read.jdbc(jdbcUrl, "mytable", connectionProperties) df.show() // Filter data val filteredDf = df.filter($"age" > 30) filteredDf.show() // Write data filteredDf.write.jdbc(jdbcUrl, "filtered_table", connectionProperties) ``` ```java // Java Dataset<Row> df = spark.read().jdbc(jdbcUrl, "mytable", connectionProperties); df.show(); // Filter data Dataset<Row> filteredDf = df.filter(col("age").gt(30)); filteredDf.show(); // Write data filteredDf.write().jdbc(jdbcUrl, "filtered_table", connectionProperties); ``` 以上示例演示了如何使用Spark DataFrame API读取、过滤和写入MySQL数据库中的数据。您可以根据自己的需求进行相应的操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值