Java爬虫:大量抓取二手房信息并存入云端数据库过程详解(三)

这里详细讲一下将解析好的所有房源数据存入云端数据库的表中:
1、首先是获得数据库连接,Java提供了数据库链接的接口,但实现是由各个数据库提供者自己实现的,这里需要mysql提供的第三方包:mysql-connector-java-8.0.13.jar
、、新建一个类用于封装数据库处理的方法:

//封装数据库相关操作
public class OperationOfMySQL {
	
	//只创建一次链接
    Connection con;
    Statement state;
    
	public OperationOfMySQL() {
		super();
		this.con = connectionToDatabase();
		try {
		//state用于传入sql语句对数据库进行操作
			this.state = con.createStatement();
		} catch (Exception e) {
			System.out.println("链接失败!");
		}
	}

如上面的代码,创建对象时就创建连接:
connectionToDatabase()方法返回获得的数据库链接:

//返回数据库链接的方法
	private static Connection connectionToDatabase() {
		Connection con = null;
		//创建驱动对象
		try {
		Driver driver = new Driver();
		String url = cloud;
		Properties info = new Properties();
		//准备数据库链接信息
		info.put("user", "rds_repl");
		info.put("password", "123456");
		//获取数据库链接
	    con = driver.connect(url, info);
		}catch (SQLException e) {
			System.out.println("链接数据库失败!");
			return null;
		}
		System.out.println(con+"\n链接创建成功!");
		return con;
	}
	//cloud是加载云端驱动的数据库,格式为:
	//String cloud = "jdbc:mysql://服务器地址:端口号/数据库名?severTimzone=UTC";

、、关于云端数据库的地址和端口号这里就不贴出来了(云端和本地的数据库链接其实方法一样),值得注意的是,如果用的是数据库连接池有必要设置一下链接超时,虽然我并没有这样做。。。

PS:还有就是8.0版本加载驱动的类是 com.mysql.cj.jdbc.Driver;多了个“cj”,所以必须设置时区:severTimezone=UTC,5.0版本的不用,不然运行时会报错。(在此只是提醒一下,具体原因就不细说了);

Java是通过state对象传递sql字符串给数据库。由于数据库事先存在,所以需要的是建一张表来存储房屋信息,键表语句为:

//如果数据库中不存在表house1就创建一张
static private String SQLCreateTaleStr = "CREATE TABLE IF NOT EXISTS house1" 
	+ "("
	+ "title varchar(255) ,"
	+ "area double ,"
	+ "price varchar(64) ,"
	+ "unit_price double ,"
	+ "direction varchar(64),"
	+ "decoration varchar(64),"
	+ "houseStyle varchar(64) ,"
	+ "floor varchar(64),"
	+ "buildTime int(11) ,"
	+ "community varchar(64),"
	+ "location varchar(64) ,"
	+ "gdpperperson double"
	+ ")ENGINE = InnoDB DEFAULT CHARSET = utf8;";

然后写一个方法将房屋信息转换成sql插入表的语句:

//用于生成插入语句的方法,传入一个房子和表的名字
	public String insertStr(SecondHouse house) {
		String insert = "insert into house1"
				+ " values('" 
				+house.getElemName()+    "','"
				+house.getArea()+        "','"
				+house.getPrice()+       "','"
				+house.getUnit_price()+  "','"
				+house.getDirection()+   "','"
				+house.getDecoration()+  "','"
				+house.getHouseStyle()+  "','"
				+house.getFloor()+       "','"
				+house.getBuildTime()+   "','"
				+house.getCommunity()+   "','"
				+house.getLocation()+    "','"
				+0+                      "');";
		return insert ;
	}

PS;注意拼接字符串时的空格和标点,确保sql语句能够执行
然后是执行这写语句的方法:

//传入链接,进行对数据库的操作,传入二手房,写进数据库
	public void operationOnDtabase(String insertStr) {
		try {
		//获取执行sql语句动态创建表,即如果表不存在就创建一个
	    state.execute(SQLCreateTaleStr);
	    //执行插入语句
		state.executeUpdate(insertStr);
//		System.out.println(insertStr);
		}catch (SQLException e) {
			System.out.println("SQL语句执行失败!");
		}
		System.out.println("执行语句成功!");
	}

工具方法都准备好了,需要将其整合:

//传入房屋数组,写入云端数据库,这里的houses数组就是先前存储所有房屋对象的vector集合转换的
	public static void writeIntoDtabase(SecondHouse[] houses) {
		OperationOfMySQL op = new OperationOfMySQL();
		for (int i = 0; i < houses.length; i++) {
			try {
//				SecondHouse.printHouseInfo(houses[i]);
				op.operationOnDtabase(op.insertStr(houses[i]));
			} catch (Exception e) {
				continue;
			}
		}
	}

最后是main方法里面执行网页解析,多线程调用和写入数据库的所有实现;

//---------------------------main方法代替执行--------------------------------------------------------------------
	public static void operateMain() {
		houseSet = new Vector<>();
		//多线程集合
		Vector<Thread> threads = new Vector<>();
		for (int i = 1; i <= 50; i++) {
			Thread1 td1 = new Thread1(i, houseSet);
			threads.add(td1);
			td1.start();
		}
		
		for (int j = 51; j <=100; j++) {
			Thread2 td2 = new Thread2(j,houseSet);
			threads.add(td2);
			td2.start();
		}
		
		//等待所有子线程结束join方法
		for (Thread thread : threads) {
			try {
				thread.join();
			} catch (InterruptedException e) {
				System.out.println("执行失败!");
			}
		}
		//去除重复数据
		Vector<SecondHouse> houses = noneSameVector(houseSet);
		//写入数据库
		writeIntoDtabase(houses.toArray(new SecondHouse[houses.size()]));
	}

额,上面这个方法并不是main方法对吧,因为个爬虫要到导成jar包在一个小服务器上定时运行,所以我在main方法里面调用了这个方法,然后main里面实现定时运行了,这里就不贴出来了。

哦,还有那个去除重复的方法我没贴出来,实际上这个爬虫我解析了多个网站,难免会有相同的房屋信息,所以在这里就除重了,当然,传入sql语句在数据库里面除重更好。

讲一下写这个爬虫的收获:
、、确实感受到了Java语言的魅力所在,虽然并没有写出具有这种魅力的代码,Java无愧为第一语言(不要提PHP)。编程要有耐心,还要有持续学习和不断尝新的思想,开始写这个爬虫之前,对以上写的这些代码我一无所知,觉得都是些很高级的东西。然后,就结合学过的知识和网上了解到的处理方法来一步步实现,写完发现,其实也就那样,自己接触的这些不过是皮毛而已(可能连毛都不算),还需要再接再厉。

PS:这个爬虫有相当多的缺点和需要优化的地方,我没有细查了,不过基本功能可以正常实现,嗯。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值