java爬取深圳新房备案价

Java爬取深圳新房备案价

这是我做好效果,一共分3个页面
1、列表;2、统计;3、房源表

列表
在这里插入图片描述
价格分析页面
在这里插入图片描述
房源页面
在这里插入图片描述

一、如何爬取

第一步:获取深圳新房备案价

链接是:http://zjj.sz.gov.cn/ris/bol/szfdc/index.aspx
在这里插入图片描述

第二步:通过楼盘名查询获取明细

链接:http://zjj.sz.gov.cn:8004/

在这里插入图片描述
更多详情
在这里插入图片描述
获取到具体明细
在这里插入图片描述

数据库建立

爬取到的数据存放在mysql数据里面,建立自己新房价格数据。
第一个表:主列表设计 命名 t_fcProject
在这里插入图片描述
数据效果:
在这里插入图片描述
第二个表:楼栋 命名t_fcFloor

在这里插入图片描述
数据效果:
在这里插入图片描述
第三表:单元 命名:fcBranch

在这里插入图片描述
数据效果:
在这里插入图片描述
第四表:具体到房 命名:t_fcHouse
在这里插入图片描述
数据效果:
在这里插入图片描述
第五表:数据统计 命名:t_fcAnalyse

在这里插入图片描述
数据效果:
在这里插入图片描述

java代码

用到的是springboot,这里展示是service层

解析一下代码意思:
获取最新的时间,获取官网页面10条项目
日期相同则,比较取证号是否存在;日期不相同,比较是否在日期之前。

private List<FcProject> getListIndex() {
   
        //获取最新时间 从redis获取,获取不到从数据库获取
        Object o = redisUtil.get("checkFc");
        SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd");
        Date d1 = new Date();
        if (o != null) {
   
            try {
   
                d1 = dateFormat.parse(o.toString());
            } catch (Exception e) {
   
                System.out.println("日期转化失败1");
            }
        } else {
   
            d1 = fcProjectMapper.queryNewDate();
            redisUtil.setValue("checkFc", dateFormat.format(d1));
        }
        //获取官方页面 最新10条
        String url = "http://zjj.sz.gov.cn/ris/bol/szfdc/index.aspx";
        Document doc = Jsoup.parse(httpsUtil.doGetHtml(url));
        Elements trs = doc.select("table").select("tr");

        List<FcProject> list = new ArrayList<>();
        for (int i = 1; i < trs.size() - 1; i++) {
   
            Elements tds = trs.get(i).select("td");
            //1-5 date 2023-11-24
            String dateStr = tds.get(5).text();
            //string => date
            Date d2 = null;
            try {
   
                d2 = dateFormat.parse(dateStr);
            } catch (Exception e) {
   
                System.out.println("日期转化失败2");
            }
            //日期相同则,比较取证号是否存在;日期不相同,比较是否在日期之前。
            if (d2 != null) {
   
                boolean isPass=false;
                //日期相同
                if (d2.equals(d1)) {
   
                    //判断取证号是否存在
                    isPass=fcProjectMapper.queryByProve(tds.get(1).text())==null;
                } else if (d2.after(d1)) {
   
                    //是否在日期之前
                    isPass=true;
                }

                if(isPass){
   
                    FcProject fcProject = new FcProject();
                    //1-1 prove
                    fcProject.setProve(tds.get(1).text());
                    //1-2 name
                    fcProject.setName(tds.get(2).text());
                    //1-4 region 龙岗
                    String region = tds.get(4).text();
                    fcProject.setRegion(regionStrToInt(region));
                    //日期
                    fcProject.setDate(d2);
                    ThrowException.illegal(fcProjectMapper.insertSelective(fcProject) < 1, "添加失败");
                    list.add(0, fcProject);
                }
            }
        }

        //删除redis日期
        if(!list.isEmpty()){
   
            redisUtil.del("checkFc");
        }
        return list;
    }

获取到有新项目之后,则有楼盘名称和取证号
通过楼盘名查询到具体地址,为了避免还用了取证号做一下对比,相同才取
把具体地址解析成 经纬度(在小程序就可以直接跳转地图形式做准备)
获取楼栋

private void handleAll(Integer id, String name, String prove) {
   
        //请求接口--查询项目
        Map<String, Object> mapProject = getProjectMap(
  • 11
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
好的,我可以为您提供一些关于使用Scrapy爬取贝壳新房信息的指导。 首先,您需要安装Scrapy。在命令行中运行以下命令: ```python pip install scrapy ``` 接下来,您需要创建一个新的Scrapy项目。在命令行中,进入您想要存储项目的目录,然后运行以下命令: ```python scrapy startproject beike ``` 这将创建一个名为“beike”的新Scrapy项目。然后,您需要创建一个新的Spider来爬取贝壳新房信息。在命令行中,进入您的项目目录,然后运行以下命令: ```python scrapy genspider beike_spider beike.com ``` 这将创建一个名为“beike_spider”的新Spider,并将其链接到“beike.com”网站。 接下来,在您的Spider中,您需要定义如何爬取贝壳新房页面。以下是一个示例实现: ```python import scrapy class BeikeSpider(scrapy.Spider): name = 'beike_spider' start_urls = ['https://newhouse.fang.com/house/s/'] def parse(self, response): for house in response.css('div.nhouse_list ul li'): yield { 'name': house.css('div.house_title a::text').get(), 'price': house.css('div.nhouse_price span::text').get(), } next_page = response.css('div.housetype_page a.next::attr(href)').get() if next_page is not None: yield response.follow(next_page, self.parse) ``` 这个Spider将从“https://newhouse.fang.com/house/s/”页面开始,然后找到页面中的每个新房,并提取名称和格信息。然后,它将翻页并继续提取信息,直到没有更多页面可用。 最后,您可以在命令行中运行以下命令来运行您的Spider并将结果保存到CSV文件中: ```python scrapy crawl beike_spider -o beike.csv ``` 这将运行您的Spider,并将提取的信息保存到名为“beike.csv”的文件中。 希望这些指导能够帮助您开始使用Scrapy爬取贝壳新房信息!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值