豆瓣top250 爬虫+存储

from lxml import etree    #解析模块
import requests           #请求模块
import time
with open('C:\\Users\\Administrator\\Desktop\\ttop250.csv','w',encoding='utf-8') as f:
#with open('C:\\Users\\Administrator\\Desktop\\top250.txt','w',encoding='utf-8') as f:
    for a in range(10):
        url = 'https://book.douban.com/top250?start={}'.format(a*25)   #URL 遍历
        data = requests.get(url).text              #获得目标url 代码

        s=etree.HTML(data)     #解析下载的数据data
        #获取元素的Xpath信息  file=s.xpath('元素的xpath信息/text()')
        file=s.xpath('//*[@id="content"]/div/div[1]/div/table')   #shift+ctrl+c     右键 copy copyxpath
        #根据不同的需求 修改一下xpath 去掉数组[]  和  /tbody 标签
        time.sleep(3)   #延迟  防止被检测

        for div in file:
            title = div.xpath("./tr/td[2]/div[1]/a/@title")[0]
            href = div.xpath("./tr/td[2]/div[1]/a/@href")[0]
            score=div.xpath("./tr/td[2]/div[2]/span[2]/text()")[0]
            num=div.xpath("./tr/td[2]/div[2]/span[3]/text()")[0].strip("(").strip().strip(")").strip()
            scrible=div.xpath("./tr/td[2]/p[2]/span/text()")

            if len(scrible) > 0:
            #   f.write("书名:{}, 目标网址:{}, 评分:{}, 人数:{}, 评语:{}\n".format(title,href,score,num,scrible[0]))

                f.write("{},{},{},{},{}\n".format(title, href, score, num, scrible[0]))#csv格式 用,分隔
                #出现乱码  用记事本本打开 另存为 编码格式改成ANSI
            else:
                f.write("{},{},{},{}\n".format(title,href,score,num))

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值