一个简单的爬虫douban_list_spider.py

源码在此:
https://github.com/CuiBinghua/douban_list_spider/blob/master/douban_list_spider.py



1. 简介

douban_list_spider.py是一个简单的爬虫,可以根据关键字抓取豆瓣电影、豆瓣读书或者豆瓣音乐的条目信息.

2. Python环境

本人的Python版本为:2.6.6
另外还需要安装必要的Python插件:
$ easy_install requests
$ easy_install BeautifulSoup4

3. 执行抓取

首先对douban_list_spider.py中的变量object、tag_list和page_num进行配置。
然后执行命令即可:
$ python douban_list_spider.py
最后,就可以在相同目录下查看到输出文件movie_list.txt、book_list.txt或者music_list.txt了。

4. 参考资料

http://plough-man.com/?p=379

https://github.com/plough/myCrawler/blob/master/doubanBook/book_list_spider.py

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是使用Scrapy框架实现的豆瓣图书爬虫,可以获取最受关注图书榜中的书名和作者: 1. 首先,需要安装Scrapy框架,可以使用以下命令进行安装: ``` pip install scrapy ``` 2. 创建一个新的Scrapy项目,可以使用以下命令: ``` scrapy startproject douban_book ``` 3. 进入到项目目录中,修改settings.py文件,添加以下配置: ``` USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' ROBOTSTXT_OBEY = False ``` 这里设置了User-Agent,避免被反爬虫机制识别,同时关闭了ROBOTSTXT_OBEY,不遵守robots.txt文件中的规则。 4. 创建一个新的Spider,可以使用以下命令: ``` scrapy genspider douban_book_spider book.douban.com ``` 这个命令会在spiders目录下创建一个新的Spider文件,名称为douban_book_spider.py。 5. 修改douban_book_spider.py文件,将代码替换为以下内容: ```python import scrapy from scrapy.selector import Selector from douban_book.items import DoubanBookItem class DoubanBookSpider(scrapy.Spider): name = "douban_book" allowed_domains = ["book.douban.com"] start_urls = [ "https://book.douban.com/chart?subcat=F&icn=index-topchart-fiction" ] def parse(self, response): book_list = Selector(response).xpath('//div[@class="pl2"]') for book in book_list: item = DoubanBookItem() item['book_name'] = book.xpath('a/@title').extract_first().strip() item['author'] = book.xpath('p[@class="pl"]/text()').extract_first().strip().split('/')[0] yield item ``` 这个Spider会访问豆瓣图书最受关注图书榜中的小说类图书页面,获取每本书的书名和作者,并将结果保存到DoubanBookItem中。 6. 创建一个新的Item,可以使用以下命令: ``` scrapy genspider douban_book_spider book.douban.com ``` 这个命令会在项目目录下创建一个名为douban_book的目录,其中包含一个名为items.py的文件。将其中的代码替换为以下内容: ```python import scrapy class DoubanBookItem(scrapy.Item): book_name = scrapy.Field() author = scrapy.Field() ``` 这个Item定义了需要获取的数据项。 7. 最后,在命令行中运行以下命令,启动爬虫: ``` scrapy crawl douban_book -o books.csv ``` 这个命令会将获取到的数据保存到books.csv文件中。您可以在代码中修改数据的保存方式,例如保存到数据库或者其他文件格式中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值