python3实战scrapy生成csv文件

python3使用scrapy做一个小项目,我会写两篇文章这是第一篇生成本地的csv文件,第二篇为数据保存到MySQL数据库中。

爬去腾讯招聘网的信息,这个小项目有人做过,本着一个新手学习的目的,所以自己也来做着玩玩,大家可以参考一下。

这里使用的是调用cmdline命令来生成csv文件,而不是import csv模块。

from scrapy import cmdline
cmdline.execute("scrapy crawl field -o info.csv -t csv".split())
这段代码我保存在一个自建的.py文件中,然后在主文件中调用这个模块,这样就不用每次在cmd中敲命令了,大家可以使用这种方法我觉得很方便的。


进入正题(获取腾讯招聘网的信息http://hr.tencent.com/position.php):



保存的csv文件内容:




我们需要获取的数据首先应该使用scrapy的items容器记录下来:

import scrapy

class GetItem(scrapy.Item):
	name = scrapy.Field()       #招聘单位
	genre = scrapy.Field()      #招聘类型
	number = scrapy.Field()     #招聘人数
	place = scrapy.Field()      #招聘地点
	time = scrapy.Field()       #招聘时间
以上为我们等一下需要获取的信息


然后我们新建spider文件来编写爬去网站的代码:

# _*_ coding:utf-8 _*_
import scrapy
from scrapy.http import Request
from time import sleep
import os
import sys
sys.path.append("D:\PYscrapy\get_Field")  #我使用这种路径添加的方式来调用GetItem函数和main函数
from get_Field.items import GetItem
import main   #main函数开头就说了两行调用程序的代码,你也可以在cmd中使用scrapy crawl field -o info.csv -t csv来调用。主要是方便

class Tencentzhaopin(scrapy.Spider):
	name = "field"    #这个程序要执行的唯一标识名  可以自己设置
	start_urls = ["http://hr.tencent.com/position.php?&start=0#a"]  #首页网址
	url = "http://hr.tencent.com/"  #由于有翻页操作所以我们设置翻页前缀,等一下获取后缀
	count = 0
	names = []       #这五个列表记录我们获取的信息
	genres = []
	numbers = []
	places = []
	times = []
	filename = "data.txt"   #保存的文件名
	if os.path.exists(filename) == True:    #判断这个文件是否已经存在文件夹中,有就移除掉。
		os.remove(filename)

	def parse(self,response):
		self.count += 1  #设置我们需要爬去多少页,不设置的话会有几百页需要爬取
		name = response.xpath('//table//td[@class="l square"]//a//text()').extract()
		#通过xpath方法获取我们需要的内容,再使用extract()抽取器获取到
		for i in name:        #利用循环将每一次的内容存入我们上面设置的列表中去,方便后面存入csv文件(下面4个类似)
			self.names.append(i)
		genre = response.xpath('//table//tr[not(@class="h")]//td[2][not(@align="center")]//text()').extract()
		for i in genre:
			self.genres.append(i)
		number = response.xpath('//table//tr[not(@class="h")]//td[3][not(@align="center")]//text()').extract()
		for i in number:
			self.numbers.append(i)
		place = response.xpath('//table//tr[not(@class="h")]//td[4][not(@align="center")]//text()').extract()
		for i in place:
			self.places.append(i)
		time = response.xpath('//table//tr[not(@class="h")]//td[5][not(@align="center")]//text()').extract()
		for i in time:
			self.times.append(i)

		new_url = response.xpath('//*[@id="next"]//@href').extract()
		#前面我们说过需要翻页操作,所以这里是获取到翻页的后缀
		new_url = self.url+new_url[0]  #再与前缀结合,获取到一个完整的下一页链接
		sleep(0.5)  #我们设置一个翻页的时间,太快了不好。。。。(我是这样想的)

		#下面就是信息存入items容器
		for i in range(len(self.genres)):  #for循环列表的长度,获取到所有信息
			info = GetItem()   #实例一个类info用来保存数据
			info["name"] = self.names[i]        #将每一个属性列表中的每一个数据保存依次保存到info中去
			info["genre"] = self.genres[i]
			info["number"] = self.numbers[i]
			info["place"] = self.places[i]
			info["time"] = self.times[i]
			yield info  #这个yield注意了,嗯,这就很舒服了
			#我们将每一次保存的数据返回,但是返回了我们还需要程序继续执行,所以使用yield函数返回后继续执行

		if self.count<=20:
			yield Request(url=new_url,callback=self.parse)
			#如果满足20页以内,我们callback返回下一页的链接继续到parse这个默认函数,

以上是spider中的代码。


其实实现这个代码不难,唯一有一点小疑惑的地方可能就是第一个yield的使用,一开始我是使用调用一个新的函数,然后在里面实现值的返回,但是麻烦还有一点小问题,所以这里我们就是用这种简单的方式就行了,yield将每次循环的数据返回,返回后再继续执行循环。

初学者可以相互学习,有什么不足的可以提出。




  • 4
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
Scrapy中,你可以使用以下步骤将数据保存到CSV文件中: 1. 在项目的settings.py文件中添加以下代码以启用CSV输出: ```python FEED_FORMAT = 'csv' FEED_URI = 'output.csv' ``` 其中,FEED_FORMAT指定了输出格式为CSV,FEED_URI指定了输出文件的路径和名称。 2. 在Spider中定义item并将其导出到CSV文件中。例如,假设你有一个Spider,它从网站中提取了书籍的信息。你可以在Spider中定义一个item,然后将其导出到CSV文件中。以下是一个示例: ```python import scrapy from scrapy.loader import ItemLoader from scrapy.item import Item, Field class BookItem(Item): title = Field() author = Field() price = Field() class BooksSpider(scrapy.Spider): name = "books" start_urls = [ 'http://books.toscrape.com/catalogue/category/books/science_22/index.html' ] def parse(self, response): for book in response.css('article.product_pod'): loader = ItemLoader(item=BookItem(), selector=book) loader.add_css('title', 'h3 a::attr(title)') loader.add_css('author', 'a::attr(href)') loader.add_css('price', 'p.price_color::text') yield loader.load_item() ``` 在这个示例中,我们定义了一个BookItem类,它有三个属性:title,author和price。在Spider中,我们使用ItemLoader加载器将每个书籍的信息加载到BookItem对象中,然后使用yield语句将其输出到CSV文件中。 3. 运行Spider并查看CSV文件。运行以下命令来启动Spider: ``` scrapy crawl books ``` 当Spider运行时,它会将提取到的数据输出到CSV文件中。你可以打开output.csv文件来查看结果。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值