python的scrapy爬虫模块间进行传参_Python | Scrapy 爬虫过程问题解决(持续更新...)...

1.使用python的re模块过滤html标签

In [1]: response.xpath("//div[@class='zx-dis_content']/p").extract()

Out[1]:

['

',

'

'

\xa0 \xa0 \xa0 \xa0张舜咨苍鹰竹梧图轴 \xa0 \xa0元,绢本,设色。纵146厘米,横93厘米。

',

'

此图画一只黄鹰独立 于梧桐树之上,昂首远眺,目光咄咄。树下墨竹成趣。黄鹰的画法师承宋代院体画派,造型准确,羽毛用细笔勾描后填色,工整细致,刻画精微,神形毕肖。梧桐和墨竹用兼工带写的笔法,于苍古之中又见清润之致。画中自题云:“张舜咨师夔为德英识”,另有萨达道、刘嵩题诗。张舜咨传世作品极少,此幅设色淡雅、繁简得当,在其作品中亦属佳品。
\xa0\xa0\xa0\xa0\xa0 张舜咨,生卒年不详,元 代画家。一名羲上,字师夔,号栎山、辄醉翁,钱塘(今浙江杭州)人。善画山水、竹石,用笔沉着,颇有气势,兼长诗、书,人称“三绝”。精心研习诸家画技,吸取各家之长,自成一家。作画讲究布局,大幅小景,布置各有其法。所作山水画,使人有身临其境之感。画古柏苍老擎天,别具风气。

']

使用scrapy shell查看,发现想要获取的数据是带有标签的数据,但是只想要标签内的文本,因此进行html标签过滤

raw_description = response.xpath("//div[@class='zx-dis_content']/p").extract() # 带标签的文本

string = "".join(raw_description)

dr = re.compile(r']+>', re.S) # 构建匹配模式

dd = dr.sub('', string) # 去除html标签

item['description'] = dd.strip().replace('\xa0', '').replace('\u3000', '').replace('\r\n', '')

2.在浏览器中构建的xpath在python中却无法获取数据

第一种情况:xpath写的太长很容易出错

第二种情况:浏览器中的代码和源码不一致

浏览器对不标准的HTML文档都有纠正功能,同样的URL浏览器会加载js事件,所以浏览器和python爬虫类requests打开同样的URL获取的源码肯定是不一样的,因此最好是查看page source(是源代码,不是developer tool那个)。

3.Python scrapy中统计parse函数的执行次数

在spider类里面加个计数变量,然后再closed() 方法里面添加log,把计数给打印出来

class MySpider(scrapy.Spider):

def __init__(self):

self.count = 0

def parse(self, response):

self.count += 1

def closed(self):

log(self.count)

4.使用meta传递信息

Request中meta参数的作用是传递信息给下一个函数,meta是一个dict,一种常见的情况:在parse中给item某些字段提取了值,但是另外一些值需要在parse_item中提取,这时候需要将parse中的item传到parse_item方法中处理,显然无法直接给parse_item设置而外参数。 Request对象接受一个meta参数,一个字典对象,同时Response对象有一个meta属性可以取到相应request传过来的meta。

使用过程可以理解成:

1---把需要传递的信息赋值给这个叫meta的变量,但meta只接受字典类型的赋值,因此要把待传递的信息改成“字典”的形式,即:meta={'key1':value1,'key2':value2}

2---如果想在下一个函数中取出value1,只需得到上一个函数的meta['key1']即可,

因为meta是随着Request产生时传递的,下一个函数得到的Response对象中就会有meta,即response.meta,取value1则是value1=response.meta['key1']

class example(scrapy.Spider):

name='example'

allowed_domains=['example.com']

start_urls=['http://www.example.com']

def parse(self,response):

#从start_urls中分析出的一个网址赋值给url

url=response.xpath('.......').extract()

#ExamleClass是在items.py中定义的,下面会写出。

"""记住item本身是一个字典"""

item=ExampleClass()

item['name']=response.xpath('.......').extract()

item['htmlurl']=response.xpath('.......').extract()

"""通过meta参数,把item这个字典,赋值给meta中的'key'键(记住meta本身也是一个字典)。

Scrapy.Request请求url后生成一个"Request对象",这个meta字典(含有键值'key','key'的值也是一个字典,即item)

会被“放”在"Request对象"里一起发送给parse2()函数 """

yield Request(url,meta={'key':item},callback='parse2')

def parse2(self,response):

item=response.meta['key']

"""这个response已含有上述meta字典,此句将这个字典赋值给item,

完成信息传递。这个item已经和parse中的item一样了"""

item['text']=response.xpath('.......').extract()

#item共三个键值,到这里全部添加完毕了

yield item

5.python 字符串(str)和列表(list)的互相转换

1.str >>>list

str1 = "12345"

list1 = list(str1)

print list1

str2 = "123 sjhid dhi"

list2 = str2.split() #or list2 = str2.split(" ")

print list2

str3 = "www.google.com"

list3 = str3.split(".")

print list3

输出为:

['1', '2', '3', '4', '5']

['123', 'sjhid', 'dhi']

['www', 'google', 'com']

2.list >>>str

str4 = "".join(list3)

print str4

str5 = ".".join(list3)

print str5

str6 = " ".join(list3)

print str6

输出为:

wwwgooglecom

www.google.com

www google com

6. 文件读写'r' 和 'rb'区别

文件使用方式标识:

'r':默认值,表示从文件读取数据。

'w':表示要向文件写入数据,并截断以前的内容

'a':表示要向文件写入数据,添加到当前内容尾部

'r+':表示对文件进行可读写操作(删除以前的所有数据)

'r+a':表示对文件可进行读写操作(添加到当前文件尾部)

'b':表示要读写二进制数据

注:使用'r'/'w'进行读/写二进制文件时,遇到'0x1A'即停止,因此可能会出现文档读/写不全的现象。

解决办法:使用'rb'/'wb'来读/写二进制文件。

7. Python中的lambda使用

func=lambda x:x+1

print(func(1))

#2

print(func(2))

#3

#以上lambda等同于以下函数

def func(x):

return(x+1)

可以这样认为,lambda作为一个表达式,定义了一个匿名函数,上例的代码x为入口参数,x+1为函数体。在这里lambda简化了函数定义的书写形式,使代码更为简洁。

8.哈希函数

# 导入hash库

import hashlib

# 实例化对象

md5 = hashlib.md5()

# 准备两个不同的字符串,用来进行对比

text1 = "There are two books"

text2 = "There are 2 books"

# 对第一个字符串进行哈希运算

md5.update(text1.encode('utf-8'))

hash1 = md5.hexdigest()

# 打印第一个字符串的哈希值

print("第一个字符串的哈希值:" + hash1)

# 对第二个字符串进行哈希运算

md5.update(text2.encode('utf-8'))

hash2 = md5.hexdigest()

# 打印第二个字符串的哈希值

print("第二个字符串的哈希值:" + hash2)

9.文件操作

列出当前目录下的所有文件和目录名

import os

for d in os.listdir('D:/Pythonworkspace/Instrument/'):

print(d)

输出某个路径及其子目录下所有以".xlsx"为后缀的文件

import os

def print_dir(filepath):

for i in os.listdir(filepath):

path = os.path.join(filepath, i)

if os.path.isdir(path):

print_dir(path)

if path.endswith(".xlsx"):

print(path)

filepath = "D:/Pythonworkspace/Instrument/"

print_dir(filepath)

10.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值