今天学习了使用爬虫抓取猫眼电影Top100,特此总结学习途中遇到的问题和知识:
1.
使用requests请求被禁
解决方法1:添加headers参数,使网站以为是浏览器
如:headers = {"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36"}
然后在get请求中response = requests.get(url,headers=headers)
解决方法2:使用selenium抓取网页源代码,详情见selenium版本代码
2.
strip()方法的使用:
strip() 方法用于移除字符串头尾指定的字符(默认为空格)。
3.
编码格式的改变:
在open()方法中添加encoding="utf-8"和在dumps()中添加ensure_ascii=False使输出为utf-8编码
4.
str()方法:
str() 函数将对象转化为适于人阅读的形式。返回一个对象的string格式。即把数据转换为字符串
5.
yeild的使用:
简单地讲,yield 的作用就是把一个函数变成一个 generator(生成器),带有 yield 的函数不再是一个普通函数,Python 解释器会将其视为一个 generator
个人理解:使用yield后产生一个类似数组的可迭代的东西,并把它叫做生成器,它每次仅迭代一次(好吧我还是有点迷糊orz)
参考链接:
https://www.ibm.com/developerworks/cn/opensource/os-cn-python-yield/
1.
使用requests请求被禁
解决方法1:添加headers参数,使网站以为是浏览器
如:headers = {"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36"}
然后在get请求中response = requests.get(url,headers=headers)
解决方法2:使用selenium抓取网页源代码,详情见selenium版本代码
2.
strip()方法的使用:
strip() 方法用于移除字符串头尾指定的字符(默认为空格)。
3.
编码格式的改变:
在open()方法中添加encoding="utf-8"和在dumps()中添加ensure_ascii=False使输出为utf-8编码
4.
str()方法:
str() 函数将对象转化为适于人阅读的形式。返回一个对象的string格式。即把数据转换为字符串
5.
yeild的使用:
简单地讲,yield 的作用就是把一个函数变成一个 generator(生成器),带有 yield 的函数不再是一个普通函数,Python 解释器会将其视为一个 generator
个人理解:使用yield后产生一个类似数组的可迭代的东西,并把它叫做生成器,它每次仅迭代一次(好吧我还是有点迷糊orz)
参考链接:
https://www.ibm.com/developerworks/cn/opensource/os-cn-python-yield/
https://www.jianshu.com/p/d09778f4e055
实战代码如下:
import requests
from requests.exceptions import RequestException
import re
from multiprocessing import Pool#为实现多进程
import json
headers = {"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36"}
def get_one_page(url):
# 这是一个获取url并判断是否成功的函数
try:
response = requests.get(url,headers=headers)
# print(response)
if response.status_code == 200:
return response.text#返回网页源代码
return None#否则返回None
except RequestException:
return None
def parse_one_page(html):
#这是一个筛选函数
pattern = re.compile('<dd>.*?board-index.*?">(\d+)</i>.*?data-src="(.*?)".*?name"><a.*?>(.*?)</a>.*?class="star">(.*?)</p>.*?releasetime">(.*?)</p>.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>',re.S)#添加re.S使.可以匹配换行符
items = re.findall(pattern,html)
for item in items:
yield {
'index': item[0],
'image': item[1],
'title': item[2],
'actor': item[3].strip()[3:],#去除"主演:"这三个符号
'time': item[4].strip()[5:],
'score': item[5]+item[6]
}
def write_to_file(content):
#这是一个把数据存储到文件的函数
#encoding="utf-8"和ensure_ascii=False)使数据以中文形式输出
with open('result.txt','a',encoding="utf-8") as f:#参数a表示直接往后追加
f.write(json.dumps(content,ensure_ascii=False)+'\n')#转成字符串形式
f.close()
def main(offset):
#主函数
url = 'http://maoyan.com/board/4?offset='+str(offset)#把offset变成字符串
html = get_one_page(url)
for item in parse_one_page(html):
print(item)
write_to_file(item)
if __name__ == '__main__':
"""
正常抓取
for i in range(10):
main(i*10)
"""
#多进程抓取
pool = Pool()
pool.map(main,[i*10 for i in range(10)])
#selenium版
import json
from multiprocessing import Pool#为实现多进程
from selenium import webdriver
import re
def get_one_page(url):
#这是一个获取url并判断是否成功的函数
browser = webdriver.Chrome()
try:
browser.get(url)
html = browser.page_source#得到网页源代码
browser.close()#关闭测试浏览器j
return html
except:
return None
def parse_one_page(html):
#这是一个筛选函数
pattern = re.compile('<dd>.*?board-index.*?">(\d+)</i>.*?data-src="(.*?)".*?name"><a.*?>(.*?)</a>.*?class="star">(.*?)</p>.*?releasetime">(.*?)</p>.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>',re.S)#添加re.S使.可以匹配换行符
items = re.findall(pattern,html)
for item in items:
yield {
'index': item[0],
'image': item[1],
'title': item[2],
'actor': item[3].strip()[3:],#去除"主演:"这三个符号
'time': item[4].strip()[5:],
'score': item[5]+item[6]
}
def write_to_file(content):
#这是一个把数据存储到文件的函数
#encoding="utf-8"和ensure_ascii=False)使数据以中文形式输出
with open('result.txt','a',encoding="utf-8") as f:#参数a表示直接往后追加
f.write(json.dumps(content,ensure_ascii=False)+'\n')#转成字符串形式
f.close()
def main(offset):
#主函数
url = 'http://maoyan.com/board/4?offset='+str(offset)#把offset变成字符串
html = get_one_page(url)
for item in parse_one_page(html):
print(item)
write_to_file(item)
if __name__ == '__main__':
"""
正常抓取
for i in range(10):
main(i*10)
"""
#多进程抓取
pool = Pool()
pool.map(main,[i*10 for i in range(10)])