python爬取今日头条街拍_python爬虫之分析Ajax请求抓取抓取今日头条街拍美图(七)...

python爬虫之分析Ajax请求抓取抓取今日头条街拍美图

一、分析网站

1.进入浏览器,搜索今日头条,在搜索栏搜索街拍,然后选择图集这一栏。

1ea6df05a36aed073a57fd1281e0650c.png

2.按F12打开开发者工具,刷新网页,这时网页回弹到综合这一栏,点击图集,在开发者工具中查看 XHR这个选项卡。

f4ac1c4fed9ba67baf92dca6d4cb2d99.png

540b35ae4afe5944fd6c5a7bd0f25725.png

331b51f8786c20eed2532cd8f6be2f2e.png

3.具体分析url,请求参数

当我们在请求图集这个页面时,url如下:

48674936dfe5cfc75944a9c348f271ac.png

请求参数如下:

353c08a35ee5c0a979aeee636e3bc08a.png

我们可以看到这个url的构成:

前面:https://www.toutiao.com/search_content/?

后面:offset=0&format=json&keyword=%E8%A1%97%E6%8B%8D&autoload=true&count=20&cur_tab=3&from=gallery

二、源代码

程序主体

import requests

from urllib.parse import urlencode

from requests.exceptions import RequestException

import json

import re

import os

import pymongo

from hashlib import md5

from bs4 import BeautifulSoup

from multiprocessing import Pool

from config import *

#导入mongodb

client = pymongo.MongoClient(MOMGO_URL,connect=False)

#创建数据库对象

db = client[MOMGO_DB]

#获取索引页内容

def get_page_index(offset,keyword):

#构造请求参数

data ={

'offset':offset,

'format':'json',

'keyword':keyword,

'autoload':'true',

'count':'20',

'cur_tab':'3',

'from':'gallery',

}

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko'}

#请求url, urlencode()将字典数据转为url请求

url = 'https://www.toutiao.com/search_content/?' + urlencode(data)

try:

response = requests.get(url,headers=headers)

if response.status_code ==200:

return response.text

return None

except RequestException:

print('请求页出错')

return None

#解析索引网页,获得详细页面url

def parse_page_index(html):

#解析json数据,转为json对象

data = json.loads(html)

#判断data是否存在,存在则返回所有的键名

if data and 'data' in data.keys():

for item in data.get('data'):

#提取article_url,把article_url循环取出来

yield item.get('article_url')

#获取详细页面内容

def get_page_detail(url):

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36 QIHU 360SE'}

try:

response = requests.get(url,headers=headers)

if response.status_code == 200:

return response.text

return None

except RequestException:

print('请求详细页出错')

return None

#解析详细页面内容

def parse_page_Detail(html,url):

#生成BeautifulSoup对象,使用lxml解析

soup = BeautifulSoup(html,'lxml')

#匹配标题

title_pattern = re.compile('BASE_DATA.galleryInfo = {.*?title: (.*?),',re.S)

#匹配图片

images_pattern = re.compile('BASE_DATA.galleryInfo = {.*?gallery: JSON.parse\("(.*?)"\)',re.S)

result =re.search(images_pattern,html)

title = re.search(title_pattern,html)

if result:

data =json.loads(result.group(1).replace('\\',''))

#如果sub_images存在,返回所有键名

if data and 'sub_images' in data.keys():

#获取sub_images的所有内容

sub_images = data.get('sub_images')

#获取一组图,构造列表

images = [item.get('url') for item in sub_images]

#下载图片,保存图片

for image in images: down_images(image)

return {

'title':title.group(1),

'url':url,

'images':images

}

def save_to_mongo(result):

if db[MOMG_TABLE].insert(result):

print('存储到mongodb成功')

return True

return False

#下载图片

def down_images(url):

print('正在下载图片:'+ url)

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36 QIHU 360SE'}

try:

response = requests.get(url,headers=headers)

if response.status_code == 200:

sava_images(response.content)

return None

except RequestException:

print('请求图片出错')

return None

#保存图片

def sava_images(content):

file_path = "{0}/{1}.{2}".format(os.getcwd(),md5(content).hexdigest(),'jpg')

if not os.path.exists(file_path):

with open(str(file_path),'wb') as f:

f.write(content)

f.close()

def main(offset):

#获取索引页内容

#传入第一个变量为offset值,第二个为关键字,网页通过滑动,offset值会发生改变

html = get_page_index(offset,KEYWORD)

#解析索引页内容,获取详细页面URL

for url in parse_page_index(html):

#将详细页面内容赋值给html

html = get_page_detail(url)

#如果详细页面内容不为空,则解析详细内容

if html:

result = parse_page_Detail(html,url)

print(result)

if result:

save_to_mongo(result)

if __name__=='__main__':

groups = [x * 20 for x in range(GROUP_START,GROUP_END + 1)]

#创建进程池

pool=Pool()

#开启多进程

pool,map(main(offset=0), groups)

配置文件

#链接地址

MOMGO_URL='localhost'

#数据库名字

MOMGO_DB='toutiao'

#表名

MOMG_TABLE='toutiao'

GROUP_START=1

GROUP_END=20

KEYWORD="街拍"

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值