python爬虫基础用法

前言:利用python当中的request是库来获取相关网站内容

1 requests库

在python当中用于网络爬虫的库是有很多的,简单介绍如下

请求库解析库存储库框架
urllibbeautifulsouppymysqlScrapy
requestspyquerypymongoCrawley
seleniumlxmlredisdumpPortia
aiohttptesserocrnewspaper
python-goose
cola

requests库是基于urllib库,在使用上较简单,便捷,上手友好。

2 使用方法

1)requests库安装:pip install requests
2)明确请求的url,需要的参数params(以字典的形式表示),headers(请求的头)
3)通过requests.get()来获得请求的内容,response.encoding用来设置请求内容的编码方式,response.text 以字符串的形式来输出请求内容,response.content以字节流的形式来输出请求内容。

3 应用案例

古诗文网的诗人数据爬取:

import requests
import json
import pandas as pd

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36',"Cookie": "wxopenid=defoaltid; Hm_lvt_9007fab6814e892d3020a64454da5a55=1635823892,1635837412,1635837707,1635838370; Hm_lpvt_9007fab6814e892d3020a64454da5a55=1635838946"}
page = 1
for i in range(1,21):
    url = f"https://app.gushiwen.cn/api/author/Default10.aspx?c=%E4%B8%8D%E9%99%90&page={i}&token=gswapi"
    res = requests.get(url, headers=headers)
    res.encoding = 'utf-8'
    # 请求的为json数据格式,通过json.loads来进行解析
    s = json.loads(res.text)['authors']
    for item in s:
    	print(item)
    	#利用requests请求图片数据,并存储
    	url = 'https://song.gushiwen.cn/authorImg/' + item['pic'] + '.jpg'
    	r = requests.request('get',url)
    	with open(path+item['pic'] + '.jpg','wb') as f:
            f.write(r.content)
        f.close()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值