爬虫之Requests(一)

1、发送get请求

1.1、简单get请求

这里就直接调用requests的get方法就可以,然后得到响应的页面,

import requests
page_text = requests.get(url).text #获取字符串文本
page_text = requests.get(url).content #获取二进制文本

1.2、添加参数、响应头

1、对于大多数网站在我们访问的时候一般是会要求携带headers响应头,也就是UA伪装,要求更高的会要携带相关参数、cookies等。

import requests
headers = {
        'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36'
    }
params = {
        'data':data
    }
page_text = requests.get(url=url, headers= headers, params= params)

2、如果需要携带cookies的话,可以直接在headers中添加Cookie属性,或者使用以下代码。

c = requests.cookies.RequestsCookieJar()
c.set('cookie-name', 'cookie-value', path='/', domain='.abc.com')
s.cookies.update(c)

3、当然也可以使用requests.Session()函数,直接使用Session来发送get请求,可以自动携带当前网站的Cookie

import requests
headers = {
        'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36'
    }
session = requests.Session()
page_text = session.get(url, headers )

4、实例:对豆瓣网爬取相关数据

url = 'https://movie.douban.com/j/chart/top_list'
    param = {
        'type': '24',
        'interval_id': '100:90',
        'action':'',
        'start': '0',#从库中的第几部电影去取
        'limit': '20',#一次取出的个数
    }
    headers = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36'
    }
    response = requests.get(url=url,params=param,headers=headers)
    list_data = response.json() #list_data保存数据
    print(list_data)

2、发送post请求

post请求一般都要携带data参数,如下进行百度翻译的实现。

import requests
import json
post_url = 'https://fanyi.baidu.com/sug'
    headers = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36'
    }
    word = input('enter a word:')
    data = {
        'kw':word
    }
    response = requests.post(url=post_url,data=data,headers=headers)
    dic_obj = response.json()
    print(dic_obj )

本项目GitHub

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值