利用urllib_ajax的get方法发送GET请求并获取响应数据

利用urllib_ajax的get方法发送GET请求并获取响应数据

urllib_ajax的get方法主要用于通过Python代码同步发送GET请求并获取响应数据。以下是使用urllib_ajax的get方法的一些详细步骤和示例:

  1. 选择URL和头部信息:首先需要确定要爬取的页面的URL,并根据需要设置请求头(headers)。
  2. 创建请求对象:使用urllib.request.Request 类创建一个请求对象,指定URL和必要的头部信息。
  3. 发送请求并获取响应:使用urllib.request.urlopen 方法发送请求并获取响应数据。
  4. 处理响应数据:将获取到的响应数据解码为字符串格式,并进行进一步处理或保存到本地。
  5. 保存数据:可以将获取到的数据保存到本地文件中,通常需要指定编码格式为UTF-8以正确保存汉字。

以下是一个具体的示例代码,用于爬取豆瓣电影第一页的数据:

import urllib.request

url = 'https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=0&limit=20'

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'
}

# (1) 请求对象的定制
request = urllib.request.Request(url=url,headers=headers)

# (2)获取响应的数据
response = urllib.request.urlopen(request)
content = response.read().decode('utf-8')

# (3) 数据下载到本地
# open方法默认情况下使用的是gbk的编码  如果我们要想保存汉字 那么需要在open方法中指定编码格式为utf-8
# encoding = 'utf-8'
# fp = open('douban.json','w',encoding='utf-8')
# fp.write(content)

with open('douban1.json','w',encoding='utf-8') as fp:
    fp.write(content)

在这个示例中,我们首先设置了请求的URL和用户代理头信息,然后创建了一个请求对象并发送请求,最后获取响应数据并将其保存到本地文件中。

拓展

爬取豆瓣电影前十页的数据:

import urllib.parse
import urllib.request

def create_request(page):
    base_url = 'https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&'

    data = {
        'start':(page - 1) * 20,
        'limit':20
    }

    data = urllib.parse.urlencode(data)

    url = base_url + data

    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'
    }

    request = urllib.request.Request(url=url,headers=headers)
    return request


def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode('utf-8')
    return content


def down_load(page,content):
    with open('douban_' + str(page) + '.json','w',encoding='utf-8')as fp:
        fp.write(content)




# 程序的入口
if __name__ == '__main__':
    start_page = int(input('请输入起始的页码'))
    end_page = int(input('请输入结束的页面'))

    for page in range(start_page,end_page+1):
#         每一页都有自己的请求对象的定制
        request = create_request(page)
#         获取响应的数据
        content = get_content(request)
#         下载
        down_load(page,content)

需要注意的是,虽然urllib_ajax的get方法可以用于同步发送请求,但有些网站的内容是通过Ajax异步加载的,这种情况下可能需要结合其他技术(如JavaScript)来实现更复杂的爬虫逻辑。

  • 5
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值