爬虫常用模块--requests爬虫[头歌题解]

本文介绍了使用Pythonrequests库进行基础和进阶操作,包括GET请求、设置请求头、创建Session以管理会话,以及处理网页编码,旨在帮助读者掌握数据采集和网络爬虫的基本技巧。
摘要由CSDN通过智能技术生成

题目来源:头歌平台------数据采集与网络爬虫
下述题解均通过测试,如果小伙伴有出现测试不通过的情况,大概是原题出现变化或是编码时出现漏缺,答案仅供参考,祝大家一通百通。

第1关:requests 基础

import requests


def get_html(url):
    '''
    两个参数
    :param url:统一资源定位符,请求网址
    :param headers:请求头
    :return:html
    '''
    
    # ***************** Begin ******************** #

    # 补充请求头
    
    header = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/"
                  "537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/ 537.36"}
                  
    # get请求网页
    
    response = requests.get(url,header)
    
    # 获取网页信息文本
    
    response.encoding = "utf-8"
    html = response.text
    
    # ***************** End ******************** #
    return html

第2关:requests 进阶

import requests


def get_html(url):
    '''
    两个参数
    :param url:统一资源定位符,请求网址
    :param headers:请求头
    :return html 网页的源码
    :return sess 创建的会话
    '''
    
    # ***************** Begin ******************** #
    
    # 补充请求头

    headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/"
                  "537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/ 537.36"}

    # 创建Session, 并使用Session的get请求网页

    sess = requests.session()
    response = sess.get(url,headers=headers)

    # 获取网页信息文本

    response.encoding = "utf-8"
    html = response.text

    # ****************** End ********************* #
    return html, sess
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值