python爬虫专题1:准备工作

放假前入的坑,现在开始填坑,我也是小白,有错误或者可改进的地方,希望大佬可以指正
我尽量按照我觉得最简单的循序介绍爬虫;这篇文章是在吃鸡匹配的空闲时间写完的,下一篇文章写HTML的,是的,为了学爬虫,我把HTML也学了学

安装requests库

requests和urllib我选择了requests,因为网上和书上都在说requests更简单一点
安装教程看我的
上篇文章去

使用requests发送请求

导入request模块

import requests

获取一个网站试水 百度吧

r=requests.get('https://www.baidu.com/')

URL传递参数

比如说百度搜索郭翰林,对于wd参数(搜索词)和m参数(搜索结果数量)可以人工拼接组成URL;requests可以更好的解决

import requests
if __name__ == '__main__':
    payload={'wd':'温文儒雅郭翰林','rn':'100'}
    r=requests.get("https://www.baidu.com/",params=payload)
    print(r.url)

wd=%E6%B8%A9%E6%96%87%E5%84%92%E9%9B%85%E9%83%AD%E7%BF%B0%E6%9E%97&rn=100巴拉巴拉这些乱码就是温文儒雅郭翰林
params也可以

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36',
}

params = {
	'myMessage': 'message'
}

url = 'https://www.httpbin.org/get'
response = requests.get(url, headers=headers, params=params)
print(response.text)
print(response.url)

获取效应内容

import requests
if __name__ == '__main__':
    r=requests.get('https://www.baidu.com/')
    r.text
    print(r.text)

在这里插入图片描述
查看网页的编码

import requests
if __name__ == '__main__':
    r=requests.get('https://www.baidu.com/')
    r.encoding
    print(r.encoding)

结果:ISO-8859-1
百度不应该是utf-8编码吗?来兴趣了,我换了几个网址
好像百度主页是ISO编码,问答那些是utf-8编码

r.text可以获取效应内容
还有r.content

我专门多看了几本书对于这个编码的解释,发现可以修改编码然后去获取网页内容
这样

r.encoding='utf-8'

网页状态码

import requests
if __name__ == '__main__':
    r=requests.get('https://www.baidu.com/s?wd=%E5%B7%B4%E6%8B%89%E5%B7%B4%E6%8B%89&rsv_spt=1&rsv_iqid=0x846540f100057404&issp=1&f=8&rsv_bp=1&rsv_idx=2&ie=utf-8&tn=baiduhome_pg&rsv_dl=ib&rsv_enter=1&rsv_sug3=6&rsv_sug1=4&rsv_sug7=100')
    r.status_code
    print(r.status_code)

结果200

 r=requests.get('https://www.baidu.com/khugershkhgegeiiv')

网站瞎打的当然是404了 嘿呀 404 某狗每次看到404就来问我要新域名

查看网站的headers请求头

heders是网站用来识别访问的最常用手段;header有很多,主要的也就是Host;User-Agent,Referer,Accept,Accept-Encoding,Connerction和Accept-Language
说多了,其实吧也就user-agent 和Referer重要一点,反爬虫一般就检查这两个,而且必须要加User-Agent(显示浏览器相关信息),他们是以键对的形式展现出来,如果user-agent 以字典键对形式作为headers的内容,就可以反爬成功,就不需要其他键对;否则,需要加入headers下的更多键对形式。
随便开个网站 fn加f12,或者是f12,还可以鼠标右键点击检查
在这里插入图片描述
打开network
找到 name下随意一行
Headers 下滑找到User-Agent
在这里插入图片描述

requests函数可以自定义请求头信息和urllib库作用差不多,但是更简单一点
随便说一下手机端和电脑端的网页显示不同了,手机端简洁,动态效果少,关键信息一个不少,便于爬取,我们就可以把UA改成Android系统; 废话,以后实战讲

写个headers

  r.headers
    {
        'user - agent': 'Mozilla / 5.0(Windows NT 10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 87.0.4280.141Safari / 537.36Edg / 87.0.664.75'
    }   

响应的头部内容

import requests
if __name__ == '__main__':
    r=requests.get('https://www.baidu.com/ ')
    r.headers
    {
        'user - agent': 'Mozilla / 5.0(Windows NT 10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 87.0.4280.141Safari / 537.36Edg / 87.0.664.75'
    }
    print(r.headers['content-type'])

结果是text/html; charset=iso-8859-1
随便在说一下header的参数

HTTP请求头(Header)参数简介

HTTP 协议的 Header 是一块数据区域,分为请求头和响应头两种类型,客户端向服务区发送请求时带的是请求头,而服务器响应客户端数据时带的是响应头。

请求头里主要是客户端的一些基础信息,UA(user-agent)就是其中的一部分,而响应头里是响应数据的一些信息,以及服务器要求客户端如何处理这些响应数据的指令。请求头里面的关键信息如下:

  1. accept
    表示当前浏览器可以接受的文件类型,假设这里有 image/webp,表示当前浏览器可以支持 webp 格式的图片,那么当服务器给当前浏览器下发 webp 的图片时,可以更省流量。
  2. accept-encoding
    表示当前浏览器可以接受的数据编码,如果服务器吐出的数据不是浏览器可接受的编码,就会产生乱码。
  3. accept-language
    表示当前使用的浏览语言。
  4. Cookie
    很多和用户相关的信息都存在 Cookie 里,用户在向服务器发送请求数据时会带上。例如,用户在一个网站上登录了一次之后,下次访问时就不用再登录了,就是因为登录成功的 token 放在了 Cookie 中,而且随着每次请求发送给服务器,服务器就知道当前用户已登录。
  5. user-agent
    表示浏览器的版本信息。当服务器收到浏览器的这个请求后,会经过一系列处理,返回一个数据包给浏览器,而响应头里就会描述这个数据包的基本信息。

响应头里的关键信息有:

  1. content-encoding
    表示返回内容的压缩编码类型,如“Content-Encoding :gzip”表示这次回包是以 gzip 格式压缩编码的,这种压缩格式可以减少流量的消耗。
  2. content-length
    表示这次回包的数据大小,如果数据大小不匹配,要当作异常处理。
  3. content-type
    表示数据的格式,它是一个 HTML 页面,同时页面的编码格式是 UTF-8,按照这些信息,可以正常地解析出内容。content-type 为不同的值时,浏览器会做不同的操作,如果 content-type 是 application/octet-stream,表示数据是一个二进制流,此时浏览器会走下载文件的逻辑,而不是打开一个页面。
  4. set-cookie
    服务器通知浏览器设置一个 Cookie;通过 HTTP 的 Header,可以识别出用户的一些详细信息,方便做更定制化的需求,如果大家想探索自己发出的请求中头里面有些什么,可以这样做:打开 Chrome 浏览器并按“F12”键,唤起 Chrome 开发者工具,选择 network 这个 Tab,浏览器发出的每个请求的详情都会在这里显示。

设置超时时间

通过timeout属性设置超时;过了这个时间还没有获得效应内容,提示错误

import requests
if __name__ == '__main__':
    r=requests.get('https://www.baidu.com/' ,timeout=0.00001)
    print(r.text)

时间设置过短,必然报错
在这里插入图片描述
时间改的长一点就ok了

import requests
if __name__ == '__main__':
    r=requests.get('https://www.baidu.com/' ,timeout=0.1)
    print(r.text)

在这里插入图片描述

reteying库

timeout说完了,reteying怎么可能不提一下?
Scripts文件夹里面pip install retrying一下就可以使用了
成功的
这样就okk了
如果访问一个网站出现了报错,有可能是网络情况不好(比如说我宿舍的宽度总是坏,而且就我一个人的经常坏,差不多每天都会莫名其妙断连,严重影响我的游戏体验,而且1650运行赛博朋克的效果和1977一样,端游直接劝退),这个时候我们应该是重新请求服务器,甚至是重新请求好几次。retrying库登场

import requests
from retrying import retry

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.119 Safari/537.36'}
#让函数反复执行4次,4次全部报错才会报错
@retry(stop_max_attempt_number=4)
def parse_url1(url):  
    print("*"*50)
    response = requests.get(url, headers=headers, timeout=5)
    return response.content.decode()

def parse_url(url):
    try:
        html_str = parse_url1(url)
    except:
        html_str = None
    return html_str


if __name__ == '__main__':
    print(parse_url('http://www.baidu.com'))

在这里插入图片描述
这是执行一次的结果
换个瞎打的地址
在这里插入图片描述

四次返回结果错误

代理访问

采集时为避免封IP;可以使用代理,request的proxies就有用处了
查看IP地址
打开cmd然后ipconfig
http://www.goubanjia.com/ 免费的IP
高匿就是服务器不知道你用了代理,也不知道你的真实IP
匿名就是知道你用了`代理,不知道你的真实IP
透明就是服务器知道你代理还知道你的真实ip

import requests

# 更改ip
proxies = {
  "http": "http://220.181.111.37:80",   # http  型的
  "https": "http://10.10.1.10:1080"   # https 型的
            }

# 用百度检测ip代理是否成功

url = 'http://www.neea.edu.cn/'

# 请求网页传的参数

params = {

    'wd': 'ip地址'

}

# 请求头

headers = {

    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36'

}

# 发送get请求

response = requests.get(url=url, headers=headers, params=params, proxies=proxies)

# 获取返回页面保存到本地,便于查看

with open('ip.html', 'w', encoding='utf-8') as f:
    f.write(response.text)

找了好几个代理,都不行,但是我现在这个可以跑,可能是找的IP被封了,找不到可用的免费ip

import requests

# 更改ip
proxies = {
  "http": "121.233.227.138:9999",   # http  型的
  "https": "113.195.157.122:9999"   # https 型的
            }
# 用百度检测ip代理是否成功

url = 'https://www.baidu.com/s?wd=ip'

# 请求头

# 发送get请求
headers = {

    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.96 Safari/537.36 Edg/88.0.705.50'
}

response = requests.get(url=url, headers=headers)

# 获取返回页面保存到本地,便于查看

with open('ip1.html', 'w', encoding='utf-8') as fp:
    fp.write(response.text)

打开ip1.html跳转的就可以看到我的真实IP了,代理失败,找到了有免费的IP滴滴我

结束了,准备开始实战

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值