爬虫(第一天)

爬虫的概念

爬虫就是:模拟浏览器发送网络请求,获取请求响应

爬虫的流程

url – > 发送请求,获取响应---->提取数据—》保存
获取响应 --》提取url地址,继续请求

浏览器的请求过程

浏览器获取的数据包含:url地址对应的响应+js+css+jpg
爬虫会获取:url地址对应的响应
爬虫获取的内容和elements内容不一样,进行数据提取的时候,需要根据url地址对应的响应为准

http的重点请求头

  • user-agent:告诉对方服务器是什么客户端正在请求资源,爬虫中模拟浏览器非常重要的一个手段

  • cookie:获取登录只有才能够访问的资源

requests如何发送请求和获取响应

  • response = requests.get(url)
  • response.text -> str
  • response.encoding=“utf-8”
  • response.content -> bytes
  • response.content.decode()

python2和python3中的字符串

ascii 一个字节表示一个字符
unicode 两个字节表示一个字符
utf-8 边长的编码方式,1,2,3字节表示一个字符

  • python2(encode()与decode()默认是asll码方式编解码的)

    • 字符串类型
      • 字节类型:str,字节类型,通过decode()转化为unicode类型

        str.decode()		字节转化为unicode
        
      • unicode类型:unicode ,通过encode转化为str字节类型

        unicode.encode()			unicode转化为字节类型
        
  • python3(encode()与decode()默认是utf-8码方式编解码的)

    • 字符串类型
      • str:unicode,通过encode() 转化为bytes

        str.encode()  字符转化为字节
        
      • bytes:字节类型,通过decode()转化为str类型

        bytes.decode() 字节转化为字符
        

实列:

  • 把百度图标保存到百度.png中
import requests
url = "https://www.baidu.com/img/superlogo_c4d7df0a003d3db9b65e9ef0fe6da1ec.png?where=super"
response = requests.get(url)

with open("baidu.png","wb")as f:
    f.write(response.content)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值