Python爬虫技术3:获取数据

Python爬虫技术3:获取数据
b站学习:https://www.bilibili.com/video/BV12E411A7ZQ

一、补充urllib的知识
使用httpbin.org网站帮助我们检查

注意:以下代码要import urllib.request(有些没复制上来)
1.get

import urllib.request

#获取一个get请求
response=urllib.request.urlopen("http://www.baidu.com")
print(response.read().decode('utf-8'))      #会获取到的网页源码进行解码

把得到的结果放入一个新建的html文件中就可以用浏览器打开该网页

response=urllib.request.urlopen("http://httpbin.org/get")
print(response.read().decode('utf-8'))

模拟结果:
在这里插入图片描述
网页提供的真实结果:
在这里插入图片描述

2.post

import urllib.request

#获取一个post请求

import urllib.parse
data=bytes(urllib.parse.urlencode({"hello":"world"}),encoding="utf-8")  #封装成字节文件
response=urllib.request.urlopen("http://httpbin.org/post",data=data)
print(response.read().decode("utf-8"))

模拟结果:
在这里插入图片描述
在httpbin.org网站上看到的结果:
在这里插入图片描述
3.超时处理
防止爬虫的网页相应失败而停滞不前

#超时处理(异常处理)
try:
    response=urllib.request.urlopen("http://httpbin.org/get",timeout=0.01)
    print(response.read().decode('utf-8'))
except urllib.error.URLError as e:
    print("timeout!")
response=urllib.request.urlopen("http://douban.com")
# print(response.status)
print(response.getheaders())

在这里插入图片描述
418表示被网站发现你在爬虫
(百度可以,我们改用百度)

#response不仅可以返回请求的网页信息,还可以查看一些头部等等响应信息
response=urllib.request.urlopen("http://www.baidu.com")
print(response.getheaders())
print(response.getheader("Server"))

在这里插入图片描述

与百度网站分析相比:
在这里插入图片描述
是可以获取到相应的响应头部信息的。

4.伪装自己
从上面的结果可以看到,模拟的User-agent与真实的浏览器的User-agent是不一样的,因此会被识破,所以我们接下来要伪装自己,达到与浏览器真实的响应一样的结果。

例子1:使用post访问httpbin.org

import urllib.parse
url="http://httpbin.org/post"
headers={
#伪装自己
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.106 Safari/537.36"
}
data=bytes(urllib.parse.urlencode({"name":"vivian"}),encoding="utf-8")
req=urllib.request.Request(url=url,data=data,headers=headers,method="POST") #被我们封装的请求对象
response=urllib.request.urlopen(req)
print(response.read().decode("utf-8"))

在这里插入图片描述
例子2:使用get访问豆瓣

import urllib.parse
url="https://douban.com"
headers={
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.106 Safari/537.36"
}
req=urllib.request.Request(url=url,headers=headers)
response=urllib.request.urlopen(req)
print(response.read().decode("utf-8"))

在这里插入图片描述

二、获取数据
在这里插入图片描述

#-*- coding = utf-8 -*-
#@Time : 2020/9/8 23:17
#@Author : Vivian
#@File : spider.py
#@Sofeware : PyCharm

from bs4 import BeautifulSoup  #网页解析,获取数据
import re   #正则表达式,进行文件匹配
import urllib.request,urllib.error  #指定URL,获取网页数据
import xlwt #进行excel操作
import sqlite3  #进行SQLite数据库操作


def main():
    baseurl="https://movie.douban.com/top250?start="
    #1.爬取网页
    datalist=getData(baseurl)

    savepath=".\\豆瓣电影Top250.xls"
    #3.保存数据
    #saveData(savepath)

    askURL("https://movie.douban.com/top250?start=0")

#爬取网页
def getData(baseurl):
    datalist=[]
    for i in range(0,10):       #调用获取页面信息的函数:十次
        url=baseurl+str(i*25)
        html=askURL(url)        #保存获取到的网页源码

        # 2.逐一解析数据
    
    return datalist

#得到指定一个URL的网页内容
def askURL(url):
    head={      #模拟浏览器头部信息向豆瓣服务器发送消息   注意空格去掉
        "User-Agent": "Mozilla / 5.0(Windows NT 10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 80.0.3987.106Safari / 537.36"
    }
            #用户代理:告诉豆瓣服务器我们是什么类型的机器(浏览器)(表示我们可以接收什么水平的文件内容)

    request=urllib.request.Request(url,headers=head)
    html=""
    try:
        response=urllib.request.urlopen(request)
        html=response.read().decode("utf-8")
        print(html)
    except urllib.error.URLError as e:
        if hasattr(e,"code"):
            print(e.code)
        if hasattr(e,"reason"):
            print(e.reason)
    return html



#保存数据
def saveData(savepath):
    pass

if __name__ == "__main__":      #当程序执行时(入口)
    #调用函数
    main()
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值