import urllib.request #引入第三方模块
url = "http://www.douban.com" #每一个网页都有一个唯一的名称标识 通常称为URL
headers = {"User-Agent":"......"} #模仿正常网页访问时,提供计算机ip 地址 (反爬虫的第一步)
#user-agent 的查找方式: 按F12 点击网络(network) 点击标头(head) 滑到最下面就会发现你电脑的具体ip地址
date = bytes(urllib.parse.urlencode({"name":"eric"}),encoding="utf-8") #date=bytes 将数据转化成二进制 数字包 ; urllib.parse 解析url; urlencode 用于封装数据发送给爬取的网址;encoding="utf-8" 编译方式。
req=urllib.request.Request(url=url,date=date,headers=headers)
# 发出请求信息 其中: req 为一个对象 urllib.request 为引入的一个包 Request封装了浏览器向服务器发送请求的信息
response = urllib.request.urlopen(req)
#封装服务器发给浏览器的响应信息 (服务器指对面的,浏览器是我自己模拟的)
print(response.read().decode(