- 博客(2)
- 收藏
- 关注
原创 02Python爬虫---浏览器的模拟Headers属性
import urllib.request #导入包 使用urlopen()访问有些网站时会出现403错误,禁止访问的错误,这就需要爬虫模拟成浏览器 一、使用build_opener()修改报头 1、注意urlopen()不支持一些HTTP的高级功能,所以使用urllib.request.build_opener() url = "http://blog.csdn.net/a
2017-12-20 00:43:54 1233
原创 01Python爬虫---快速使用Urllib爬取网页
环境使用python3.5 import urllib.request # 导入模块 一、采用获取网页信息,然后再写入文件中 1、将获取的网页信息 file = urllib.request.urlopen("http://www.baidu.com") data = file.read() # 读取网页全部内容 赋值给一个字符串变量 dataline = file.re
2017-12-18 23:45:12 1143
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人