python f.write 保存图片到路径_python自动获取新闻,下载到本地解决没网的烦恼

e24a8743088ca811a2b9d326dc279b5a.png

前言

我们身处在网络的世界,我们的工作,生活都离不开它,但是有的时候断网或则回老家网路都很差的时候,你是怎么解决的呢?要是我的话我会在前一个天,把我要用的文件,音乐,视频缓存到本地,但是每次都要搜索关键字然后在去缓存,很麻烦我们可不可以用python来代替一下自动完成这些手动来完成的事呢?

搜索关键字并把网页保存到本地:

edee11a0a2308d2eb6089d4b23cdd132.png

1.输入一个关键字"NBA";

2.把关键子用urllib.request.quote( )方法进行编码;

3.利用百度的URL+关键字,搜索网页;

4.用url lib.request.Request( )得到一个完整的请求;

5.urlopen( )方法打开URL,并读取;

6.新建一个html,并把数据写入到本地文件;

d5a473bb8d646e83d416d70aab602c6f.png

样文件就下载完成了,观察浏览器是不是发现,这已经是一个本地网页。

缓存新闻到本地:

18eed5159042889b4c3344dfdb18545f.png

1.新建一个变量url,用来读区网页;

2.urlopen( )方法打开URL,并读取;

3.decode方法转换成str类型;

4.分析网页得到一个正则表达式pat;

5.findall方法的到所有的新闻url;

6.用for 循环遍历所有get_url的下标;

7.用try--except来扑捉爬虫出现的错误和异常,这样可以是爬虫遇到错误不会直接挂掉;

8.直接使用url lib.request.uirintrieve( )下载网页到本地,一定用定义一个文件路径用来保存;

9.用urllib.error.URLEror来获得错误代码和错误原因;

运行结果如下:

85b5e8efdc793f83ce66e6f53abd885e.png

可以看到成功的爬取了65个网页并保存到了本地;

a7dd24e31f261eb046be9b7c1fe86f34.png

本地文件夹相应的出现了65个html文件,直接放到浏览器就可以观看;

1b9098548b06bcf1c7feb9208cf94244.png

随便打开一个html文件,结果和我们预想的结果一样,不用怕没网不能看网页了,这只是一部分,只是提供一个思路,或许你做的更好,期待你的作品,发出来我们一起学习一下;

欢迎点击右上角关注➕转发,除了分享技术文章还有福利等你来拿,私信python可以领取python视频,PDF电子文档,爬虫等资料

cada3cbe08215cd8b774dcb1cb83c738.gif
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值