Python爬虫练习第二章【对一个不是…

这段Python代码展示了如何遍历一个名为'yem'的列表,将每个元素与特定URL拼接,并打印出当前处理的页面链接。同时,程序将这些链接写入到名为'mulu.txt'的文件中,采用追加模式。如果发生错误,日志会记录'write backup error'。
摘要由CSDN通过智能技术生成
通过这次练习,让我明白了哪儿不足,好多语法用的不熟练导致
比如 for i in range 很常用,在一个文本中循环调用每行指令的话
  我的思路是创建一个函数 然后用for i in range循环调用
    Python爬虫练习第二章【对一个不是很正经的网站的所有图片进行爬行到本地】
    我之前使用Queue函库,不使用到多线程,所以比较鸡肋。
          Python爬虫练习第二章【对一个不是很正经的网站的所有图片进行爬行到本地】
于是放弃了用Queue

还有就是 read(),readlines() 的使用
  read()是按照原格式直接阅读,readlines()是以字符串形式全部阅读
  对于要循环调用都是用的第二个,【而且!!!一定要记得strip(‘\n’)】就是删除换行,不然循环读取的时候回出现后缀加上了\n   从而无法得到正确的值。

关于正则匹配,我在调试的时候发现有些url可以正确匹配有的不可以,原来是网站在编写的时候源码上由于程序员的性格,导致有着不能匹配,可以在下面在加上一个匹配规则
Python爬虫练习第二章【对一个不是很正经的网站的所有图片进行爬行到本地】


正所谓练剑千日,得心应手,通过这次练习我发现我应该多敲敲代码多多练习。
 
因为网站太大了,所以这次抓取我分了两个步骤,第一步是将模块的所有页面的网址爬行到本地。
比如 这个模块有300页,每页有20篇内容,我最后所需要的就是内容的地址
通过逐次爬行内容网址,获取图片原始地址,再下载下来。
 
贴上第一部分源代码
 
#coding=utf-8
import re
import requests
import Queue
import time
import os
for i in range(1,454):
 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

浪子燕青啦啦啦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值