刚爬了一本画册,正好借这个实例展示一下整个爬取过程,供感兴趣的朋友参考。 这本画册的正文页面(包含对应页码图片的网页)URL形式为
http://www.abcabc.com/index.php/pages/category?Pages_page=pageid
网站网址马赛克一下,用abcabc代替;
category:代表这本书在网站数据库里的编号;
pageid:代表这个页面的页码。
第一步 获取所有页面
在画册的介绍页面可以看到每一页的预览图,点进去看具体某一页的时候反而看不到完整的分页(有的网站会标明页数,有的网站在正文页面里会有完整的分页链接,可以据此查看总页数)。根据预览图提示可以知道这本书一共有44页,所以要做的就是抓取pageid为1~44的44个网页。 第二步 提取每个正文页面里的图片URL一个网页上往往会有不计其数的图片、链接。如何得到自己要的关键信息,只能靠F12去分析网页,查看目标信息所在位置,本次案例里需要提取的是正文画页图片的URL,在http get获取到正文页面的源码后,有如下几个思路来提取所需的URL:
- 字符串处理(查找):查找特定特征的字符串——可以是元素id(id="image"),可以是url固定的前导部分
字符串处理(正则):本质和上面一种方法一样

本文介绍了如何使用WPS结合Excel批量重命名文件,并提供了两个爬虫实例,展示了如何从网页中提取图片URL并下载。第一个案例涉及分析网页结构,通过字符串处理或正则表达式获取图片URL,然后使用Excel生成批处理命令进行重命名。第二个案例展示了在单一页面中提取所有图片URL并使用迅雷批量下载的方法。
最低0.47元/天 解锁文章
...&spm=1001.2101.3001.5002&articleId=112265912&d=1&t=3&u=0696eeb8ecb641b7b2a239017cac8dbf)
3875

被折叠的 条评论
为什么被折叠?



