python爬取鬼灭漫画+简单JS分析

一、获取所有章节URL地址

打开网址后,使用Chrome抓包,发现所有章节的数据如下所示:图片

def get_html(url):
    r=requests.get(url,headers=header)
    r.encoding='gbk'
    if r.status_code==200:
        return r.text
    except:
        print('网络连接异常')

def get_total_chapter():
    data=json.loads(get_html(url))
    chapter_total=data['Comics'][2]['Chapters']
    for item in chapter_total:
        yield item.get('Url')

二、解析图片地址,进行简单JS解密

点击进入第一话后,分析网页源码,发现图片保存在a标签下的img中,但是需要爬取的src是用javascript写的!这个时候直接用lxml库去解析是拿不到图片的。图片这里,我们先分析图片链接的组成,用正则把提取出来即可。

src='"+m201304d+"newkuku/2016/02/15/鬼灭之刃][第1话/JOJO_001513.jpg'

其中,m201304是加密的部分,这个网站比较简单,直接找到js4.js文件,即可发现m201304对应的是http://v2.kukudm.com/,除此之外还有三个加密码,我们可以构建成列表,用if判断是否含如下加密码,再用replace替换即可。图片

三、翻页分析

图片图片分析URL可知,第一话共54页,通过改变末尾的/number.html即可实现翻页

全部代码

所有图片都放在桌面的comic文件夹

import requests
import json
import os
import re
import time
os.chdir('C:/Users/dell/Desktop/comic')
url='https://api.soman.com/soman.ashx?action=getsomancomicdetail&comicname=%E9%AC%BC%E7%81%AD%E4%B9%8B%E5%88%83&source=kuku%E5%8A%A8%E6%BC%AB'
header={'user-agent':"Opera/9.80 (Windows NT 6.0; U; en) Presto/2.8.99 Version/11.10"}

def get_html(url):
    r=requests.get(url,headers=header,timeout=5)
    r.encoding='gbk'
    if r.status_code==200:
        return r.text
    else:
        print('网络连接异常')

def get_total_chapter():
    data=json.loads(get_html(url))
    chapter_total=data['Comics'][2]['Chapters']
    for item in chapter_total:
        yield item.get('Url')

        
def save_items(url,count):
    r=requests.get(url,headers=header,timeout=5)
    with open('./第{}话/'.format(count)+str(int(time.time()))+'.jpg','wb') as f:
        f.write(r.content)

def get_all_img():  #得到每话总图片数
    src_list=["m200911d","m201001d","m201304d","k0910k"]
    count=0
    for chapter in get_total_chapter():
        try:
            count+=1
            os.makedirs('./第{}话'.format(count))
            pat='共(.*?)页'
            total_page=re.search(pat,get_html(chapter)).group(1)
            for page in range(1,int(total_page)+1):
                pat1='<IMG SRC=(.*)></a>'
                src=re.search(pat1,get_html(chapter)).group(1)
                for item in src_list:
                    if item in src_list:
                        src=src.replace("+"+item+"+",'http://v2.kukudm.com/').replace('"','')            
                save_items(eval(src),count)
                print('第{}话第{}页爬取完成'.format(count,page))
                now_page=re.search('.*/(.*)\.htm',chapter).group(1)
                chapter=chapter.replace(str(now_page)+'.htm',str(page+1)+'.htm')
        except:
            print('未爬取到数据')
if __name__=='__main__':
    get_all_img()

最终爬取的漫画如下(这里仅作示例,只爬取了前10话的内容):图片图片10话大概爬取了25分钟左右,算下来,爬完188话,也要7个多小时…后续可以用多进程方法加速一下爬取速度。

关于Python学习指南

学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后给大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!

包括:Python激活码+安装包、Python web开发,Python爬虫,Python数据分析,人工智能、自动化办公等学习教程。带你从零基础系统性的学好Python!

👉Python所有方向的学习路线👈

Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。(全套教程文末领取)

在这里插入图片描述

👉Python学习视频600合集👈

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉Python70个实战练手案例&源码👈

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉Python大厂面试资料👈

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。

在这里插入图片描述

在这里插入图片描述

👉Python副业兼职路线&方法👈

学好 Python 不论是就业还是做副业赚钱都不错,但要学会兼职接单还是要有一个学习规划。

在这里插入图片描述

👉 这份完整版的Python全套学习资料已经上传,朋友们如果需要可以扫描下方CSDN官方认证二维码或者点击链接免费领取保证100%免费

  • 24
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬取漫画教程通常会涉及以下几个步骤: 1. **选择库**:首先,你需要了解Python中用于网络抓取的一些库,如`requests`用于发送HTTP请求获取网页内容,`BeautifulSoup`或`lxml`用于解析HTML文档提取所需信息。 2. **分析目标网站**:确定你要抓取的漫画站点的结构,比如是否使用JavaScript加载内容、是否存在反爬机制等。 3. **发起请求**:利用`requests.get()`函数获取页面源码,并保存到变量中。 4. **解析HTML**:通过BeautifulSoup或其他工具,查找包含漫画图片链接或章节链接的部分,并提取出来。 5. **处理数据**:将提取的链接组织成可以下载或进一步处理的数据结构,如列表或字典。 6. **下载图片**:对于每一张图片,如果网站允许直接下载,可以用`requests`再次请求并保存图片文件。 7. **存储结果**:将下载的图片存储在一个本地目录或数据库中。 8. **异常处理**:考虑到网络不稳定等因素,添加适当的错误处理和重试机制。 9. **遵守网站规则**:尊重版权,不要无授权大规模抓取,注意robots.txt文件的要求。 **示例代码片段**(简化版): ```python import requests from bs4 import BeautifulSoup def fetch_chapter(url): response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') # 找到图片链接并下载 image_links = soup.select('.comic-image a') # 这里假设图片链接在class为"comic-image"的a标签内 for link in image_links: download_image(link['href']) def download_image(image_url): try: with open('comic_' + image_url.split('/')[-1], 'wb') as f: img_data = requests.get(image_url).content f.write(img_data) except Exception as e: print(f'Error downloading {image_url}: {e}') # 主函数 fetch_chapter('http://example.com/manga-chapter-page') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值