python3爬虫做一个界面_Python爬虫|做了个带界面的nhentai爬虫(附源码,使用多线程加速)...

#Python# #Python爬虫# #nhentai#  #编程#

学校老是不开学,这几天闲得无聊在家用Python写了个nhentai爬虫,用PyQt5做的图形界面,支持多任务多线程,🚀般的下载速度,不知道赶不赶得上大家的速度😆

👉exe下载链接和github在文末给出👈

代码已开源,还贴心的用pyinstaller打包成exe了,方便各位不懂编程的同学们直接使用

⚠️使用注意如果你使用的是ss代理,请调至全局模式

先放效果图,输入简介页的网址,设置线程数,点击就下⬇️

用20线程下载一个有20张图的图集,可以说是几乎不需要时间(取决于你代理的速度,实测可以拉满⛔)单任务多线程,可以说是非常快了

由于实现了界面和逻辑分离,甚至还能在上一个任务没下载完的时候创建新任务,简直是火箭助推加速🚀不知道大家遭不遭得住多任务多线程,极致速度,互不干扰

下载结束,分开放好,打开文件,开始学习🥳独立公寓条件好

当然也有程序员专用的cmd版👨‍💻用法见githubcmd版看起来确实要唬人一点嗷

最后放两张程序原理图镇贴

详细原理请大家到github上查看(链接在文末)单任务多线程

多任务多线程

如果觉得有趣,请给专栏点个赞

如果觉得有用,请给GitHub点个星🌟🌟

github地址:

https://github.com/chenyuqin-dlut/nhentai-imgcollect

求star🖖🖖

这里是点开就用的exe文件下载:👇👇

https://github.com/chenyuqin-dlut/nhentai-imgcollect/releases/tag/v0.1

(其实就是github的releases页[受虐滑稽])

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 使用Python编写一个简单的爬虫程序,可以获取Python百度百科的所有链接内容并以网页的形式保存。 首先,需要安装Python中的requests和BeautifulSoup库。然后,通过requests库发送HTTP请求,获取Python百度百科首页的HTML源码。 接下来,利用BeautifulSoup库解析HTML源码,并提取所有链接的href属性。这些链接是百度百科Python相关的词条链接。 然后,遍历这些链接,并逐个请求获取每个词条页面的HTML源码。 在循环中,我们可以使用BeautifulSoup库解析每个词条页面的HTML源码,并提取出需要的内容,例如词条的标题、摘要、正文等。 最后,将获取的内容以网页的形式保存,可以使用Python中的文件操作方法将 HTML源码保存为一个以链接名称命名的HTML文件。 这样就实现了一个简单的爬虫程序,可以获取Python百度百科的所有链接内容,并以网页的形式保存起来。 当然,在实际应用中,还需要考虑一些细节,例如处理网页加载速度、异常处理、多线程或异步请求等,以提高程序的稳定性和效率。 ### 回答2: 利用Python一个简单的爬虫程序,可以获取Python百度百科的所有链接内容,并以网页的形式呈现出来。首先,需要安装和导入相关的库,如requests和BeautifulSoup。然后,通过发送HTTP请求获取百度百科的页面源代码。使用BeautifulSoup库解析页面,根据HTML标签和属性定位到所有链接的元素。将所有链接存储到一个列表中。 接下来,可以遍历列表中的每个链接,并发送HTTP请求获取链接对应页面的源代码。使用BeautifulSoup库解析页面,提取出网页的内容部分,然后将内容以网页的形式呈现出来。可以使用类似Flask这样的框架创建一个简单的Web服务,将内容作为响应返回给浏览器,通过访问本地URL就可以查看爬取到的Python百度百科的内容。 简单爬虫程序的代码示例如下: ```python import requests from bs4 import BeautifulSoup from flask import Flask app = Flask(__name__) @app.route("/") def crawl_python_baidu(): url = "https://baike.baidu.com/item/Python/407313" response = requests.get(url) soup = BeautifulSoup(response.text, "html.parser") links = soup.find_all("a") content = "" for link in links: content += "<a href='" + link.get("href") + "'>" + link.get_text() + "</a><br/>" return content if __name__ == "__main__": app.run() ``` 执行以上代码后,可以通过浏览器访问http://localhost:5000,就能够看到爬取到的Python百度百科的内容,并以网页的形式展示出来。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值