Python web —— webbrowser + feedparser 网络爬虫刷博器

   最近也是闲的无聊逛逛别人博客,无意间发现一个很好玩的东西,决定第一次转载就这样献出吧。

强大的 Python,强大的 Python web。

我们以 csdn 上的博客文章为例,

  • (1)使用 feedparser 根据 rss 地址,解析前 20 篇博客 url,添加到一个 list

  • (2)用 webbrowser 迭代打开 list 中的 blog url,

  • (3)因为网页资源十分地消耗内存,我们设置每打开 5 个 url,则调用 cmd 命令强制终止浏览器进程。

import webbrowser as web
import time
import os
import feedparser

d = feedparser.parse('http://blog.csdn.net/shao824714565/rss/list')
blog_urls = [entry.id for entry in d.entries]

cnt = 0
for url in blog_urls:
    web.open_new_tab(url)
    cnt += 1
    time.sleep(3)
    if not (cnt % 5):
        os.system('taskkill -F -IM SogouExplorer.exe')


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值