什么叫网络爬虫?

之所以叫网络爬虫(Web crawler) 是因为它们可以沿着网络爬行。它们的本质就是一种递归方式。为了找到 URL 链接, 它们必须首先获取网页内容,检查这个页面的内容,再寻找另一个 URL,然后获取 URL 对应的网页内容,不断循环这一过程。

使用网络爬虫的时候,你必须非常谨慎地考虑需要消耗多少网络流量,还要尽力思考能不能让采集目标的服务器负载更低一些。

 

from urllib.request import urlopen
from urllib.error import HTTPError
from bs4 import BeautifulSoup
import datetime
import random
import re

# 不需要翻墙的镜像站
# http://en.bosimedia.com/wiki/Kevin_Bacon
# 
# <a target=_blank href="/item/%E9%9D%A2%E5%90%91%E5%AF%B9%E8%B1%A1">

def getLinks(articleUrl):
    try:    html = urlopen("https://baike.baidu.com"+articleUrl)
    except HTTPError as e:  print("open url error: ",e)
    try:
        bsObj = BeautifulSoup(html, features="html5lib")
        target = bsObj.find("div", {"class":"para"})
        # (?!:) 不匹配冒号
        res = target.findAll("a", href=re.compile("^(/item/)((?!:).)*$"))
    except AttributeError as e: print("None error", e)
    return res

if __name__ == "__main__":
    random.seed(datetime.datetime.now())
    links = getLinks("/item/java")
    while len(links) > 0:
        newArticle = links[random.randint(0, len(links)-1)].attrs["href"]
        print(newArticle)
        links = getLinks(newArticle)

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值