跟爬虫干上了^O^

# !/usr/bin/env python
# -*- coding:utf-8 -*-
import requests
import re
from bs4 import BeautifulSoup 
for x in range(0,637,7):
    x=str(x)
    url = 'http://jingyan.baidu.com/user/npublic?uid=d1b612bceb0dc22ba8ffe137&pn='+x
    reponse = requests.get(url)
    reponse.encoding='utf-8'
    html = reponse.text

    uu = re.findall(r'<a href="(/article/\w+\.html)" title="', html)
    for t in uu:
        url='http://jingyan.baidu.com'+t
        r = requests.get('http://jingyan.baidu.com'+t)
        r.encoding='utf-8'
        h = r.text
        soup = BeautifulSoup(h)
        for i in soup.findAll(['title']):
            print(i.string,'\n')
        print(url,'\n')

运行之后:
这里写图片描述这里写图片描述这里写图片描述
没爬完,电脑ID被封了?
………………
…………
……
…..
….

..
后来发现,不是封ID,而是需要输入验证码。
可能是爬虫跑的太快了,加一个瞌睡虫里面,每隔2秒爬取一个页面:

# !/usr/bin/env python
# -*- coding:utf-8 -*-
import requests
import re
import time
from bs4 import BeautifulSoup 
for x in range(0,637,7):
    x=str(x)
    url = 'http://jingyan.baidu.com/user/npublic?uid=d1b612bceb0dc22ba8ffe137&pn='+x
    reponse = requests.get(url)
    reponse.encoding='utf-8'
    html = reponse.text

    uu = re.findall(r'<a href="(/article/\w+\.html)" title="', html)
    for t in uu:
        url='http://jingyan.baidu.com'+t
        r = requests.get('http://jingyan.baidu.com'+t)
        r.encoding='utf-8'
        h = r.text
        soup = BeautifulSoup(h)
        for i in soup.findAll(['title']):
            print(i.string,'\n')
        print(url,'\n')
        time.sleep(2)

不要手贱的尝试了哈。^O^ ^O^

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值