手把手带你爬虫 | 爬取语录大全

公众号后台回复“图书“,了解更多号主新书内容

作者:大头雪糕

来源:数据分析与统计学之美

目标

爬取语录,批量下载到本地。

项目准备

软件:Pycharm

第三方库:requests,fake_useragent,re,lxml

网站地址:http://www.yuluju.com

网站分析

打开网站。

有很多分类,不同类型的语录。 

点击爱情语录,发现上方网址变化为http://www.yuluju.com/aiqingyulu/

点击搞笑语录,也会发生类似的变化。

判断是否为静态网页。

有页码跳转一般为静态网页。Ctrl+U查看源代码,Ctrl+F调出搜索框,输入一些网页上出现的文字。

反爬分析

同一个ip地址去多次访问会面临被封掉的风险,这里采用fake_useragent,产生随机的User-Agent请求头进行访问。

每一页的链接分析

第一页:http://www.yuluju.com/aiqingyulu/list_18_1.html
第二页:http://www.yuluju.com/aiqingyulu/list_18_2.html
第三页:http://www.yuluju.com/aiqingyulu/list_18_3.html

可以发现,每页的变化会随着数字变化。当然这里分析的是爱情语录这一栏目,其它的也类似。

代码实现

1.导入相对应的第三方库,定义一个class类继承object,定义init方法继承self,主函数main继承self。
import  requests
from fake_useragent import UserAgent
from lxml import etree
class yulu(object):
    def __init__(self):
        self.url = 'http://www.yuluju.com'
        ua = UserAgent(verify_ssl=False)
        #随机产生user-agent
        for i in range(1, 100):
            self.headers = {
                'User-Agent': ua.random
            }
    def mian(self):
     pass
if __name__ == '__main__':
    spider = yulu()
    spider.main()
2.交互界面
print('     1.励志语录\n'
              '2.爱情语录\n'
              '3.搞笑语录\n'
              '4.人生语录\n'
              '5.情感语录\n'
              '6.经典语录\n'
              '7.伤感语录\n'
              '8.名人语录\n'
              '9.心情语录\n')
        select=int(input('请输入您的选择:'))
        if (select==1):
            url=self.url+'lizhimingyan/list_1_{}.html'
        elif (select==2):
            url = self.url + 'aiqingyulu/list_18_{}.html'
        elif (select==3):
            url = self.url + 'gaoxiaoyulu/list_19_{}.html'
        elif (select==4):
            url=self.url+'renshenggeyan/list_14_{}.html'
        elif (select==5):
            url=self.url+'qingganyulu/list_23_{}.html'
        elif (select==6):
            url=self.url+'jingdianyulu/list_12_{}.html'
        elif (select==7):
            url=self.url+'shangganyulu/list_21_{}.html'
        elif (select==8):
            url=self.url+'mingrenmingyan/list_2_{}.html'
        else:
            url=self.url+'xinqingyulu/list_22_{}.html'
3.发送请求,获取网页。
    def get_html(self,url):
        response=requests.get(url,headers=self.headers)
        html=response.content.decode('gb2312')#经过测试这里是'gb2312'
        return html
4.解析网页,获取文本信息。
    def parse_html(self,html):
     #获取每页中的链接地址和标题
        datas=re.compile('<a href="(.*?)" class="title" target="_blank">(.*?)</a>').findall(html)
        for data in datas:
            host='http://www.yuluju.com'+data[0]
            res=requests.get(host,headers=self.headers)
            con=res.content.decode('gb2312')
            target=etree.HTML(con)
            #获取文本内容
            results=target.xpath('//div[@class="content"]/div/div/span/text()')
            filename=data[1]
            #保存本地
            with open('F:/pycharm文件/document/'+filename+'.txt','a',encoding='utf-8')as f:
                for result in results:
                    f.write(result+'\n')
5.获取多页及主函数调用。
    def main(self):
        print('1.励志语录\n'
              '2.爱情语录\n'
              '3.搞笑语录\n'
              '4.人生语录\n'
              '5.情感语录\n'
              '6.经典语录\n'
              '7.伤感语录\n'
              '8.名人语录\n'
              '9.心情语录\n')
        select=int(input('请输入您的选择:'))
        if (select==1):
            url=self.url+'lizhimingyan/list_1_{}.html'
        elif (select==2):
            url = self.url + 'aiqingyulu/list_18_{}.html'
        elif (select==3):
            url = self.url + 'gaoxiaoyulu/list_19_{}.html'
        elif (select==4):
            url=self.url+'renshenggeyan/list_14_{}.html'
        elif (select==5):
            url=self.url+'qingganyulu/list_23_{}.html'
        elif (select==6):
            url=self.url+'jingdianyulu/list_12_{}.html'
        elif (select==7):
            url=self.url+'shangganyulu/list_21_{}.html'
        elif (select==8):
            url=self.url+'mingrenmingyan/list_2_{}.html'
        else:
            url=self.url+'xinqingyulu/list_22_{}.html'
        start = int(input('输入开始:'))
        end = int(input('输入结束页:'))
        for page in range(start, end + 1):
            print('第%s页开始:...' % page)
            newUrl=url.format(page)
            html=self.get_html(newUrl)
            self.parse_html(html)
            print('第%s页爬取完成!'%page)

效果显示

打开文件目录:

爬取其它栏目也是可以的,就不做演示了,都一样。

完整代码

import  requests
from fake_useragent import UserAgent
import re
from lxml import etree
class yulu(object):
    def __init__(self):
        self.url='http://www.yuluju.com/'
        ua = UserAgent(verify_ssl=False)
        for i in range(1, 100):
            self.headers = {
                'User-Agent': ua.random
            }
    def get_html(self,url):
        response=requests.get(url,headers=self.headers)
        html=response.content.decode('gb2312')
        return html
    def parse_html(self,html):
        datas=re.compile('<a href="(.*?)" class="title" target="_blank">(.*?)</a>').findall(html)
        for data in datas:
            host='http://www.yuluju.com'+data[0]
            res=requests.get(host,headers=self.headers)
            con=res.content.decode('gb2312')
            target=etree.HTML(con)
            results=target.xpath('//div[@class="content"]/div/div/span/text()')
            filename=data[1]
            with open('F:/pycharm文件/document/'+filename+'.txt','a',encoding='utf-8')as f:
                for result in results:
                    f.write(result+'\n')
    def main(self):
        print('1.励志语录\n'
              '2.爱情语录\n'
              '3.搞笑语录\n'
              '4.人生语录\n'
              '5.情感语录\n'
              '6.经典语录\n'
              '7.伤感语录\n'
              '8.名人语录\n'
              '9.心情语录\n')
        select=int(input('请输入您的选择:'))
        if (select==1):
            url=self.url+'lizhimingyan/list_1_{}.html'
        elif (select==2):
            url = self.url + 'aiqingyulu/list_18_{}.html'
        elif (select==3):
            url = self.url + 'gaoxiaoyulu/list_19_{}.html'
        elif (select==4):
            url=self.url+'renshenggeyan/list_14_{}.html'
        elif (select==5):
            url=self.url+'qingganyulu/list_23_{}.html'
        elif (select==6):
            url=self.url+'jingdianyulu/list_12_{}.html'
        elif (select==7):
            url=self.url+'shangganyulu/list_21_{}.html'
        elif (select==8):
            url=self.url+'mingrenmingyan/list_2_{}.html'
        else:
            url=self.url+'xinqingyulu/list_22_{}.html'
        start = int(input('输入开始:'))
        end = int(input('输入结束页:'))
        for page in range(start, end + 1):
            print('第%s页开始:...' % page)
            newUrl=url.format(page)
            html=self.get_html(newUrl)
            self.parse_html(html)
            print('第%s页爬取完成!'%page)
if __name__ == '__main__':
    spider = yulu()
    spider.main()
◆ ◆ ◆  ◆ ◆麟哥新书已经在当当上架了,我写了本书:《拿下Offer-数据分析师求职面试指南》,目前当当正在举行100-50活动,大家可以用相当于原价5折的预购价格购买,还是非常划算的:


数据森麟公众号的交流群已经建立,许多小伙伴已经加入其中,感谢大家的支持。大家可以在群里交流关于数据分析&数据挖掘的相关内容,还没有加入的小伙伴可以扫描下方管理员二维码,进群前一定要关注公众号奥,关注后让管理员帮忙拉进群,期待大家的加入。
管理员二维码:
猜你喜欢
● 卧槽!原来爬取B站弹幕这么简单● 厉害了!麟哥新书登顶京东销量排行榜!● 笑死人不偿命的知乎沙雕问题排行榜
● 用Python扒出B站那些“惊为天人”的阿婆主!● 你相信逛B站也能学编程吗
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值