爬取糗事百科

自己写的爬取代码,还需进一步优化,仅供参考

import requests
import re
import pandas as pd

class spider():
    def numbers(link):
        number=('正在爬取:'+link+'\n\n')
        return(number)

    def page(url,totalpage):
        changepage=[]
        for i in range(1,totalpage+1):
            page_number=re.sub('/page/\d+','/page/%s'%i,url,re.S)
            changepage.append(page_number)
        return(changepage)

    def htmls(url):         #网页

        html=requests.get(url)
        txt=html.text
        return(txt)

    def offer(home):
        whole=re.findall('<div class="article block untagged mb15"(.*?)<div class="single-clear">',txt,re.S)
        return(whole)

    def author(source):
        name=re.findall('<h2>(.*?)</h2>',source,re.S)
        return('发布人:'+name[0]+'\n\n')


    def contents(cont):
        content=re.findall('<div class="content">(.*?)</div>',cont,re.S)
        return('发布内容:'+content[0])


if __name__=='__main__':

    url='http://www.qiushibaike.com/8hr/page/1/?s=4897603'
    links=spider.page(url,3)

    file=open('jiusihi.txt','w')

    info=[]
    for link in links:
        prin=spider.numbers(link)
        info.append(prin)

        txt=spider.htmls(link)
        datas=spider.offer(txt)
        for data in datas:
            print1=spider.author(data)
            info.append(print1)
            print2=spider.contents(data)
            info.append(print2)
    for each in info:
        file.write(each)
    file.close()



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值