博客文章数据的爬取

http://blog.sina.com.cn/s/blog_6266e57b010128l4.html


序,引子


谨以此文,感谢那些在自己的博客上提供优质的问题解答的寂寞英雄们。。我要是女的,就嫁给默默的你们中的一个

回来有了快5天了, 冷的很 因为Google App Engine 被墙,我无法继续完善我的 Moven project  还有20+天才回去,怕到时候会忘记project的进度和细节 就趁着个冷的什么都不想干的时候, 大概的总结一下:

1.增加了Cron: 用来告诉程序每隔30分钟 让一个task 醒来, 跑到指定的那几个博客上去爬取最新的更新
2.用google 的 Datastore 来存贮每次爬虫爬下来的内容。。只存贮新的内容。。

就像上次说的那样,这样以来 性能有了大幅度的提高: 原来的每次请求后, 爬虫才被唤醒 所以要花大约17秒的时间才能从后台输出到前台 而现在只需要2秒不到

3.对爬虫进行了优化

1. Cron.yaml 来安排每个程序醒来的时间

经过翻文档, 问问题 终于弄明白google的cron的工作原理--实际上只是google每隔指定的时间虚拟地访问一个我们自己指定的url…
因此在Django 下, 根本不需要写一个纯的python 程序   一定不要写:
        if __name__=="__main__": 
只需要自己配置一个url 放在views.py里:

def updatePostsDB(request):

    #deleteAll()

    SiteInfos=[]

    SiteInfo={}

    SiteInfo['PostSite']="L2ZStory"

    SiteInfo['feedurl']="feed://l2zstory.wordpress.com/feed/"

    SiteInfo['blog_type']="wordpress"

    SiteInfos.append(SiteInfo)

    SiteInfo={}

    SiteInfo['PostSite']="YukiLife"

    SiteInfo['feedurl']="feed://blog.sina.com.cn/rss/1583902832.xml"

    SiteInfo['blog_type']="sina"

    SiteInfos.append(SiteInfo)

    SiteInfo={}

    SiteInfo['PostSite']="ZLife"

    SiteInfo['feedurl']="feed://ireallife.wordpress.com/feed/"

    SiteInfo['blog_type']="wordpress"

    SiteInfos.append(SiteInfo)

    SiteInfo={}

    SiteInfo['PostSite']="ZLife_Sina"

    SiteInfo['feedurl']="feed://blog.sina.com.cn/rss/1650910587.xml"

    SiteInfo['blog_type']="sina"

    SiteInfos.append(SiteInfo)

    

    try:

        for site in SiteInfos:

            feedurl=site['feedurl']

            blog_type=site['blog_type']

            PostSite=site['PostSite']

            PostInfos=getPostInfosFromWeb(feedurl,blog_type)

            recordToDB(PostSite,PostInfos)

        Msg="Cron Job Done..." 

    except Exception,e:

        Msg=str(e)   

       return HttpResponse(Msg)


cron.yaml 要放在跟app.yaml同一个级别上:

cron:

- description: retrieve newest posts

  url: /task_updatePosts/

   schedule: every 30 minutes

在url.py 里只要指向这个把task_updatePostsDB 指向url就好了

调试这个cron的过程可以用惨烈来形容。。。在stackoverflow上有很多很多人在问为什么自己的cron不能工作。。。我一开始也是满头是汗,找不着头脑。。。最后侥幸弄好了, 大体步骤也是空泛的很。。但是很朴实:
        首先,一定要确保自己的程序没有什么syntax error….然后可以自己试着手动访问一下那个url 如果cron 正常的话,这个时候任务应该已经被执行了 最后实在不行的话 多看看log…

2. Datastore的配置和利用--Using Datastore with Django

我的需求在这里很简单--没有join…所以我就直接用了最简陋的django-helper..
这个models.py 是个重点:

from appengine_django.models import BaseModel

from google.appengine.ext import db


classPostsDB(BaseModel):

    link=db.LinkProperty()

    title=db.StringProperty()

    author=db.StringProperty()

    date=db.DateTimeProperty()

    description=db.TextProperty()

      postSite=db.StringProperty()

前两行是重点中的重点。。。。我一开始天真没写第二行。。。结果我花了2个多小时都没明白是怎么回事。。得不偿失。。。
读写的时候, 千万别忘了。。。PostDB. put()

一开始的时候,我为了省事,就直接每次cron被唤醒, 就删除全部的数据, 然后重新写入新爬下来的数据。。。
结果。。。一天过后。。。有4万条读写纪录。。。。而每天免费的只有5万条。。。。
所以就改为在插入之前先看看有没有更新, 有的话就写,没的话就不写。。总算把数据库这部分搞好了。。。

3.爬虫的改进:
一开始的时候,爬虫只是去爬feed里给的文章。。这样一来, 如果一个博客有24*30篇文章的话。。。最多只能拿到10篇。。。。
这次,改进版能爬所有的文章。。我分别拿孤独川陵, 韩寒, Yuki和Z的博客做的试验。。成功的很。。。其中孤独川陵那里有720+篇文章。。。无遗漏掉的被爬下来了。。

import urllib

#from BeautifulSoup import BeautifulSoup

from pyquery import PyQuery as pq

def getArticleList(url):

    lstArticles=[]

    url_prefix=url[:-6]

    Cnt=1

    

    response=urllib.urlopen(url)

    html=response.read()

    d=pq(html)

    try:

        pageCnt=d("ul.SG_pages").find('span')

        pageCnt=int(d(pageCnt).text()[1:-1])

    except:

        pageCnt=1

    for i in range(1,pageCnt+1):

        url=url_prefix+str(i)+".html"

        #print url

        response=urllib.urlopen(url)

        html=response.read()

        d=pq(html)

        title_spans=d(".atc_title").find('a')

        date_spans=d('.atc_tm')

        

        for j in range(0,len(title_spans)):

            titleObj=title_spans[j]

            dateObj=date_spans[j]

            article={}

            article['link']= d(titleObj).attr('href')

            article['title']= d(titleObj).text()

            article['date']=d(dateObj).text()

            article['desc']=getPageContent(article['link'])

            lstArticles.append(article)

    return lstArticles

    

def getPageContent(url):

    #get Page Content

    response=urllib.urlopen(url)

    html=response.read()

    d=pq(html)

    pageContent=d("div.articalContent").text()

    #print pageContent

    return pageContent

def main():

   url='http://blog.sina.com.cn/s/articlelist_1191258123_0_1.html'#Han Han

   url="http://blog.sina.com.cn/s/articlelist_1225833283_0_1.html"#Gu Du Chuan Ling

   url="http://blog.sina.com.cn/s/articlelist_1650910587_0_1.html"#Feng

   url="http://blog.sina.com.cn/s/articlelist_1583902832_0_1.html"#Yuki

    lstArticles=getArticleList(url)

    for article in lstArticles:

        f=open("blogs/"+article['date']+"_"+article['title']+".txt",'w')

        f.write(article['desc'].encode('utf-8')) #特别注意对中文的处理

        f.close()

        #print article['desc']

        

if __name__=='__main__':

      main()
 
 对PyQuery的推荐。。
很遗憾的说, BueautifulSoup让我深深的失望了。。。在我写上篇文章的时候,当时有个小bug..一直找不到原因。。在我回家后,又搭上了很多时间试图去弄明白为什么BueautifulSoup一直不能抓到我想要的内容。。。后来大体看了看它selector部分的源代码觉得应该是它对于很多还有<script>tag的不规范html页面的解析不准确。。。

我放弃了这个库, 又试了lxml..基于xpath 很好用。。但是xpath的东西我老是需要查文档。。。 所以我又找了个库PyQuery…可以用jQuery选择器的工具。。。非常非常非常好用。。。。具体的用法就看上面吧。。。这个库 有前途。。。

 隐忧 
因为pyquery基于lxml…而lxml的底层又是c…所以估计在gae上用不了。。。我这个爬虫只能现在在我的电脑上爬好东西。。。然后push到server上。。。


总结


一句话, 我爱死Python了
两句话, 我爱死Python了,我爱死Django了
三句话, 我爱死Python了,我爱死Django了,我爱死jQuery了。。。
四句号,  我爱死Python了,我爱死Django了,我爱死jQuery了,我爱死pyQuery了。。。

谨以此文,感谢那些在自己的博客上提供优质的问题解答的寂寞英雄们。。我要是女的,就嫁给默默的你们中的一个
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值