爬虫基础实战 二(封装抓取网页代码)

上节回顾

上节主要学习了:

  1. requests get 网页
  2. 使用bs4中的BeautifulSoup格式化网页
  3. 通过select进行标签查找
  4. text文本显示内容
  5. 格式化时间

封装待处理网页

import requests
from bs4 import BeautifulSoup
httplink = 'http://news.sina.com.cn/c/nd/2016-08-20/doc-ifxvctcc8121090.shtml'
res = requests.get(httplink)
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text,'html.parser')

提取网页内容

通过审查元素,查找原文可以知道,文章内容在“id=artibody”下,所以

soup.select('#artibody')

因为我们需要的事“p”标签里面的内容所以

soup.select('#artibody p')

同时因为也不要最后一段所以

soup.select('#artibody p')[:-1]

从上面我们已经得到了文章内容,但是被“p”标签隔开,所以我们需要却掉标签连接起来

最后得到是一个列表,显然不是我们要的,所以通过

' '.join(artlist)

连接起来,获得需要的字符串

一行文写上面的代码

artlist = [i.text.strip() for i in soup.select('#artibody p')[:-1]]
' '.join(artlist)

一样的效果但是更简洁。
来更简洁一些

artstr = ' '.join([i.text.strip() for i in soup.select('#artibody p')[:-1]])

取得编辑名称

editor = soup.select('.article-editor')[0].text.strip('责任编辑:')

取得评论数

从上图发现,查找到的评论数,居然过滤出来的是空列表。
所以推测,这数值来源于js生成。

从新加载开发者工具后,在js中遍历找到了评论的位置。

import requests
comments = requests.get('http://comment5.news.sina.com.cn/page/info?version=1&format=js&channel=gn&newsid=comos-fxvctcc8121090&group=&compress=0&ie=utf-8&oe=utf-8&page=1&page_size=20')

import json
jd = json.loads(comments.text.strip('var data='))

这时候获得json字典,然后在观察网页,会发现评论在 result 下的 count 内total的valun之。

jd['result']['count']['total']

最终取得 评论数。

抓取ID

newaurl = 'news.sina.com.cn/c/nd/2016-08-20/doc-ifxvctcc8121090.shtml'

# url通过“/”分割
newsid = newaurl.split('/')
# 获得列表后我们打开最后一项
newsid = newsid[-1]
# 去掉“.shtml”
newsid = newsid.rstrip('.shtml')
# 最后过滤掉“doc-”
newsid = newsid.lstrip('doc-')
print(newsid)

上面的方法太长了,也可以用正则表达式。

import re
m = re.search('doc-(.*).shtml',newaurl)
print(m.group(1))

封装评论数

import re
import json
import requests

def getCommentCounts(newsurl):
    # 先获取评论的id
    m = re.search('doc-i(.+).shtml',newsurl)
    newsid = m.group(1)
    # 设置样式链接
    commentURL ='http://comment5.news.sina.com.cn/page/info?version=1&format=js&channel=gn&newsid=comos-fxvctcc8121090&group=&compress=0&ie=utf-8&oe=utf-8&page=1&page_size=20'
    # 把id塞入样式链接形成有效连接
    comments = requests.get(commentURL.format(newsid))
    jd =json.loads(comments.text.strip('var date='))
    return jd['result']['count']['total']

完整最终装抓取代码

import requests
from bs4 import  BeautifulSoup
from datetime import datetime
import re
import json

# 封装评论数
# 需要的库 “import re” “import json”
def getCommentCounts(newsurl):
    # 先获取评论的id
    m = re.search('doc-i(.+).shtml',newsurl)
    newsid = m.group(1)
    # 设置样式链接
    commentURL ='http://comment5.news.sina.com.cn/page/info?version=1&format=js&channel=gn&newsid=comos-fxvctcc8121090&group=&compress=0&ie=utf-8&oe=utf-8&page=1&page_size=20'
    # 把id塞入样式链接形成有效连接
    comments = requests.get(commentURL.format(newsid))
    jd =json.loads(comments.text.strip('var date='))
    return jd['result']['count']['total']

def getNewsDetil(newsurl):
    result = {}
    # 封装待处理网页
    # 需要的库 “import requests”“from bs4 import  BeautifulSoup”
    res = requests.get(newsurl)
    res.encoding = 'utf-8'
    soup = BeautifulSoup(res.text,'html.parser')
    # 获取标题
    result['title'] = soup.select('#artibodyTitle')[0].text
    # 新闻来源
    result['newssource'] = soup.select('.time-source span a')[0].text
    # 获取时间
    # 需要的库 “from datetime import datetime”
    result['dt'] = datetime.strptime(soup.select('.time-source')[0].contents[0].strip(),'%Y年%m月%d日%H:%M')
    # 获取内容
    result['article'] = ' '.join([p.text.strip() for p in soup.select('#artibody p')[:-1]])
    # 获取编辑
    result['editor'] = soup.select('.article-editor')[0].text.strip('责任编辑:')
    # 获取评论数
    result['comments'] = getCommentCounts(newsurl)
    return result
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值