网络爬虫 - 4 bs4的使用方法与爬取案例

1、bs4

(1)bs4的概念:

​ 是一个Python的第三方模块,用来解析html数据,其提供的api接口非常的人性化。

(2)安装包:

​ pip install bs4
pip install lxml 这个是一个解析器,用来将文档生成对象

(3)如何切换:

​ (a)指令切换, -i 源地址 只针对于这一次的指令安装生效
(b)永久切换,在指定地方写一个配置文件即可

(4)安装方法:

​ windows中安装:

​ (a)在文件资源管理器上面输入 %appdata%
(b)手动创建一个pip的文件夹
(c)新建一个文件 pip.ini
(d)写入如下内容即可
[global]
timeout = 6000
index-url = http://pypi.douban.com/simple
trusted-host = pypi.douban.com
linux中安装:
(a)cd ~
(b)mkdir ~/.pip
(c)vi ~/.pip/pip.conf
(d)编辑内容和windows的内容一模一样

(5)相关语法:
from bs4 import BeautifulSoup

步骤:通过BeautifulSoup这个类,可以将你的html文档生成一个对象,然后这个对象会有一些方法供你使用,就可以得到你想要的节点内容、或者节点属性

可以将本地文件或者网络文件生成对象,先从本地开始学习
(1)根据标签名进行查找
    soup.a  只能得到第一个符合要求的标签
(2)获取属性
    soup.a.attrs   返回一个字典,里面包含所有的属性和值
    soup.a.attrs['href']
    soup.a['href']
(3)获取标签内容
    obj.string
    obj.text
    obj.get_text()
    如果标签里面只有内容,那么三个获取结果都一样
    如果标签里面还有标签,那么第一个获取的是None,后两个获取的是纯文本内容
(4)find方法
    soup.find('a', title='xxx')
    soup.find('a', id='xxx')
    soup.find('a', class_='xxx')
    返回一个对象,只能找到第一个符合要求的节点
    选看:soup.find('a', class_=re.compile(r'xxx'))  可以写正则表达式,一般用的不多
(5)find_all方法
    返回一个列表,列表里面都是对象
    用法和上面的find一样,只不过这个是找到所有,find只是找到一个
    soup.find_all('a', limit=2)  取出前两个
(6)select方法
    根据选择器得到自己想要的节点
    常用的选择器:
    标签选择器   a  div
    类选择器     .lala  .dudu
    id选择器     #lala  #dudu
    后代选择器
    div .lala a     : 后面的是前面的子节点就行
    div > p > a     :后面的必须是前面的直接子节点才行
    群组选择器   div, #lala, .dudu
    属性选择器   input[name=xxx]  div[class=xxx]
    返回的是一个列表,就算选择器精确到一个,也是一个列表,列表中只有一个对象
    也可以通过子对象来查找内容,得到当前子对象里面符合要求的标签内容

2、bs4实例

(1) 爬取三国演义小说
import urllib.request
import time
from bs4 import BeautifulSoup


def parse_first():
    url = 'http://www.shicimingju.com/book/sanguoyanyi.html'
    request = handle_request(url)
    # 发送请求,得到响应
    content = urllib.request.urlopen(request).read().decode('utf8')
    # 解析内容
    soup = BeautifulSoup(content, 'lxml')
    # 得到所有的章节链接
    oa_list = soup.select('.book-mulu > ul > li > a')
    fp = open('三国演义.txt', 'w', encoding='utf8')
    # print(oa_list)
    # print(len(oa_list))
    # 遍历列表,通过对象依次获取内容和链接
    for oa in oa_list:
        # 得到链接
        href = 'http://www.shicimingju.com' + oa['href']
        # 得到章节标题
        title = oa.text
        print('正在下载%s......' % title)
        # 向href发送请求,通过bs得到该章节的内容
        text = get_text(href)
        string = title + '\n' + text + '\n'
        fp.write(string)
        print('结束下载%s' % title)
        time.sleep(2)
    fp.close()


def get_text(href):
    request = handle_request(href)
    content = urllib.request.urlopen(request).read().decode('utf8')
    soup = BeautifulSoup(content, 'lxml')
    odiv = soup.find('div', class_='chapter_content')
    return odiv.text


def handle_request(url):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) \
        AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
    }
    request = urllib.request.Request(url=url, headers=headers)
    return request


def main():
    parse_first()


if __name__ == '__main__':
    main()
(2)爬取智联招聘岗位信息
import urllib.request
import urllib.parse
from bs4 import BeautifulSoup
import time


class ZhiLianSpider(object):
    def __init__(self, jl, kw, start_page, end_page):
        # 将这些都保存到成员属性中
        self.jl = jl
        self.kw = kw
        self.start_page = start_page
        self.end_page = end_page
        self.url = 'https://sou.zhaopin.com/jobs/searchresult.ashx?'
        self.headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) \
            AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
        }

    def run(self):
        # 打开文件
        self.fp = open('work.txt', 'w', encoding='utf8')
        # 要爬取多页,所以需要循环爬取
        for page in range(self.start_page, self.end_page + 1):
            print('正在爬取第%s页......' % page)
            request = self.handle_request(page)
            # 发送请求,获取响应
            content = urllib.request.urlopen(request).read().decode('utf8')
            # 解析内容
            self.parse_content(content)
            print('结束爬取第%s页' % page)
            time.sleep(2)
        self.fp.close()

    def parse_content(self, content):
        # 生成soup对象
        soup = BeautifulSoup(content, 'lxml')
        # 提取内容
        # 首先提取所有的table
        otable_list = soup.find_all('table', class_='newlist')
        # print(len(otable_list))
        # 过滤掉表头
        otable_list = otable_list[1:]
        # 遍历这个列表,依次提取每一个工作的详细信息
        for otable in otable_list:
            # 职位名称
            zwmc = otable.select('.zwmc > div > a')[0].text.rstrip('\xa0')
            # 公司名称
            gsmc = otable.select('.gsmc > a')[0].string
            # 职位月薪
            zwyx = otable.select('.zwyx')[0].string
            # 工作地点
            gzdd = otable.select('.gzdd')[0].string
            # print(zwmc)
            # exit()
            # 保存到字典中
            item = {
                '职位名称': zwmc,
                '公司名称': gsmc,
                '职位月薪': zwyx,
                '工作地点': gzdd,
            }
            self.fp.write(str(item) + '\n')

    def handle_request(self, page):
        # 拼接url
        # 将get参数写成一个字典
        data = {
            'jl': self.jl,
            'kw': self.kw,
            'p': page
        }
        # 处理data
        data = urllib.parse.urlencode(data)
        url = self.url + data
        # print(url)
        request = urllib.request.Request(url=url, headers=self.headers)
        return request


def main():
    # 工作地点
    jl = input('请输入工作地点:')
    # 工作关键字
    kw = input('请输入工作职位关键字:')
    # 起始页码和结束页码
    start_page = int(input('请输入起始页码:'))
    end_page = int(input('请输入结束页码:'))

    # 面向对象封装
    zhilian = ZhiLianSpider(jl, kw, start_page, end_page)
    zhilian.run()


if __name__ == '__main__':
    main()
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值