Python爬虫爬取部分学校的新闻标题、时间、对应的新闻链接

使用工具

PyCharm 2018.2.3
Anaconda Navigator
Python 3.6
谷歌浏览器插件:chrome_Xpath_v2.0.2
微云下载链接:https://share.weiyun.com/5iE161Y

准备步骤

1. Anaconda Navigator

打开Anaconda Navigator,创建一个Python 3.6的运行环境
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在 Anaconda Navigator中安装 对应的Python库
要 安装 gevent库、 xlwt库、 etree库、requests库
以下是安装库的方法。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
安装成功
在这里插入图片描述

如果需要使用命令行进行安装
选择Open Terminal
在这里插入图片描述安装方法:pip3 install 模块名

在这里插入图片描述

2. 安装chrome_Xpath_v2.0.2

打开谷歌浏览器 找到自定义及控制
在这里插入图片描述
选择扩展程序
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
安装完成
在这里插入图片描述
在这里插入图片描述

3. 使用chrome_Xpath_v2.0.2

使用F12,打开 谷歌浏览器 开发者工具
在这里插入图片描述
在这里插入图片描述
选择:Copy XPath在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

环境搭建

打开PyCharm
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

代码示例

#_*_coding:utf-8_*_
# @Author: VVcat
# @Time: 2019/9/27 18:54
# @File: Main.py
# @IDE: PyCharm
# @Email: 206647497@qq.com
# @Version: 1.0

import gevent
import xlwt as xlwt
from lxml import etree
import requests


def school():
    xls = xlwt.Workbook(encoding='utf-8')  # 创建一个工作簿,括号中为编码方式

    # 创建sheet表
    # 括号中cell_overwrite_ok=True是为了可以让用户在同一单元格重复写内容,但只保留生效最后一次写入
    sheet = xls.add_sheet("school", cell_overwrite_ok=True)
    row = 0

    for index in range(1, 330):  # 页面有329页
        if index == 1:
            url = "http://www.zjitc.net/xwzx/xyxw.htm"  # 第一页的链接
        else:
            url = "http://www.zjitc.net/xwzx/xyxw/" + str(index - 1) + ".htm"  # 第一页之后的链接
        req = requests.get(url)  # 请求获取页面HTML代码
        resp = req.content.decode("utf-8")  # 设置页面编码格式为utf-8
        html = etree.HTML(resp)  # 构造了一个XPath解析对象并对HTML文本进行自动修正。
        uls = html.xpath("/html/body/div[3]/div[8]/div[2]/div/ul/li/a/div[2]/div")  # 对内容进行定位,获取所有的 内容存放在 list集合里
        for ul in uls:  # 对集合进行遍历
            title = ul.xpath("h3")  # 获取标题
            url = str(title[0].xpath("../../../@href")[0])  # 获取新闻链接
            url = url.replace("../..", "http://www.zjitc.net")  # 对新闻链接进行分割拼接
            day = ul.xpath("../../div[1]/i")  # 获取天数
            month = ul.xpath("../../div[1]/em")  # 获取月份
            sheet.write(row, 0, title[0].text)  # 将标题写入excel
            sheet.write(row, 1, month[0].text + day[0].text + "日")  # 将日期写入excel
            sheet.write(row, 2, url)  # 将链接写入excel
            row += 1
        xls.save("school.xls")  # 为excel文件命名

if __name__ == '__main__':
    school = gevent.spawn(school)  # 将函数放入到python协程中
    school.join()  # 开启协程

效果展示

在这里插入图片描述

  • 12
    点赞
  • 51
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值