【python爬虫】全国大学生创业服务网项目按高校分类查询

博主利用Selenium爬取全国大学生创业服务网的数据,针对网站没有按高校分类的情况,编写了一个小爬虫实现按高校分类抓取信息。虽然网站Ajax数据可直接获取,但选择使用Selenium进行抓取以复习其用法。文章提到网站数据加载速度慢,需要注意确保数据加载完成,否则可能引发错误。
摘要由CSDN通过智能技术生成

前言

这是本站的第一篇博客,本来想写些环境搭建的,但是基本上所需的环境我都已经搭建好了,以后如果遇到再说吧。
过年在家闲的无聊,到全国大学生创业服务网上随便看看找点灵感,想看看自己学校有哪些项目,发现其导航分类竟然没有按高校分,因此我写了个小爬虫按高校分类抓数据。在这里插入图片描述

正文

对数据内容进行分类查询下一页等操作发现网站url无变化,心想这又是要抓Ajax数据啊?
不过简单分析下发现这个网站Ajax数据好像可以直接抓?,没有难度。
在这里插入图片描述在这里插入图片描述
因此就决定用Selenium来抓,就当复习其用法了。

爬虫过程

在这里插入图片描述

代码(python3.6)
import csv
import requests
from lxml import etree
from selenium import webdriver
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.by import By


class PioneerSpider(object):
    headers = {
   
        "User-Agent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36"
    }
    driver_path = r"/home/laen/program/chromedriver_linux64/chromedriver"

    def __init__(self):
        self.driver = webdriver.Chrome(executable_path=self.driver_path)
        self.url = "http://cy.ncss.org.cn/search/projects#"
        fp = open("pioneer.csv", 
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值