记录第一次Python爬虫实战:获取招聘单位名称与相应链接

        我的勤工助学工作是在就业中心推送招聘信息,其中有个每日必推的文章叫做“明日宣讲”,里面的内容是明天所有来学校做宣讲的单位名称、时间、地点以及链接到就业中心官网的单位招聘信息的二维码。

        每年九月十月是校招高峰期,所以这个时候工作量特别大,几乎每天都有四五十个单位来校宣讲,然而二维码是我们每天负责的编辑用“草料二维码”手动制作的,非常耗时又辛苦,不少编辑同学又是在读大二大三,每天的课余时间有限,手动制作已经不能满足我们当前的需要。

        看着学校就业网站上整齐排列的招聘信息,我们几个编辑叫苦不迭。在“草料”制作二维码时,我惊喜地发现,它竟然支持批量生成二维码!只需导入表格,点击几下鼠标即可。我陷入沉思:是否可以使用Python的爬虫技术,把就业网站上这些整齐的信息爬下来,然后生成表格呢?剩下的交给“草料”就完事了。说干就干!我开始了关于爬虫的学习之路。

        根据“草料”批量生码的说明,我们只要能得到单位名称和对应的网页链接即可,单位名称用于二维码的文件名称,网页链接是二维码的内容。首先,我参考了nkwshuyi老师的入门教程

如何用Python爬数据?(一)网页抓取_玉树芝兰-CSDN博客https://blog.csdn.net/nkwshuyi/article/details/79435248


环境搭建

        我用的是Python3.7.4、Google Chrome浏览器和Visual Studio Code。下载requests_html模块和pandas模块:

pip install request_html
pip install pandas

学习教程        

        按照教程我写了以下代码:

from requests_html import HTMLSession

session = HTMLSession()
url = 'https://jobcareer.sdu.edu.cn//eweb/jygl/index.so?modcode=jygl_xjhxxck&subsyscode=zpfw&type=ssoSearchXnzp&xjhType=all'
#url是学校就业网站
r = session.get(url)
print(r.html.text)

程序运行结果:
 

可以看到,程序运行后得到了我们想要的一些信息,但是我们制作二维码需要的链接还没有爬下来。

        继续按照教程走,在就业网站空白处右键单击,菜单中选择“检查”,网页右侧出现分栏。点击分栏左上角的按钮,图中绿色箭头标出。

        然后把鼠标悬停在第一个文内链接“沪东中华造船(集团)有限公司招聘”,点击一下。此时分栏里面,内容发生了变化。这个链接对应的源代码被放在分栏区域正中,高亮显示。

        看着高亮的代码,我傻眼了:每个招聘单位代码里清一色的“javascript:void(0);”是什么鬼???教程里那可都是实实在在的网页链接啊!!!到后面我才知道,这种叫做“javascript动态网页”,想爬得另想办法。从这里开始,我只能靠自己了。


转换思路

        我不甘心,想继续按照教程,期望能从网页中得到一些有用的信息。右键选择高亮区域代码,并且在弹出的菜单中,选择 Copy -> Copy selector。在VS Code中执行粘贴,发现复制了以下内容:

#zpeverday > li:nth-child(4) > div:nth-child(1) > a

用这些内容定义sel变量,让 Python 从返回内容中,查找 sel 对应的位置,把结果存到 results 变量中。看看 results 里面都有什么。

from requests_html import HTMLSession

session = HTMLSession()
url = 'https://jobcareer.sdu.edu.cn//eweb/jygl/index.so?modcode=jygl_xjhxxck&subsyscode=zpfw&type=ssoSearchXnzp&xjhType=all'
r = session.get(url)
sel = '#zpeverday > li:nth-child(4) > div:nth-child(1) > a'
results = r.html.find(sel)
print(results)

 看起来像是返回了和高亮代码内容差不多的列表,这个列表中只有一个元素。

        我打算比较一下不同单位直接的网页链接,找出异同点。以前两个单位为例,他们的链接分别是:

#沪东中华造船(集团)有限公司
https://jobcareer.sdu.edu.cn/eweb/jygl/index.so?modcode=jygl_xjhxxck&subsyscode=zpfw&rklx=jyw&type=ssoXnzpView&id=6Us4o6HyTd1U79WMpfbBQv
#南京南瑞继保电气有限公司
https://jobcareer.sdu.edu.cn/eweb/jygl/index.so?modcode=jygl_xjhxxck&subsyscode=zpfw&rklx=jyw&type=ssoXnzpView&id=AEgnwsWqQpVZKW2vQz4vh2

        可以发现:除了最后一个等号后面的内容不同以外,前面都是一样的。这让我很是欣慰,前面相同的部分像是通式,后面相异的部分像是特征值,只要获取到每个单位的特征值,问题不就解决了吗!

        回顾前面和高亮代码内容差不多的列表,我发现,里面就包含了单位的特征值!

         现在我们需要做的就是把特征值给取出来,这里用到.split()方法,轻而易举便取出了特征值:

from requests_html import HTMLSession

session = HTMLSession()
url = 'https://jobcareer.sdu.edu.cn//eweb/jygl/index.so?modcode=jygl_xjhxxck&subsyscode=zpfw&type=ssoSearchXnzp&xjhType=all'
r = session.get(url)
sel = '#zpeverday > li:nth-child(4) > div:nth-child(1) > a'
results = r.html.find(sel)
print(results)

eigenvalue = str(results)
eigenvalue_list = eigenvalue.split("'") #用'分割
for i in range(len(eigenvalue_list)):
    print(eigenvalue_list[i])

查看运行结果,终于找到了特征值:列表倒数第四个元素。

        受教程启发,我又比较了不同单位Copy selector之后的内容:

#zpeverday > li:nth-child(4) > div:nth-child(1) > a #沪东中华造船(集团)有限公司招聘
#zpeverday > li:nth-child(5) > div:nth-child(1) > a #南京南瑞继保电气有限公司招聘

非常幸运,和教程中的情况一致,只需去掉“li”后面的“:nth-child(n)”即可。 

from requests_html import HTMLSession

session = HTMLSession()
url = 'https://jobcareer.sdu.edu.cn//eweb/jygl/index.so?modcode=jygl_xjhxxck&subsyscode=zpfw&type=ssoSearchXnzp&xjhType=all'
r = session.get(url)
sel = '#zpeverday > li > div:nth-child(1) > a'
results = r.html.find(sel)
print(results)

        运行程序,查看结果: 

 这一次,返回了一个具有很多元素的大列表!每一个元素对应一个单位。初步实现了获取招聘网站内所有单位特征值的功能。继续使用.split()方法即可取出特征值。


最后一步

        整理并完善程序:去掉单位后面的“招聘”、过滤“已取消”的单位、并按顺序给单位编号,使用pandas模块,定制表头,生成excel表格,由于“草料”限制,只支持“.xlsx”文件。注意编码时使用“gbk”,否则可能出现乱码情况。

from requests_html import HTMLSession
import pandas as pd

session = HTMLSession()
url = 'https://jobcareer.sdu.edu.cn//eweb/jygl/index.so?modcode=jygl_xjhxxck&subsyscode=zpfw&type=ssoSearchXnzp&xjhType=all'
r = session.get(url)

def get_text_link_from_sel(sel):
    mylist = []
    results = r.html.find(sel)
    i = 1
    for result in results:
        mytext = str(i)+result.text.replace('招聘','')
        if '已取消' in mytext:
            continue
        eigenvalue = str(result)
        eigenvalue_list = eigenvalue.split("'")
        mylink = 'https://jobcareer.sdu.edu.cn/eweb/jygl/index.so?modcode=jygl_xjhxxck&subsyscode=zpfw&rklx=jyw&type=ssoXnzpView&id='+ eigenvalue_list[-4]
        mylist.append((mytext, mylink))
        i = i+1
    return mylist

df = pd.DataFrame(get_text_link_from_sel('#zpeverday > li > div:nth-child(1) > a'))
df.columns = ['company', 'link']
df.to_excel('output.xlsx', encoding='gbk', index=False)

        运行程序,查看生成的表格:

正合我意!接下来把表格文件导入“草料”,交给它就行了。至此,我获取了单位名称和对应链接,再也不必手动制作二维码了。当然,前文关于通式和特征值的结论是由两个推广到所有单位的,所以链接的正确性还有待验证。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

鲨鱼辣椒最帅

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值