Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

一提到程序猿,我们的脑子里就会出现这样的画面:

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

心头萦绕的字眼是:秃头、猝死、眼镜、黑白 T 恤、钢铁直男……

而真实的程序猿们,是每天要和无数数据,以及数十种编程语言打交道。上能手握亿万数据面不改色,下能修改 Bug 奋战两昼夜。他们热爱生活,讨厌 Bug……

文章最后有Python基础资料下载,免费的呦,你也可以关注我,私信回复“资料”二字进行获取

时代在进步,今天的程序猿,你真的了解么?

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

程序猿的生活,永远和编程语言有关。目前市面上主流的编程语言有 JavaScript、Python、Ruby、PHP、C++、C#、 Go、C 和 TypeScript

时间有限,今天,我们就来 818 Java 工程师们的世界。快上车!

Java 是一门面向对象编程语言,不仅吸收了 C++ 语言的各种优点,还摒弃了 C++ 里难以理解的多继承、指针等概念,因此 Java 语言具有功能强大和简单易用两个特征。Java 语言作为静态面向对象编程语言的代表,极好地实现了面向对象理论,允许程序员以优雅的思维方式进行复杂的编程。

我们爬了 11 万个 Java 人的信息进行画像分析

Java 主要集中地区:

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

北上广深以 80 迈的速度领跑。成都、杭州、武汉、南京、西安发展势头迅猛。剩下的小可爱们,接下来的日子谁会后来者居上呢?让我们拭目以待。

工作经验主要集中区域:

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

在 Java 世界里面丰盈羽翼,3 到 5 年工作经验必不可少。嗯,5 年差不多刚好可以把头熬秃,希望你在 5 年后还有头发。

薪资梯度:

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

熬出头,世界都是你的。让我们红尘作伴,熬夜加班☺️(口误,让我们红尘作伴,为了爱和梦想)

性别比例:

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

把小姐姐贡献给了世界,把自己贡献给了工作和祖国。谈恋爱,和键盘就行了。

他们的学历集中在:

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

专科、本科大军几乎雄霸 Java 的天下,硕士朋友们凭借着对这份工作的热爱,顽强拼搏,拥有一席之地。你们都是祖国的花朵,是未来的希望!

人数靠前的毕业院校:

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

你的学校上榜了没?让我们用钛合金双眼,锁定自己的学校!(名字越大,代表入 Java 坑的学生数量越多哈)

他们的大学专业集中在:

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

学好数理化,走遍天下都不怕。Java 程序猿需要的技能,都在上面这些专业里了。

他们的上一份工作是:

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

一入 Java 深似海,从此代码是爱人。

跳坑?跳出去算 Java 输 emm……

最后,我们为你绘制出一个完美的 Java 程序猿人才画像:

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

Java 程序猿离不开 Redis、Spring、MySQL、Linux,想要加入的朋友们,来摸摸自己的良心,看看上述技术你有没有 Get。想要在 Java 大军中努力生存,就卯足力气,鼓足后劲吧!

Python 爬取 11 万 Java 程序员信息竟有这些重大发现!

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
# -*- coding:utf-8 -*- import sys #print (u'系统默认编码为',sys.getdefaultencoding()) default_encoding = 'utf-8' #重新设置编码方式为uft-8 if sys.getdefaultencoding() != default_encoding: reload(sys) sys.setdefaultencoding(default_encoding) #print (u'系统默认编码为',sys.getdefaultencoding()) import requests from bs4 import BeautifulSoup import traceback import re import xlwt def getURLDATA(url): #url = 'http://www.cnnvd.org.cn/web/xxk/ldxqById.tag?CNNVD=CNNVD-201901-1014' header={ 'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.80 Safari/537.36', 'Connection': 'keep-alive',} r=requests.get(url,headers=header,timeout=30) #r.raise_for_status()抛出异常 html = BeautifulSoup(r.content.decode(),'html.parser') link=html.find(class_='detail_xq w770')#漏洞信息详情 link_introduce=html.find(class_='d_ldjj')#漏洞简介 link_others=html.find_all(class_='d_ldjj m_t_20')#其他 #print(len(link_introduce)) try: #print ("危害等级:"+link.contents[3].contents[3].find('a').text.lstrip().rstrip())#危害等级 list4.append(str(link.contents[3].contents[3].find('a').text.lstrip().rstrip())) except: #print("危害等级:is empty") list4.append("") try: #print ("CVE编号:"+link.contents[3].contents[5].find('a').text.lstrip().rstrip())#CVE编号 list5.append(str(link.contents[3].contents[5].find('a').text.lstrip().rstrip())) except: #print("CVE编号:is empty") list5.append("") try: #print ("漏洞类型:"+link.contents[3].contents[7].find('a').text.lstrip().rstrip())#漏洞类型 list6.append(str(link.contents[3].contents[7].find('a').text.lstrip().rstrip())) except : #print("漏洞类型:is empty") list6.append("") try: #print ("发布时间:"+link.contents[3].contents[9].find('a').text.lstrip().rstrip())#发布时间 list7.append(str(link.contents[3].contents[9].find('a').text.lstrip().rstrip())) except : #print("发布时间:is empty") list7.append("") try: #print ("威胁类型:"+link.contents[3].contents[11].find('a').text.lstrip().rstrip())#威胁类型 list8.append(str(link.contents[3].contents[11].find('a').text.lstrip().rstrip())) except : #print("威胁类型:is empty") list8.append("") try: #print ("更新时间:"+link.contents[3].contents[13].find('a').text.lstrip().rstrip())#更新时间 list9.append(str(link.contents[3].contents[13].find('a').text.lstrip().rstrip())) except : #print("更新时间:is empty") list9.append("") try: #print ("厂商:"+link.contents[3].contents[15].find('a').text.lstrip().rstrip())#厂商 list10.append(str(link.contents[3].contents[15].find('a').text.lstrip().rstrip())) except: #print("厂商:is empty") list10.append("") #link_introduce=html.find(class_='d_ldjj')#漏洞简介 try: link_introduce_data=BeautifulSoup(link_introduce.decode(),'html.parser').find_all(name='p') s="" for i in range(0,len(link_introduce_data)): ##print (link_introduce_data[i].text.lstrip().rstrip()) s=s+str(link_introduce_data[i].text.lstrip().rstrip()) #print(s) list11.append(s) except : list11.append("") if(len(link_others)!=0): #link_others=html.find_all(class_='d_ldjj m_t_20') #print(len(link_others)) try: #漏洞公告 link_others_data1=BeautifulSoup(link_others[0].decode(),'html.parser').find_all(name='p') s="" for i in range(0,len(link_others_data1)): ##print (link_others_data1[i].text.lstrip().rstrip()) s=s+str(link_others_data1[i].text.lstrip().rstrip()) #print(s) list12.append(s) except: list12.append("") try: #参考网址 link_others_data2=BeautifulSoup(link_others[1].decode(),'html.parser').find_all(name='p') s="" for i in range(0,len(link_others_data2)): ##print (link_others_data2[i].text.lstrip().rstrip()) s=s+str(link_others_data2[i].text.lstrip().rstrip()) #print(s) list13.append(s) except: list13.append("") try: #受影响实体 link_others_data3=BeautifulSoup(link_others[2].decode(),'html.parser').find_all('a',attrs={'class':'a_title2'}) s="" for i in range(0,len(link_others_data3)): ##print (link_others_data3[i].text.lstrip().rstrip()) s=s+str(link_others_data3[i].text.lstrip().rstrip()) #print(s) list14.append(s) except: list14.append("") try: #补丁 link_others_data3=BeautifulSoup(link_others[3].decode(),'html.parser').find_all('a',attrs={'class':'a_title2'}) s="" for i in range(0,len(link_others_data3)): ##print (link_others_data3[i].t

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值