拉钩求职那些困惑

求职期间常常会遇到这样的问题:

1、互联网招聘哪家强?
2、应届毕业生适合用哪家互联网招聘网站?
3、计算机专业,在拉钩上找工作怎么样?
4、拉勾网找程序开发的工作靠谱不?
5、和智联、51job、大街网相比,拉勾招聘怎么样?

回忆:
突然想起年初找工作的哪些琐事了。

去年实习结束后考研去了,结果不是很理想,遂放弃读研。考研期间经常关注拉钩上的关于安卓或java开发的招聘信息,其他的招聘网站也偶有关注。
 
 困惑:
关于拉钩我有无数的困惑,自己也在寻找答案,这里写些自己碰到的问题,和一些想法,大部分困惑我自己也未解决。

去年7月至今年的2月,拉钩网关于安卓、java的招聘信息(我关注的上海地区)一直没有什么变动,整个期间都会看见泰为、某某教育、泛微、有鱼金融科技、平安等常见公司发布的招聘信息,7个多月的信息量一直如此。为什么会出现这个现象呢?和猎聘、智联、51job相比,拉钩上海地区关于java,安卓的招聘信息难道就这么些,还是拉钩的盈利点在这里,给付费的企业提供平台(常见的那些都是付费企业?),拉钩的盈利模式是什么呢?拉钩的产品有哪些呢?

拉勾网投递简历经历:
年初,在拉钩上投了一些简历,均为不合适,有的处理速度要一周,有的很快,可能几分钟(简历符合投递要求、大部分情况符合招聘需求),相对其他的招聘网站和参加的招聘会而言,我在拉钩的投递结果很不理想(现在的工作是在另一些家招聘网上投得的)。

找工作期间,无意中认识拉钩的工作人员,让我把简历给他直接放到我想去的那家公司(类似内推),投中的概率会提高很多。所以如果有认识在拉钩工作的人,简历内推到你在拉钩招聘看到的那家公司,还是很容易的进去的。

拉钩上的招聘信息看似信息质量优良,但是很多的评论里反馈不符合实际。如果你有3-5年工作经验,技术牛人啥的,可能拉钩用起来方便些(待考证),奈何我搜索的范围是3年内、应届毕业生、实习等,信息质量堪忧。  

求职期间有一段神奇的兼职经历,2月份吧,nonobank和拉钩的合作招聘,第一次亲历,互联网招聘的合作模式,鉴证了我的一些困惑,那段时间,拉钩首页、广告随处都能见到宣传nonobank的招聘(果然付<很多>费的招聘合作就是不一样呀)。
 
别人的见解::   
以下在知乎看到的,分享给大家。

作者:匿名用户
链接:https://www.zhihu.com/question/25194523/answer/112504527
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

1、我不明白拉勾网会是这样的结果,直到某天,我自己注册了拉钩公司账户,我才意识这其中的缘由。以下是我的阐述首先,拉勾是一家互联网融资公司,互联网公司的前几年都是黏粘用户,往里头砸钱的。像我们点外卖有美团,打车有滴滴一样,前期的他们的目的就是用优惠黏住用户,击垮竞争对手。拉钩网作为一个招聘网站也是如此,它目前对企业和用户都是免费提供服务的。当它有足够的用户简历时,它就可以盈利了;即使不盈利,也可以继续融资了。 

2、不仅求职者使用是免费的,企业使用拉钩账户也都是免费的,这就导致一个问题。互联网公司那么多,他们都一直在招人吗?不,他们不需要招人,但是他们需要宣传自己公司,给自己公司打广告,这些广告一方面是给求职者看,另一方面给投资人看,看我们公司业务发展多快,给的待遇多好,但其实人家或许就不用拉勾招聘,你看到的满屏幕都是企业的招聘信息,也可以说大部分都是企业的广告。既然有这么好的广告投放平台,面向的都是高端人才,浏览量巨大,而且又是免费的,企业有啥理由不用呢?   
 
3、据我所知,智联招聘和前程无忧盈利模式,很大一部分是来自招聘企业,其次是求职者简历润色或者竞价排名。他们网站上企业需要给招聘网站一些金钱,他们确实在招人,简历处理速度较快。所以就不难理解为何拉勾的简历处理速度要很慢,而且大多数都是不合适。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
由于WebMagic是Java语言编写的爬虫框架,因此在爬取拉钩网站之前,需要先了解该网站的反爬虫机制。拉钩网站采用了多种反爬虫策略,如IP限制、UA限制、Cookie限制、滑块验证码等。因此,在爬取拉钩网站时,需要使用代理IP、随机UA、Cookie池等技术来应对反爬虫机制。 以下是使用WebMagic爬取拉钩网站的步骤: 1. 导入WebMagic依赖:在Maven中添加以下依赖: ``` <dependency> <groupId>us.codecraft</groupId> <artifactId>webmagic-core</artifactId> <version>0.7.3</version> </dependency> ``` 2. 创建爬虫类:继承`Spider`类,并重写`process`方法,定义爬取逻辑。在`process`方法中,使用`Page`对象获取页面信息,并使用`Selectable`对象解析页面数据。如下所示: ``` public class LagouSpider extends Spider { private static final String URL_TEMPLATE = "https://www.lagou.com/zhaopin/Java/%d/?filterOption=%d"; private static final String COOKIE = "cookie"; // 替换为自己的Cookie private static final int MAX_PAGE = 30; public LagouSpider(PageProcessor pageProcessor) { super(pageProcessor); } @Override public void process(Page page) { List<Selectable> jobList = page.getHtml().css("div#s_position_list ul.item_con_list li.con_list_item").nodes(); for (Selectable job : jobList) { String jobName = job.css("div.p_top h3").xpath("string(.)").get(); String companyName = job.css("div.company div.company_name a").xpath("string(.)").get(); String salary = job.css("div.p_bot div.li_b_l span").xpath("string(.)").get(); String workLocation = job.css("div.position div.li_b_l").regex(".*?(.*?)").get(); System.out.println("职位名称:" + jobName); System.out.println("公司名称:" + companyName); System.out.println("薪资待遇:" + salary); System.out.println("工作地点:" + workLocation); System.out.println("==========================="); } } public static void main(String[] args) { Spider spider = Spider.create(new LagouPageProcessor()) .addUrl(String.format(URL_TEMPLATE, 1, 3)) .addCookie("Cookie", COOKIE) .thread(5); for (int i = 2; i <= MAX_PAGE; i++) { spider.addUrl(String.format(URL_TEMPLATE, i, 3)); } spider.run(); } } ``` 在上面的代码中,`LagouSpider`继承了`Spider`类,并在`process`方法中解析了职位名称、公司名称、薪资待遇和工作地点等信息。`main`方法中设置了起始URL、Cookie和线程数,并循环添加URL,最后启动爬虫。 3. 创建页面处理器类:继承`PageProcessor`类,并重写`process`方法,定义页面解析逻辑。如下所示: ``` public class LagouPageProcessor implements PageProcessor { private Site site = Site.me() .setRetryTimes(3) .setSleepTime(1000) .setCharset("UTF-8") .addHeader("User-Agent", UserAgentUtil.getRandomUserAgent()); @Override public void process(Page page) { if (page.getUrl().regex("https://www.lagou.com/zhaopin/Java/.*").match()) { page.addTargetRequests(page.getHtml().css("div.pager_container a").nodes() .stream().map(Selectable::links).flatMap(Collection::stream) .map(link -> link + "&filterOption=3").collect(Collectors.toList())); page.addTargetRequests(page.getHtml().css("div#s_position_list ul.item_con_list li.con_list_item div.p_top a").links().all()); } else if (page.getUrl().regex("https://www.lagou.com/jobs/.*").match()) { page.putField("jobName", page.getHtml().css("div.position-head div.name h1").xpath("string(.)").get()); page.putField("companyName", page.getHtml().css("div.company").regex(".*?公司信息</h3>(.*?)</div>").get()); page.putField("salary", page.getHtml().css("div.position-head div.salary").xpath("string(.)").get()); page.putField("workLocation", page.getHtml().css("div.position-head div.job_request p").regex(".*?(.*?).*?(.*?)").get(1)); } } @Override public Site getSite() { return site; } } ``` 在上面的代码中,`LagouPageProcessor`继承了`PageProcessor`类,并在`process`方法中解析了职位名称、公司名称、薪资待遇和工作地点等信息。`getSite`方法中设置了重试次数、睡眠时间、字符集和随机UA。 4. 运行爬虫:在`LagouSpider`类的`main`方法中启动爬虫即可。 需要注意的是,在爬取拉钩网站时,需要使用代理IP、随机UA和Cookie池等技术来应对反爬虫机制。另外,拉钩网站的页面结构比较复杂,需要使用`Selectable`对象进行解析,具体使用方法可以参考WebMagic的官方文档。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值