淘宝(北京)诚聘数据开发&数据仓库工程师

淘宝北京数据平台的给力招聘开始了,作为淘宝的内部人士,求贤若渴,信息绝对靠谱,请大家放心投递。

只要你想,只要你敢,那么来吧,让梦起航~~
面试地点: 北京市朝阳区东三环中路38号院1号楼泰康金融大厦25F 地铁十号线东南口
请在投递简历时,邮件标题命名为“[姓名]-[你投递的职位名称]”,否则您的简历可能得不到处理!!信箱为bpjob@taobao.com。

职位名称:数据开发工程师/数据仓库工程师
一、职位描述:
1、分布式平台(上千台服务器)的海量数据处理;
2、对淘宝业务数据进行分析、建模,为业务部门的数据化运营提供技术支持;
3、设计合理的数据模型,支持对外的数据产品;
4、参与数据仓库系统平台、ETL流程设计、优化;
5、参与用户研究、关联推荐等数据专题分析,挖掘数据价值;
二、职位要求:
1、技术技能
至少熟悉一种数据库;
熟悉Java、C/C++等语言之一;
熟悉linux平台,掌握Shell、Python等脚本语言;
有分布式计算平台(Hadoop,Hive更佳)经验优先;
技术面广且有专精方向。
2、专业技能
有大型数据仓库或数据挖掘项目实施经验,精通数据仓库方法论和常规ETL构架,理解元数据管理;
对商业和业务逻辑敏感,具备良好的分析能力。
3、性格特征
组织沟通能力和团队精神;
积极乐观,诚信,有好奇心,有求知欲;
有较强的语言表达能力。

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/15203236/viewspace-703686/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/15203236/viewspace-703686/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,您可以使用Python中的requests和BeautifulSoup库来进行网页爬取和数据解析,使用csv库来保存数据为csv文件。以下是示例代码: ```python import requests from bs4 import BeautifulSoup import csv # 设置请求头,模拟浏览器访问 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 定义要爬取的URL url = 'https://www.zhipin.com/job_detail/?query=python&city=101010100&industry=&position=' # 发送get请求,获取响应 response = requests.get(url, headers=headers) # 使用BeautifulSoup解析响应内容 soup = BeautifulSoup(response.content, 'html.parser') # 找到包含所有职位信息的标签 jobs = soup.find_all('div', class_='job-primary') # 初始化存储数据的列表 data = [] # 遍历所有职位信息标签,提取关键信息 for job in jobs: job_name = job.find('div', class_='job-title').text.strip() salary = job.find('span', class_='red').text.strip() company_name = job.find('div', class_='company-text').find('h3').text.strip() company_info = job.find('div', class_='company-text').find_all('p')[0].text.strip() job_info = job.find('div', class_='info-primary').find_all('p')[0].text.strip() # 将提取的信息存储到列表中 data.append([job_name, salary, company_name, company_info, job_info]) # 将数据保存为csv文件 with open('boss_zhipin_jobs.csv', 'w', encoding='utf-8') as f: writer = csv.writer(f) writer.writerow(['职位名称', '薪资', '公司名称', '公司信息', '职位信息']) writer.writerows(data) print('数据已保存为boss_zhipin_jobs.csv文件') ``` 注:需要安装相应的库,使用pip install requests、pip install beautifulsoup4、pip install csv命令安装。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值