python爬取58同城的兼职信息

标题python爬取58同城的兼职信息

刚刚开始学习爬虫,一些 自己研究的小东西,爬取58同城上面的兼职信息放入Excel表格里,具体代码解释在代码里给出注释,下面给出完整代码:

#首先是导包
import time
#import urllib.request
from bs4 import BeautifulSoup
import requests
import xlwt

#下面是对表格的一些初始化,我个人实验没有的话也不会出错,但为了严谨还是加上
style=xlwt.XFStyle()
font=xlwt.Font()
font.name='SimSun'
style.font=font

#下面是表格的一些设置,增加5个标题
#其中运用到了for--enumerate  循环
w=xlwt.Workbook(encoding='UTF-8')
ws=w.add_sheet('sheet 1',cell_overwrite_ok=True)
fields=["职位","工作区域","公司名称","价格","结算"]
for i,v in enumerate(fields):
    ws.write(0,i,v) 
    
#下面这一模块为模拟浏览器访问url链接并且BeautifulSoup解析网页内容   这里使用lxml解析,当然也可用其他的
def get_html(url):   
    headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; rv:53.0) Gecko/20100101 Firefox/53.0"}
    html =requests.get(url,headers=headers).text
    bsObj =BeautifulSoup(html,'lxml')
    return bsObj
#以下为核心语句
def download_p(pages):
    number =1
    row=1
    #控制爬取页数
    for page in range(pages):
        url = 'https://qhd.58.com/xueshengjianzhi/%d/'%page
        bsObj =get_html(url)
        #print(bsObj.html)
        #下面为根据分析网页结构通过find来完成对所需内容的查找
        div_obj = bsObj.find_all('div',class_="item clearfix")
        for index in range(len(div_obj)):
            职位 =(div_obj[index].find_all('h2')[0].string)
            工作区域  =(div_obj[index].find_all('p')[0].string)[5:]
            公司名称=(div_obj[index].find_all('p',class_="company")[0].find_all('a')[0].text)[5:-3].strip()
            价格 =div_obj[index].find_all('span',class_="qian")[0].text
            结算 =div_obj[index].find_all('span',class_="fangshi")[0].text
             
            time.sleep(0.4)####暂停0.4秒,控制速度
            ws.write(row,0,职位)
            ws.write(row,1,工作区域)
            ws.write(row,2,公司名称)
            ws.write(row,3,价格)
            ws.write(row,4,结算)
            row+=1
            
            info ='已保存%d 条记录' %number + '\r'
            print(info,end='')
            number +=1

以下为主程序      
if __name__ =="__main__":
   pp=1##页数
   s_time =time.time()
   download_p(pp)
   e_time =time.time()
   print('\n')
   print('用时:%f秒'%(e_time-s_time))
   print('共'+str(pp)+'页')
w.save('秦皇岛兼职.xls')        


需要注意的一点是,在爬取次数多的时候,可能会出现爬取不到内容,那可能是网站监测到爬虫需要输入验证码,复制url进入网站完成验证码即可

  • 1
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,这是一个比较具体的问题,我可以为你提供一些思路和参考代码。 首先,我们需要了解58同城二手房信息的页面结构和数据请求方式。通过分析网页源代码和浏览器开发者工具,可以发现58同城二手房信息的页面是采用Ajax技术加载的,数据请求方式是POST请求,请求参数中包含了城市、区域、价格等筛选条件。 接下来,我们可以使用Python的requests模块发送POST请求,获取二手房信息的JSON数据。然后,使用Python的json模块解析JSON数据,提取出我们需要的房源信息,例如房源名称、总价、单价、房间数、面积、朝向、楼层等信息。 最后,我们可以使用Python的pandas模块将房源信息存储到CSV文件中,方便后续的数据分析和处理。 下面是一个简单的代码示例,仅供参考: ```python import requests import json import pandas as pd # 设置请求头信息 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 设置POST请求参数 data = { 'PGTID': '0d100000-0000-1e9c-0d96-1d72c30b2f0e', 'ClickID': '1', 'comm_id': '0', 'created': '7', 'curPage': '1', 'datainfo': 'eyJwYWdlIjoxLCJ0eXBlIjoxLCJjaXR5IjoxLCJjYXRlZ29yeSI6IjIwMjEtMDYtMDEiLCJhbGwiOiIiLCJwYXJhbXMiOiIiLCJ1dGlsaXR5IjoiIiwic3RhdHVzIjoiIiwiYWpheCI6IiJ9', 'from': '1', 'isfirst': 'true', 'local': '1', 'order': 'time', 'over': '0', 'param': '2_1_0_0_0_0_0', 'propertytype': '1', 'room': '0', 'showMore': '1', 'shownow': '0', 'sign': 'dfc3f07bcfd1ad6c124a3d7b5fbc4c6b', 'source': 'list', 'sug': '0', 'w': '1' } # 发送POST请求,获取JSON数据 url = 'https://appapi.58.com/house/listV3?' response = requests.post(url, headers=headers, data=data) json_data = json.loads(response.text) # 解析JSON数据,提取房源信息 house_list = [] for item in json_data['data']['list']: house_info = {} house_info['title'] = item['title'] house_info['total_price'] = item['price'] house_info['unit_price'] = item['unitprice'] house_info['room_num'] = item['room'] house_info['area'] = item['area'] house_info['orientation'] = item['orient'] house_info['floor'] = item['floor'] house_list.append(house_info) # 将房源信息存储到CSV文件中 df = pd.DataFrame(house_list) df.to_csv('house_info.csv', index=False) ``` 这段代码可以爬取58同城二手房信息的第一页数据,并将房源信息存储到名为house_info.csv的CSV文件中。如果需要爬取多页数据,可以通过修改POST请求参数中的curPage参数来实现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值