python二手书_python 实现抓取58同城二手物品信息

1 . 获取二手分类信息

我们首先要分析的网址是: http://bj.58.com/sale.shtml 首先我们要将所有的二手物品分类给获取下来:(这里解析网页用的是BeautifulSoup,此处不做过多的讲解,可以参考网上关于BeautifulSoup的教程)

base_url_mobile = 'http://m.58.com/bj'

# 解析得到所有的分类

def parse_channel_list():

url = 'http://bj.58.com/sale.shtml'

html = requests.get(url)

soup = BeautifulSoup(html.text, 'lxml')

items = soup.select('ul.ym-submnu > li > b > a')

channel_urls = []

for item in items:

print(item)

url = base_url_mobile + item.get('href') # base_url_mobile

channel_urls.append(url)

content = '\n'.join(channel_urls)

write_to_file(content)

def write_to_file(content):

path = '{0}/{1}'.format(os.getcwd(), 'doc')

if not os.path.exists(path):

os.makedirs(path)

file_path = '{0}/{1}.{2}'.format(path, '58samecity', 'txt')

with open(file_path, 'a', encoding='utf-8') as f:

f.write(content + '\n')

print('写入成功', content)

f.close()

这里我们就将所有的分类信息的url存入了文件 doc/58samecity.txt中。其中用到的 base_url_mobile ,因为移动端的数据结构相对来说更加的清晰一些,因此在下一步要处理的分类信息 我们采用了移动端的网页结构来进行解析。

以后,要获取所有的分类的url只需要调用下面的方法即可:

def get_channel_list():

urls = []

path = '{0}/{1}'.format(os.getcwd(), 'doc')

file_path = '{0}/{1}.{2}'.format(path, '58samecity', 'txt')

with open(file_path, 'r') as f:

lines = f.readlines()

for line in lines:

urls.append(line.strip())

# 去除重复

urls1 = sorted(set(urls), key=urls.index)

# print(urls1)

return urls1

2 . 解析每个分类

1 . 获取该分类下的二手物品帖子列表

# 通过分类URL, 获取该分类下的所有发帖的url(此处用的是移动端的接口)

# @url 分类的url

# @pages 页码

def get_urls_mobile_from(url, pages):

list_view = '{}/pn{}/'.format(url, str(pages))

html = requests.get(list_view)

soup = BeautifulSoup(html.text, 'lxml')

if soup.find('.nobg'): # 没有数据, 返回

return

list = soup.select('.asynInfo .zhuanzhuan > li > a')

for li in list:

href = li.get('href').split('?')[0]

data = {

'href' : href

}

url_pc = href.replace('m.', '')

if url_pc == 'http://jump.zhineng.58.com/jump':

continue

parse_detail_from(url_pc)

save_channel_to_mongo(data)

sleep(1)

2 . 对列表中的每一条帖子进行详情解析:

def parse_detail_from(url):

try:

html = requests.get(url)

soup = BeautifulSoup(html.text, 'lxml')

print(soup.find('title').get_text())

if soup.find('title').get_text() == '请输入验证码':

print('操作太频繁了,需要用ip代理了')

title = soup.select('.info_titile')[0].get_text()

view = soup.select('.look_time')[0].get_text()[0:-3]

area = soup.select('div.palce_li > span > i')[0].get_text().split('-')

if len(area) == 2:

area = area[1]

elif len(area) == 1:

area = area[0]

else:

area = '不明'

cate = list(soup.select('div.breadCrumb.f12')[0].stripped_strings)

good = {

'url' : url,

'title' : title,

'view' : view,

'area' : area,

'cate' : cate

}

save_goods_to_mongo(good)

except TimeoutException:

parse_detail_from(url)

代码暂时未处理因频繁操作导致的需要验证的问题,这个问题我将在另一篇文章(利用代理ip解决因频繁操作造成的访问受限问题)进行详细的分析解答。

3 . 将北京同城二手物品分地区生成分析图表:#

Screen Shot 2018-03-15 at 3.33.37 PM.png

图表的生成 用到了 jupyter notebook, 详情请查看我的另一篇文章:jupyter 的安装与简单使用。

另外此工程的所有代码将在下面附上:

点这里:源码

此篇到此结束,希望多多提意见,共同学习!

同时,此系列文章也会不定期更新哦!~~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。 经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。 经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。 经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值