python爬虫爬取网页数据并保存在json中_Python3爬虫爬取百姓网列表并保存为json功能示例【基于request、lxml和json模块】...

本文实例讲述了Python3爬虫爬取百姓网列表并保存为json功能。分享给大家供大家参考,具体如下:

python3爬虫之爬取百姓网列表并保存为json文件。这几天一直在学习使用python3爬取数据,今天记录一下,代码很简单很容易上手。

首先需要安装python3。如果还没有安装,可参考本站python3安装与配置相关文章。

首先需要安装requests和lxml和json三个模块

需要手动创建d.json文件

代码

import requests

from lxml import etree

import json

#构造头文件,模拟浏览器访问

url="http://xian.baixing.com/meirongfuwu/"

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36','referer':url}

response=requests.get(url,headers=headers)

body=response.text #获取网页内容

html=etree.HTML(body,etree.HTMLParser())

gethtml=html.xpath('//div[contains(@class,"media-body-title")]')

# 存储为数组list

jsondata = []

for item in gethtml:

jsonone={}

jsonone['title']=item.xpath('.//a[contains(@class,"ad-title")]/text()')[0]

jsonone['url']=item.xpath('.//a[contains(@class,"ad-title")]/attribute::href')[0]

jsonone['phone']=item.xpath('.//button[contains(@class,"contact-button")]/attribute::data-contact')[0]

jsondata.append(jsonone)

# 保存为json

with open("./d.json",'w',encoding='utf-8') as json_file:

json.dump(jsondata,json_file,ensure_ascii=False)

结果

2018125105537567.png?2018115105623

PS:这里再为大家推荐几款比较实用的json在线工具供大家参考使用:

在线JSON代码检验、检验、美化、格式化工具:http://tools.jb51.net/code/json

JSON在线格式化工具:http://tools.jb51.net/code/jsonformat

在线XML/JSON互相转换工具:http://tools.jb51.net/code/xmljson

json代码在线格式化/美化/压缩/编辑/转换工具:http://tools.jb51.net/code/jsoncodeformat

在线json压缩/转义工具:

http://tools.jb51.net/code/json_yasuo_trans

更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》

希望本文所述对大家Python程序设计有所帮助。

本文标题: Python3爬虫爬取百姓网列表并保存为json功能示例【基于request、lxml和json模块】

本文地址: http://www.cppcns.com/jiaoben/python/246271.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫是一种用于自动抓取网络上信息的技术,常用于数据挖掘、分析和自动化任务。要从网页爬取数据并进行处理分类,一般步骤如下: 1. **安装必要的库**:使用Python的`requests`库来发送HTTP请求获取网页内容,`BeautifulSoup`或`lxml`等解析HTML文档,以及可能用到的数据存储库如`pandas`、`json`等。 ```python pip install requests beautifulsoup4 pandas ``` 2. **发送请求**:根据URL向服务器发出请求,获取HTML源代码。 ```python import requests response = requests.get('https://www.example.com') html_content = response.text ``` 3. **解析HTML**:使用BeautifulSoup或其他类似工具解析HTML,提取所需的信息。例如,CSS选择器或XPath可以帮助定位元素。 ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html_content, 'html.parser') data_elements = soup.select('.class-or-id') # 根据类名或ID选取数据 ``` 4. **数据清洗和预处理**:处理文本、数字、日期等格式,去除无关标签和特殊字符,标准化数据。 ```python data = [element.get_text().strip() for element in data_elements] ``` 5. **分类数据**:根据需求定义分类规则,可以利用`pandas`库创建DataFrame并将数据分配至不同的列或数据结构。 ```python import pandas as pd df = pd.DataFrame(data, columns=['Category', 'Value']) ``` 6. **保存数据**:将处理后的数据保存为CSV、Excel、数据库(如SQL)或JSON文件。 ```python df.to_csv('output.csv', index=False) ``` 7. **异常处理**:考虑到网站可能会有反爬机制或动态加载的内容,记得添加适当的错误处理和延迟机制(如设置`time.sleep()`)。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值