18行代码搞定python爬虫:爬取58同城二手车信息并保存为Excel文件,python小白必看!

这篇博客介绍了一个简单的Python爬虫教程,仅用18行代码即可抓取58同城二手车页面的车辆名称、描述和价格信息,并将数据保存到Excel文件。通过讲解目标网页的查看方法、模块导入、数据解析和Excel保存过程,适合Python初学者快速入门。
摘要由CSDN通过智能技术生成

hello大家好,
我是你们的可爱丸,
今天我要和大家分享案例是
一个只有18行代码的python爬虫。在这里插入图片描述麻雀虽小五脏俱全,
大家别看这个案例的代码数量少,
但它却可以同时实现数据爬取和保存功能,
现在你是不是迫不及待的想要学习了呢?
那么接下来我就带着大家一起来详细学习吧!

代码运行效果在这里插入图片描述
详细教程
1、目标网页及网页数据查看方法
我们今天要爬的网页是58同城的二手车信息页面,地址为:https://nn.58.com/ershouche/?PGTID=0d100000-0034-d9f8-fe87-cbe415320007&utm_source=market&spm=u-2d2yxv86y3v43nkddh1.BDPCPZ_BT&ClickID=56
在这里插入图片描述
我们需要把目标网页中的二手车名称、描述信息以及价格等信息爬取下来并保存,那么如何查看这些信息呢?查看的方法为:鼠标右键选择检查,然后再点击底部窗口上左上角的小箭头,再把小箭头移到对应信息的位置就可以看到它的对应代码啦,如下图所示:
在这里插入图片描述
2、导入需要用到的模块并做数据解析前准备工作

#导入本代码需要用到的模块
import requests
from bs4 import BeautifulSoup
import xlsxwriter

#设置请求头,模仿浏览器访问
headers = {
   'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) 
AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36'}
#设置想要爬取的网页链接
url = 'https://nn.58.com/ershouche/?utm_source=market&spm=u-2d2yxv86y3v43nkddh1.
BDPCPZ_BT&PGTID=0d100000-0034-d9f8-fe87-cbe415320007&ClickID=4'

#做数据解析前的准备
response = requests.get(url,
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值