python爬虫爬取58网站数据_python实战学习笔记:爬取58同城平板电脑数据

本文记录了一次使用Python爬虫爬取58同城平板电脑数据的实战过程,包括确定URL,提取商品详情页信息,获取每页商品链接,以及爬取所有页面商品信息的方法。在爬取过程中,使用了requests和BeautifulSoup库,并设置了爬虫行为的伪装以避免被识别。最后,将爬取的数据保存到了文本文件。
摘要由CSDN通过智能技术生成

学习爬虫一周后独立完成的第一个作业项目:爬取58同城平板电脑数据。

1、首先确定URL,并抓取详情页中需要的信息

首先我们确定好需要爬取的网页URL是:http://zhuanzhuan.58.com/detail/762548881638506498z.shtml ,需要爬取网页中商品的标题、浏览量、价格、地区,通过下面的代码获取需要的信息并打印出来,代码如下:

url = 'http://zhuanzhuan.58.com/detail/762548881638506498z.shtml'

wb_data = requests.get(url)

soup = BeautifulSoup(wb_data.text, 'lxml')

title = soup.title.text

price = soup.select('span.price_now > i')

city = soup.select('.palce_li > span > i')

browse = soup.select('.look_time')

data = {

'title': title,

'price': price[0].text,

'city': city[0].text,

'browse': browse[0].text

}

print(data)

2、提取每页中所有的商品链接

首先需要观察网页的信息,确认分页情况。URL:http://bj.58.com/pbdn/pn2 中的数字2代表第二页,这样我们可以传入不同的数值获取相应的页面࿰

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值