利用python爬虫可视化分析当当网的图书数据_python爬取当当网数据并可视化分析

pyecharts模块;

以及一些Python自带的模块。

环境搭建

安装Python并添加到环境变量,pip安装需要的相关模块即可。

数据爬取

任务:

根据给定的关键字,爬取与该关键字相关的所有图书数据。

实现:

以关键字为python为例,我们要爬取的图书数据的网页页面是这样子的:

img

更多Python相关视频、资料加群778463939免费获取

其中,网页的链接格式为:

http://search.dangdang.com/?key={keyword}&act=input&page_index={page_index}’

因此请求所有与关键词相关的链接:

img

然后利用BeautifulSoup分别解析返回的网页数据,提取我们自己需要的数据即可:

img

运行效果:

在cmd窗口运行"ddSpider.py"文件即可。

效果如下:

img

数据分析

好的,现在就简单地可视化分析一波我们爬取到的61页python相关的图书数据吧~

让我们先看看图书的价格分布吧:

img

有没有人想知道最贵的一本python相关的书的单价是多少呀?答案是:28390RMB

书名是:

Python in Computers Programming

QAQ买不起买不起。

再来看看图书的评分分布呗:

img

看来大多数python相关的图书都没人买过诶~大概是买不起吧T_T。

再来评论数量?

img

那么评论数量TOP6的图书有哪些呢?

img

老规矩,画两个词云作结吧,把所有python相关的图书的简介做成词云如何?

现在能在网上找到很多很多的学习资源,有免费的也有收费的,当我拿到1套比较全的学习资源之前,我并没着急去看第1节,我而是去审视这套资源是否值得学习,有时候也会去问一些学长的意见,如果可以之后,我会对这套学习资源做1个学习计划,我的学习计划主要包括规划图和学习进度表。

分享给大家这份我薅到的免费视频资料,质量还不错,大家可以跟着学习

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里无偿获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
爬取当当网Python图书信息,可以使用Python编写爬虫程序来实现。首先,通过观察当当网的搜索URL,可以得到搜索关键字"Python"的URL链接为和。其中,是第一页的搜索结果,是第二页的搜索结果。爬虫程序可以通过模拟HTTP请求访问搜索结果页面,然后解析页面内容来获取图书信息。 以下是一个简单的示例代码,演示如何使用Python爬虫获取当当网Python图书信息: ```python import requests from bs4 import BeautifulSoup def get_book_info(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3' } response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') book_list = soup.find_all('div', class_='name') for book in book_list: title = book.find('a').text.strip() author = book.find('span', class_='t1').text.strip() price = book.find('span', class_='search_now_price').text.strip() print(f"书名: {title}, 作者: {author}, 价格: {price}") # 爬取第一页的图书信息 url1 = "http://search.dangdang.com/?key=Python&act=input" get_book_info(url1) # 爬取第二页的图书信息 url2 = "http://search.dangdang.com/?key=Python&act=input&page_index=2" get_book_info(url2) ``` 这段代码使用了`requests`库发送HTTP请求,使用了`BeautifulSoup`库解析HTML页面。它通过指定的URL链接发送请求,并使用CSS选择器查找图书信息的相关元素。在示例中,我们获取了书名、作者和价格,并打印出来。 可以通过调用`get_book_info`函数来获取当当网Python图书信息。传入不同的URL链接可以获取不同页数的图书信息。你可以根据需要,进一步处理获取到的图书信息,比如存储到数据库或写入文件中。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [【爬虫】4.5 实践项目——爬取当当网图书数据](https://blog.csdn.net/qq_57268251/article/details/131177457)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值