爬虫练手项目1_爬取百度贴吧

前言

这是我开始学习爬虫时的第一个练手项目,当时是在B站上看到了一些教学视频,觉得还挺有意思的,就决定跟着学学。
在这里插入图片描述

1、找到对方c位(确定要爬取的目标)

要爬取网页,首先需要知道网页的url

先用浏览器打开贴吧网页.
在这里插入图片描述
搜索一下’上海海事大学‘
发现链接变成https://tieba.baidu.com/f?ie=utf-8&kw=上海海事大学&fr=search
在这里插入图片描述
点到第二页,再观察 url,发现多了一个pn=50的参数
在这里插入图片描述
把pn=50改成pn=0试试,发现它访问的是刚刚第一页的内容,
所以规律就被找到了,第一页是pn=0,第二页是pn=50,
那么第三页应该是pn=100,以此类推

至于另一个参数:ie=utf-8,可以删掉

所以,我们需要访问的链接格式为
https://tieba.baidu.com/f?kw=——&pn=——

2、发起进攻(发送请求)

上一步我们已经知道了要爬取的url
现在就需要发送请求了
至于怎么发送请求呢
就需要我们安装一个库了:requests库
pip install requests
然后导入这个库

import requests

然后开始构造url,存放在list里

url = 'https://tieba.baidu.com/f?kw={}&pn={}'
text = input("请输入贴吧的名字:")
num = int(input('输入要爬取的页数:'))

url_list = [url.format(text, i * 50) for i in range(num)]
print(url_list)

将浏览器标识复制过来,放到headers里面(部分网站会根据浏览器标识来判断是不是爬虫,所以加一个标识,以防万一)

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'}

在这里插入图片描述
然后发送请求,并保存网页

for item_url in url_list:
    response = requests.get(item_url, headers=headers)
    file_name = '贴吧_' + text + '第{}页'.format(url_list.index(item_url) + 1) + '.html'
    with open(file_name, 'w', encoding='utf-8') as f:
        f.write(response.content.decode())

3、进攻敌方水晶(完整代码)

"""
获取贴吧内容

"""
import requests

url = 'https://tieba.baidu.com/f?kw={}&pn={}'
text = input("请输入贴吧的名字:")
num = int(input('输入要爬取的页数:'))

url_list = [url.format(text, i * 50) for i in range(num)]
print(url_list)

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36'}

for item_url in url_list:
    response = requests.get(item_url, headers=headers)
    file_name = '贴吧_' + text + '第{}页'.format(url_list.index(item_url) + 1) + '.html'
    with open(file_name, 'w', encoding='utf-8') as f:
        f.write(response.content.decode())

再pycharm打开保存的网页,运行一下
在这里插入图片描述
在这里插入图片描述
和浏览器搜索出来的网页一摸一样

victory

至此,就差不多完成了学习爬虫的第一步了

之后会慢慢更新我学习爬虫时的其他练手项目

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 取微博数据是指通过爬取微博网站上的内容,获取用户在微博上发布的各种信息,包括文字、图片、视频等。爬取微博数据的方式可以使用Python编程语言中的爬虫技术来实现。 Python爬虫是一种自动获取网页内容的技术,通过模拟浏览器行为,可以获取网页上的数据。对于微博数据的爬取,可以通过Python爬取微博官方API接口或者直接爬取微博网页上的内容。 爬取微博数据需要首先进行身份认证和授权,获取访问权限。然后,可以通过API接口或者请求微博网页,获取微博网站上的数据。可以将数据保存在数据库中,或者直接进行分析和处理。 爬取到的微博数据可以用于各种目的,如数据开发、微博分析等。数据开发是指对爬取到的数据进行清洗、整理和存储,以便后续的数据分析和应用。微博分析则是对微博数据进行统计和分析,了解用户的行为和趋势,找出有价值的信息。 对于爬取的微博数据,可以通过可视化的方式呈现,以更直观地展示数据的分布和变化趋势。可视化可以使用各种Python的数据可视化库,如matplotlib、seaborn等,制作各种图表、图像和地图等,提供更好的数据展示效果。 总结来说,通过Python编程语言中的爬虫技术,可以取得微博数据并进行数据开发、微博分析和可视化处理,从中获取有价值的信息。 ### 回答2: 取微博数据是指使用爬虫技术从微博平台上抓取用户的相关信息,通过获取微博的内容、点赞数、转发数、评论数等数据,并进行可视化分析以及数据开发,以了解用户行为和趋势。 在这个过程中,可以使用Python编写爬虫程序来自动化地访问微博网站并获取所需数据。爬虫程序可以模拟用户登录微博,搜索关键词或用户,获取相关微博内容,并提取所需的数据信息。 通过爬取的微博数据,可以进行数据开发,包括数据清洗、处理以及存储。数据清洗是指对原始数据进行去除噪声、格式转换、去重等操作,以保证数据的准确性和一致性。数据处理是指对清洗后的数据进行加工处理,如对文字进行分词、提取关键词等。数据存储则是将处理后的数据以合适的格式保存在数据库或文件中,以备后续使用。 除了数据开发,还可以进行微博数据的可视化分析。通过使用数据可视化工具和库,将微博数据转化为图表、地图、词云等可视化形式,从而更直观地展示数据的分布和趋势。通过分析微博数据可视化结果,可以发现用户关注的热点话题、用户行为模式等信息,为企业和个人提供决策参考。 总之,通过取微博数据并进行可视化分析以及数据开发,我们可以深入了解用户行为和趋势,为企业和个人提供更有针对性的决策和推广策略。同时,这也为数据分析领域的研究和应用提供了丰富的资源和实践案例。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

叫我小兔子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值