python爬取微博热搜_python,selenium爬取微博热搜存入Mysql

该博客介绍了一个使用Python Selenium库爬取微博热搜数据并利用pandas和SQLAlchemy将其存储到MySQL数据库的过程。首先,通过Selenium模拟浏览器访问微博热搜页面,使用XPath解析网页元素获取热搜链接和标题。然后,将数据整理成DataFrame,结合当前日期,使用zip函数合并为所需格式,并保存到数据库中。
摘要由CSDN通过智能技术生成

最终的效果

废话不多少,直接上图

384a78da15314f44fb3e5cf1abbf7240.png

这里可以清楚的看到,数据库里包含了日期,内容,和网站link

下面我们来分析怎么实现

使用的库

import requests

from selenium.webdriver import Chrome, ChromeOptions

import time

from sqlalchemy import create_engine

import pandas as pd1

2

3

4

5

目标分析

这是微博热搜的link:点我可以到目标网页

d674b73749d76194a508ebccd7ca8e21.png

首先我们使用selenium对目标网页进行请求

然后我们使用xpath对网页元素进行定位,遍历获得所有数据

然后使用pandas生成一个Dataframe对像,直接存入数据库

一:得到数据

d6605ac1038b8a2e97f2d941cb8e2485.png

我们看到,使用xpath可以得到51条数据,这就是各热搜,从中我们可以拿到链接和标题内容

all = browser.find_elements_by_xpath('//*[@id="pl_top_realtimehot"]/table/tbody/tr/td[2]/a') #得到所有数据

context = [i.text for i in c] # 得到标题内容 links = [i.get_attribute('href') for i in c] # 得到link1

2

3

然后我们再使用zip函数,将date,context,links合并

zip函数是将几个列表合成一个列表,并且按index对分列表的数据合并成一个元组,这个可以生产pandas对象。

dc = zip(dates, context, links) pdf = pd.DataFrame(dc, columns=['date', 'hotsearch', 'link'])1

2

其中date可以使用time模块获得

二:链接数据库

这个很容易

enging = create_engine("mysql+pymysql://root:123456@localhost:3306/webo?charset=utf8")

pdf.to_sql(name='infromation', con=enging, if_exists="append")1

2

总代码

from selenium.webdriver import Chrome, ChromeOptions

import time

from sqlalchemy import create_engine

import pandas as pd

def get_data(): url = r"https://s.weibo.com/top/summary" # 微博的地址 option = ChromeOptions() option.add_argument('--headless') option.add_argument("--no-sandbox") browser = Chrome(options=option) browser.get(url) all = browser.find_elements_by_xpath('//*[@id="pl_top_realtimehot"]/table/tbody/tr/td[2]/a') context = [i.text for i in all] links = [i.get_attribute('href') for i in all] date = time.strftime("%Y-%m-%d-%H_%M_%S", time.localtime()) dates = [] for i in range(len(context)): dates.append(date) # print(len(dates),len(context),dates,context) dc = zip(dates, context, links) pdf = pd.DataFrame(dc, columns=['date', 'hotsearch', 'link']) # pdf.to_sql(name=in, con=enging, if_exists="append") return pdf

def w_mysql(pdf): try: enging = create_engine("mysql+pymysql://root:123456@localhost:3306/webo?charset=utf8") pdf.to_sql(name='infromation', con=enging, if_exists="append") except: print('出错了')

if __name__ == '__main__': xx = get_data() w_mysql(xx)1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

希望能够帮到大家一点,大家一起共同进步,共同成长!

祝大家新年快乐!!!

文章来源: blog.csdn.net,作者:也曾rgnxhw,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/wqeWED/article/details/113186957

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 可以使用Python编程语言来爬取微博,并将数据保存到MongoDB数据库中。 具体步骤如下: 1. 安装Python和MongoDB,并安装相应的Python库:pymongo、requests、beautifulsoup4。 2. 使用requests库发送HTTP请求,获取微博页面的HTML代码。 3. 使用beautifulsoup4库解析HTML代码,提取出榜单的信息。 4. 使用pymongo库连接MongoDB数据库,并将榜单的信息保存到数据库中。 需要注意的是,爬取微博需要模拟登录,否则只能获取到部分数据。可以使用selenium库模拟登录,或者使用微博开放平台的API接口来获取数据。 ### 回答2: 爬取微博并保存到MongoDB的过程可以分为以下几个步骤: 1. 确定爬虫目标 我们的爬虫目标是微博,因此需要先了解微博的网页结构和信息获取方法。打开微博页面,可以看到列表中包含了许多门话题,每个话题都有对应的排名、度和链接地址等信息。这些信息是我们要收集和保存的数据。 2. 分析网页结构和获取数据的方法 接下来需要通过分析页面的HTML代码,确定我们需要获取哪些数据和如何获取这些数据。以Chrome浏览器为例,可以通过右键选择“检查”来打开开发者工具,然后在Elements选项卡中查看HTML代码。可以看到每个话题都包含在一个class为'card'的标签中,而该标签下包含了类似下面这样的信息: <div class="card-wrap"> <div class="card-top"> <a href="/weibo?q=%23%E5%A4%A7%E5%98%B4%E9%A3%9E%E8%BD%A6%23&Refer=weibo_card" target="_blank"> <div class="hot"> <span class="line-gradient"></span> <span class="icon-txt">2.6万</span> </div> <div class="title"> <p>#大嘴飞车#</p> </div> </a> </div> <div class="card-content"> <p class="card-txt">#大嘴飞车#剧情重磅!小鹏车队CEO被黑了!你们的神秘大人出现了,眼熟吗?</p> <div class="card-btn"> <a href="/weibo?q=%23%E5%A4%A7%E5%98%B4%E9%A3%9E%E8%BD%A6%23&Refer=weibo_card" target="_blank"> <span class="ico-txt">微博</span> </a> </div> </div> </div> 我们需要获取的数据包括排名、标题、度、链接地址和相关描述等信息。针对这些信息,可以使用Python的第三方库BeautifulSoup将HTML代码进行解析,并提取我们需要的数据。 3. 编写Python爬虫代码 在分析完网页结构和获取数据方法后,就可以着手编写Python爬虫代码了。首先需要导入所需的第三方库,包括requests、BeautifulSoup和pymongo等,然后通过requests库获取网页HTML源代码: import requests # 页面链接 url = 'https://s.weibo.com/top/summary?cate=realtimehot' # 请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 发送请求 response = requests.get(url, headers=headers) html = response.text 然后通过BeautifulSoup库解析HTML源代码,提取出话题的相关信息,并构造字典保存到列表中: from bs4 import BeautifulSoup soup = BeautifulSoup(html, 'html.parser') cards = soup.find_all(class_='card') # 爬取到的总数 count = len(cards) # 列表 hot_list = [] # 遍历所有 for card in cards: # 排名 rank = card.find(class_='hot').get_text() # 标题 title = card.find(class_='title').get_text().strip() # 度 value = card.find(class_='line-gradient').get('style').replace('width:', '').replace('%;', '') # 链接 url = 'https://s.weibo.com' + card.find('a').get('href') # 描述 desc = card.find(class_='card-txt').get_text().strip() # 保存为字典 hot_item = { 'rank': rank, 'title': title, 'value': value, 'url': url, 'desc': desc } hot_list.append(hot_item) 最后,可以使用pymongo库连接MongoDB数据库,将爬取到的数据保存到指定的数据集合中: import pymongo # MongoDB数据库信息 client = pymongo.MongoClient("mongodb://localhost:27017/") db = client["mydb"] col = db["hot_search"] # 向MongoDB数据库插入数据 for hot in hot_list: col.insert_one(hot) 完整的Python代码如下: import requests from bs4 import BeautifulSoup import pymongo # 页面链接 url = 'https://s.weibo.com/top/summary?cate=realtimehot' # 请求头 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 发送请求 response = requests.get(url, headers=headers) html = response.text soup = BeautifulSoup(html, 'html.parser') cards = soup.find_all(class_='card') # 爬取到的总数 count = len(cards) # 列表 hot_list = [] # 遍历所有 for card in cards: # 排名 rank = card.find(class_='hot').get_text() # 标题 title = card.find(class_='title').get_text().strip() # 度 value = card.find(class_='line-gradient').get('style').replace('width:', '').replace('%;', '') # 链接 url = 'https://s.weibo.com' + card.find('a').get('href') # 描述 desc = card.find(class_='card-txt').get_text().strip() # 保存为字典 hot_item = { 'rank': rank, 'title': title, 'value': value, 'url': url, 'desc': desc } hot_list.append(hot_item) # MongoDB数据库信息 client = pymongo.MongoClient("mongodb://localhost:27017/") db = client["mydb"] col = db["hot_search"] # 向MongoDB数据库插入数据 for hot in hot_list: col.insert_one(hot) 以上就是爬取微博并保存到MongoDB的详细过程。值得注意的是,虽然本例中使用的是BeautifulSoup库进行HTML解析,但在实际情况中,可以根据自己的需要使用其他第三方库,如pyquery等,实现相同的功能。同时,为遵守法律法规和伦理道德,爬虫应避免对网站造成过度负担,如频繁请求、大量下载等,否则有可能触发反爬虫机制,甚至可能引发安全问题和法律责任。 ### 回答3: 微博是指在微博平台上,各种话题或事件在一段时间内获得了大量关注度,被频繁索和转发的现象。由于微博榜单中的话题和事件极其多样,反应了公众关注的点和话题,因此对于许多用户和相关企业而言,获取微博信息是非常必要的。 如何爬取微博并存储到mongodb数据库呢?我们可以使用Python编程语言中的一些第三方库来实现这个目标,比如requests、BeautifulSoup、pymongo等。具体步骤如下: 1. 首先,我们需要分析微博榜单的网页结构。使用浏览器打开微博榜单页面,右键点击鼠标,选择“检查”或“审查元素”功能,即可打开浏览器的调试窗口。在调试窗口中,我们可以看到榜单的HTML代码及其CSS样式,我们可以据此编写代码来获取信息。 2. 接着,我们需要使用Python中的requests库向微博榜单页面发送GET请求,获取页面的HTML代码。代码示例如下: ``` import requests url = 'https://s.weibo.com/top/summary?cate=realtimehot' headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} response = requests.get(url, headers=headers) html = response.text ``` 3. 接着,我们需要用BeautifulSoup库解析HTML代码,从中提取出微博榜单中的信息。可以按照如下方式提取信息: ``` from bs4 import BeautifulSoup soup = BeautifulSoup(html, 'html.parser') table = soup.find_all('table')[0] trs = table.tbody.find_all('tr') for tr in trs: #提取信息并保存到mongodb数据库 ``` 4. 最后,我们需要使用pymongo库将提取出的微博信息保存到mongodb数据库中。可以按照如下方式实现: ``` import pymongo client = pymongo.MongoClient('localhost', 27017) db = client['weibo'] collection = db['hot_topic'] for tr in trs: tds = tr.find_all('td') rank = tds[0].text.strip() title = tds[1].text.strip() hot_degree = tds[2].text.strip() creation_time = tds[3].text.strip() search_url = tds[1].a.get('href') data = { 'rank': rank, 'title': title, 'hot_degree': hot_degree, 'creation_time': creation_time, 'search_url': search_url } collection.insert(data) ``` 通过以上步骤,我们就可以爬取微博并保存到mongodb数据库中了。这样一来,我们就可以随时随地获取微博的最新情况。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值