五、爬虫学习--分页爬取关键词新闻

本文介绍了如何使用Python爬虫抓取新浪网的新冠肺炎相关新闻。通过requests、BeautifulSoup和re模块,实现从搜索结果中获取分页链接,解析新闻标题、时间和内容,并将其保存到txt文档中。尽管新浪新闻页面HTML结构不一致,但通过调整正则表达式,可以适应不同格式的内容抓取。
摘要由CSDN通过智能技术生成

一、背景

疫情期间,每天需要搜集新冠肺炎相关新闻,编写了一个python脚本用户爬取新浪网相关新闻

二、实例解析

1.初始化

  • 定义一个GetNews类,在__init__中写入初始化参数
class GetNews:
    def __init__(self,keyword,name):
        self.headers={
   
            'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36 Edg/88.0.705.74',
            'Referer':'https://search.sina.com.cn/'
        }        
        self.keyword=keyword
        self.txtname=name
        self.news_url=[]   #存储每条新闻的url
        self.news_title=[]  #存储每条新闻的标题
        self.news_content=[]    #存储新闻内容
        self.news_time=[]   #存储新闻的发表时间
        self.page_cout=0    #搜索结果的页码

2.获取搜索结果的页码

image.png

  • 如上图所示,新浪的搜索结果是分页保存的,先获取搜索结果的总页数,可用于后续爬取所以相关新闻。
def get_page_cout(self):
        url = 'https://search.sina.com.cn/?q={0}&c=news&from=channel&ie=utf-8'.format(self.keyword)  #查找的关键字url
        response = requests.get(url)
        response.encoding = 'utf-8'
        html =response.text
        soup =BeautifulSoup(html,'lxml'<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值