爬取百度新闻标题和链接

使用python爬取新闻标题及链接,解析数据保存为excel文件。

import re
import requests
from lxml import etree
import pandas as pd

url = 'http://news.baidu.com/'
#请求头
headers = {
   
    "User-Agent": 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 UBrowser/6.2.4098.3 Safari/537.36'
}

response = requests.get(url, headers=headers)
data = response.content.decode('utf-8')

with open(
Scrapy是一个强大的Python网络爬虫框架,用于高效地抓取网站数据。如果你想利用Scrapy从百度新闻抓取名臣(关键词可能是误拼,这里假设你是想获取名人相关的新闻标题链接): 1. **安装Scrapy**: 首先需要确保已经安装了Pythonpip,然后通过命令行运行 `pip install scrapy` 安装Scrapy。 2. **创建项目**: 打开命令行,进入你想保存项目的位置,输入 `scrapy startproject baidu_news_crawler` 创建一个新的Scrapy项目。 3. **设置目标URL**: 百度新闻通常有动态加载内容,你需要找到包含名臣相关新闻的静态页面URL作为起始点。例如,你可以直接访问 https://news.baidu.com/ranking 或者查找特定分类如“明星”等。 4. **编写Spider**: 在项目目录下打开`spiders`文件夹,创建一个名为`baidunews.py`的新文件。然后定义Spider,并使用`yield Request(url, callback=self.parse)` 来发送请求到目标页面,回调函数`parse`会被用于解析响应内容。 5. **解析HTML**: 使用BeautifulSoup或其他HTML解析库(比如lxml),解析网页源码,找到包含名臣新闻标题链接的部分。这通常涉及CSS选择器或XPath表达式来定位元素。 ```python from bs4 import BeautifulSoup import scrapy class BaiduNewsSpider(scrapy.Spider): name = 'baidunews' allowed_domains = ['news.baidu.com'] start_urls = ['https://news.baidu.com/ranking'] def parse(self, response): soup = BeautifulSoup(response.text, 'lxml') news_titles = soup.select('div.news-item h3 a') # 选中新闻标题的元素 for title in news_titles: yield { 'title': title.text, 'link': response.urljoin(title['href']), # 转换为绝对链接 } # 如果还有分页,检查是否存在下一页链接并递归爬取 next_page = response.css('a.next::attr(href)').get() if next_page is not None: yield response.follow(next_page, self.parse) ``` 6. **运行爬虫**: 在项目根目录下,运行 `scrapy crawl baidunews` 运行爬虫,它会开始下载数据并存储在指定的文件中(默认在`data`文件夹)。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值