import requests
from bs4 import BeautifulSoup
import json
def get_data(url):
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.97 Safari/537.36'
}
response = requests.get(url, headers=headers)
if response.status_code == 200:
return response.text
def parse_data(html):
ss = None
try:
soup = BeautifulSoup(html, 'lxml')
for s in soup.findAll(name="div", attrs={"class": "article-item-box csdn-tracking-statistics"}):
for ss in s.findAll(name="h4"):
sss = ss.find(name="a", href=True);
con = {
"文章标题":ss.getText(),
"文章链接":sss['href']
}
save_data(con)
e
python爬取博客文章示例
最新推荐文章于 2024-08-03 20:32:40 发布
本文将详细介绍如何使用Python进行网络爬虫,通过实例演示如何爬取博客文章的数据,包括标题、作者和内容等关键信息。首先,我们将介绍必备的库如requests和BeautifulSoup,并解释它们的作用。接着,我们将解析HTML结构,定位到目标元素并提取所需数据。最后,我们将讨论如何处理反爬策略,如设置延时和使用代理,确保爬虫的稳定运行。
摘要由CSDN通过智能技术生成