使用Python爬取扇贝每日一句并保存

本文介绍如何在Windows XP环境下,利用Python爬虫技术结合扇贝单词每日一句的API,修改并优化现有代码,实现保存指定日期间的所有名句到文本文件的功能。
摘要由CSDN通过智能技术生成

更进一步

上一篇文章,在 windows xp 上使用 Python 获取扇贝单词每日一句
中通过修改博Livathan`利维坦 获取爱词霸每日一句的python文件,成功输出了扇贝APP的启动封面的每日名句。

这里要感谢xde.io这篇博客中提供的扇贝单词每日一句API。经过简单修改,实现了保存指定两个日期间隔之间的扇贝每日一句并保存为任意文本文件的功能,删减了原python代码中的不必要的功能,在解决问题中学习,颇有其乐。

代码如下

# coding:utf-8

import pandas as pd
import datetime,time
import json
from urllib import request,response 
import requests
from bs4 import BeautifulSoup

# 目标URL
url_address = ""
 
class My_Shanbay_Saver:
 
    # Class Attribute -- Object
    obj_request = None 
    obj_response = None 
    obj_html = None
 
    # -- Variable
    headers = "" 
    string_url = ""
    
    def __init__(self, str_url=""):
 
        # 目标URL
        self.string_url = str_url
 
        # 自定义【header】 防止【反爬虫】
        self.headers = {
   'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36'}
 
        # 初始化【爬取网页】所需要的对象
        if str_url != "" and str_url != None<
Python是一种广泛应用于数据科学领域的高级编程语言,可以通过它轻松地爬取百度搜索真实链接,并将结果保存为csv格式。 首先,需要安装requests、BeautifulSoup和csv等Python库。requests可以发送网络请求,BeautifulSoup可以解析HTML文件,而csv可以与CSV文件交互。 其次,需要编写代码来实现爬取百度搜索真实链接的功能。首先,需要用requests库向百度搜索发送HTTP请求,并获取响应的HTML文件。然后,可以使用BeautifulSoup库解析HTML文件,筛选出所有搜索结果的标题和真实链接,并将它们保存为列表。最后,可以使用csv库将列表写入CSV文件。 以下是一个简单的Python代码示例: ``` import requests from bs4 import BeautifulSoup import csv # 发送请求并获取HTML文件 url = 'https://www.baidu.com/s?wd=python' html = requests.get(url).text # 解析HTML文件,并筛选出所有搜索结果的标题和真实链接 soup = BeautifulSoup(html, 'html.parser') results = [] for result in soup.select('#content_left .result'): title = result.select_one('.t').text href = result.select_one('.t a')['href'] results.append([title, href]) # 将结果保存为CSV文件 with open('baidu_python_search.csv', 'w', newline='', encoding='utf-8') as f: writer = csv.writer(f) writer.writerow(['标题', '链接']) for result in results: writer.writerow(result) ``` 通过运行上述代码,可以爬取百度搜索中关于Python的所有搜索结果的标题和真实链接,随后将其保存到名为baidu_python_search.csv的CSV文件中,从而完成任务。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值