Python之简单爬取网页内容

爬去网页通用流程

这样看着虽然很麻烦,但是爬取网页都离不开这四个步骤,以后如果爬取更复杂的网页内容,只需要在这个基础上添加内容就ok了。

import requests
class Qiushi:
    #  初始化函数
    def __init__(self,name):
        self.name = name
        self.url_base = 'https://www.qiushibaike.com/8hr/page/{}/'
        self.headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:64.0) Gecko/20100101 Firefox/64.0'}

    def make_url(self):
        """
        生成下载连接列表
        :return:
        """
        #爬取糗事百科的前十页
        return [self.url_base.format(i) for i in range(1,11)]
    def download(self,url_str):
        """
        通过requests.get()方法下载指定页面,获得页面结果
        :param url_str:
        :return:
        """
        result = requests.get(url_str,headers=self.headers)
        return result.content
    def  save_content(self,html_content,page_num):
        """
        以html 形式存储下载内容
        :param html_content:
        :param page_num:
        :return:
        """
        # 先创建download文件夹,然后把爬取的内容存储在download文件里
        file_name = './download/'+'{}--第{}页.html'.format(self.name,page_num)
        with  open(file_name,'wb') as fb:
            fb.write(html_content)
    def run(self):
        """
        下载主线程,实现主要逻辑
        :return:
        """
        #  获取到所有的链接
        url_lists = self.make_url()
        for url in url_lists:
            html_content = self.download(url)
            #  获取到对应页数
            page_num = url_lists.index(url)+1
            self.save_content(html_content,page_num)
if  __name__=='__main__':
    qiushi= Qiushi('糗事百科')
    qiushi.run()

爬取成功后的结果
在这里插入图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 要用 Python 爬取网页内容,你需要做以下几件事: 1. 安装 Python 爬虫的库,例如 Beautiful Soup、Scrapy 等。 2. 使用 requests 库发送 HTTP 请求,获取网页的 HTML 源代码。 3. 使用库解析 HTML 源代码,找到你想要的内容。 4. 对爬取到的内容进行保存或处理。 举个例子,假设你想爬取网站 https://www.example.com 中所有包含关键词 "python" 的网页,你可以这么做: 1. 安装 Beautiful Soup 库。 ``` pip install beautifulsoup4 ``` 2. 发送 HTTP 请求获取 HTML 源代码。 ```python import requests url = "https://www.example.com" response = requests.get(url) html_content = response.text ``` 3. 使用 Beautiful Soup 解析 HTML 源代码,找到包含关键词 "python" 的内容。 ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html_content, "lxml") results = soup.find_all(string=lambda text: "python" in text) ``` 4. 处理爬取到的内容。 ```python for result in results: print(result) ``` 这是一个简单的例子,但是爬虫的实际应用会更加复杂。你需要考虑网站的反爬虫机制、动态加载的内容、分页、Cookies 等问题。 ### 回答2: 要使用Python按关键词爬取网页内容,可以按照以下步骤进行操作: 1. 导入所需的库:导入requests库用于发送HTTP请求,导入BeautifulSoup库用于解析网页内容。 2. 使用requests库发送HTTP请求:使用requests库的get()函数发送一个GET请求,并将待爬取网页的URL作为参数传入。 3. 解析网页内容:使用BeautifulSoup库对网页内容进行解析,找到目标内容所在的HTML标签和类名。 4. 编写爬取逻辑:根据关键词在网页内容中进行搜索,并将符合条件的内容提取出来。 这是一个简单的示例代码: ``` import requests from bs4 import BeautifulSoup # 关键词 keyword = 'Python' # 待爬取网页的URL url = 'http://example.com' # 发送HTTP请求并获取网页内容 response = requests.get(url) html = response.text # 解析网页内容 soup = BeautifulSoup(html, 'html.parser') # 搜索包含关键词的内容 results = soup.find_all(text=lambda text: text and keyword in text) # 打印搜索结果 for result in results: print(result) ``` 以上是一个简单的示例,实际的爬取过程可能还需要处理网页的反爬机制、翻页等问题。另外需要注意,爬取网页时要合法合规,遵守网站的爬取规则和法律法规。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值