镀金的天空-GlidedSky(解题笔记)

本文详细展示了如何用Python爬取网站数据,涉及requests获取网页,BeautifulSoup解析,及正则表达式筛选关键信息。
摘要由CSDN通过智能技术生成

 第一关:爬虫基础

import requests
from bs4 import BeautifulSoup
import re
def w1():
    url="http://www.glidedsky.com/level/web/crawler-basic-1"
    header={
        "Upgrade-Insecure-Requests": "1",
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36",
        "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.7",
        "Referer": "http://www.glidedsky.com/level/crawler-basic-1",
        #将cookie换成自己的就ok了
        "Cookie": "----------"
    }
    rs1=requests.get(url=url,headers=header)
    print(rs1.text)
    soup = BeautifulSoup(rs1.text, 'html.parser')

    pattern = re.compile(r'\b\d{3}\b')

    # 找到所有符合条件的div标签
    div_tags = soup.find_all('div', class_='col-md-1')

    # 提取匹配的数字并求和
    total_sum = sum([int(pattern.search(tag.text).group()) for tag in div_tags if pattern.search(tag.text)])

    print(f"总和:{total_sum}")

if __name__ =="__main__":
    w1()

  • 12
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Rxuxin

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值