赢在CSDN,小白白steam游戏,嘿嘿嘿

做自己喜欢的爬虫:steam库存污染大法
steam近期免费:https://steamdb.info/upcoming/free/​​​​​

目录

一、安装浏览器插件——Tampermonkey(为了搭配FOD)

二、安装Steam添加FOD

 三、爬取Free Packages · SteamDB中的subid

1.保存源码为本地方法: 

四、输入subid,白嫖成功

五、总结不足

最后还是希望你们能给我点一波小小的关注。

奉上自己诚挚的爱心💖


 

 

 

一、安装浏览器插件——Tampermonkey(为了搭配FOD)

直接进入Tampermonkey官网下载跳转至谷歌网上应用店。

43684020c4ccdc483dca6dac26b522fa.png

二、安装Steam添加FOD

1.Steam添加FOD:

在Steam页面https://store.steampowered.com/account/registerkey提供添加愿望单和FOD、No Cost的功能。
批量激活的脚本来自于:https://greasyfork.org/zh-CN/scripts/32718-steamredeemkeys。

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5oCd6aOO6ICM6L-H,size_20,color_FFFFFF,t_70,g_se,x_16

 三、爬取Free Packages · SteamDB中的subid

这里说一下因为steam需要梯子,所以在爬的时候需要加代理

这里我偷懒,就直接开个加速器直接保存源代码到本地去提取

1.保存源码为本地方法: 

页面源代码查看(Ctrl+U)watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5oCd6aOO6ICM6L-H,size_20,color_FFFFFF,t_70,g_se,x_16

 页面另存为为HTML(Ctrl +S)

这里的话命名为STEAM_DB.HTMLwatermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5oCd6aOO6ICM6L-H,size_20,color_FFFFFF,t_70,g_se,x_16

 

从HTML里提取我们需要的subid

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5oCd6aOO6ICM6L-H,size_20,color_FFFFFF,t_70,g_se,x_16

 

话不多说,上马:

# -*- coding: utf-8 -*-

import requests
from bs4 import BeautifulSoup

with open('STEAM_DB.html', 'r', encoding='utf-8') as fp:
    r = fp.read()
bf = BeautifulSoup(r, "lxml")
for items in bf.find_all('div', class_='package'):
    item = items.find('a')
    url1 = item.get('href')
    with open('subid.txt', 'a', encoding='utf-8') as file:
        file.write(item.string + '\n')

爬取结果: 

 watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5oCd6aOO6ICM6L-H,size_20,color_FFFFFF,t_70,g_se,x_16

 

四、输入subid,白嫖成功

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5oCd6aOO6ICM6L-H,size_20,color_FFFFFF,t_70,g_se,x_16

 好像steam入库数量达到多少后有冷却时间的。

五、总结不足

1.爬取steamdb网站需要代理没有(主要是我懒)

2.还没完善自动提交功能

3.steam一键登录还无法实现

4.需要搭配插件

最后还是希望你们能给我点一波小小的关注。

奉上自己诚挚的爱心💖

 

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

思风而过

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值