那一年, 我“偷看”过她的qq空间

       本文讲述一个有趣的故事。

       她的qq号码是3141592653(非真实号码), 我偶尔进入她的空间看看, 后来不想留下自己的访问足迹, 就退出了qq, 直接在浏览器登录http://user.qzone.qq.com/3141592653来查看, 发现也可以进入空间。 于是窃喜, 终于隐藏了自己的足迹。

       其实, 我当时只是退出了qq,并没有清除掉浏览器中qq空间的“登录态”, 所以, 登录的人还是我, 她还是能看到我的访问足迹。

       故事讲完了, 也明白了一些与http相关的道理偷笑





基于 selenium 模拟登录空间,破解滑动验证码,拿到 cookies,然后使用 requests 抓取好友留言板的所有留言与回复,并生成词图。 爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
在Python中爬取别人的QQ空间相册通常涉及到网络抓取和HTML解析,因为QQ空间的内容通常是动态加载在网页上的。以下是一个简化的步骤说明: 1. **安装必要的库**:首先,你需要安装`requests`库来发送HTTP请求,以及像`BeautifulSoup`或`lxml`这样的库用于解析HTML内容。 ```bash pip install requests beautifulsoup4 ``` 2. **获取网页源码**:使用`requests.get()`函数获取QQ空间相册页面的HTML。注意,这可能会遇到反爬策略,所以需要模拟浏览器行为并处理cookies。 ```python import requests url = 'https://user.qzone.qq.com/{username}/photoalbums' # 将{username}替换为目标用户的空间地址 headers = {'User-Agent': 'Mozilla/5.0'} # 设置合适的User-Agent response = requests.get(url, headers=headers) html_content = response.text ``` 3. **解析HTML**:使用BeautifulSoup解析HTML,找到包含图片URL的部分。这通常在CSS选择器或JavaScript生成的内容中,所以可能需要一些时间定位。 ```python from bs4 import BeautifulSoup soup = BeautifulSoup(html_content, 'lxml') album_images = soup.select('.photo-item img') # 根据实际HTML结构调整选择器 ``` 4. **保存图片**:拿到图片链接后,可以使用`requests`下载图片并保存到本地。 ```python for image in album_images: img_url = image['src'] with open(f'{image["alt"]}.jpg', 'wb') as f: response = requests.get(img_url, stream=True) for chunk in response.iter_content(1024): f.write(chunk) ``` 请注意,直接爬取他人QQ空间可能违反服务条款,并且频繁操作可能会导致账号受限。在实际操作前,最好先检查目标网站的robots.txt文件和政策,确保你的行为合法。
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值