爬虫
文章平均质量分 83
一只快死的猿
接python外包和爬虫单子
展开
-
密码学(一):RSA加密长文
简介:RSA简介: RSA加密是一种非对称加密,至于它底层实现比较复杂,说实话我说不清楚可能把你带沟里去了,感兴趣的同学可以去看看这篇博文:点击这里,今天我们要说的不是他的实现原理,你们用RSA进行一次性加密长文是无法实现的,我们今天重点的话题是用它加密长文!!!RSA组成:RSA是由公钥和私钥组成的一对密钥,密钥分成公钥和私钥,公钥是公开的而私钥自己持有的,私钥是用来加密的,加密后的内容叫做密文,公钥是给别人用来对你加密后的密文进行解密,解密后的内容叫做明文。正文:一、生成密钥代码:.原创 2021-04-27 21:38:00 · 4413 阅读 · 0 评论 -
某宝的登录密码加密--password2
提要: 这些天在搞天猫的秒杀,但是很奇怪的是:在我自己电脑上跑的时候时间是0.5到1秒的时间,居然秒杀失败,然后别人写的秒杀时间是4秒左右都可以秒杀成功!这个我很不能接受。下面说一下我的思路:1.提前5分钟登录淘宝获取登录后的cookie,保存。2.设置秒杀时间(一般在快到秒杀的前3秒),一旦到时间激活程序,带上cookie模拟协议,执行秒杀流程。3.然后利用死循环一直请求购买接口。4.在秒杀程序激活之前已经把所有要的参数什么的都准备清楚了,只要一到时间就可以进行购买了。以上就是整体的流程和思路,原创 2020-12-05 13:20:49 · 6806 阅读 · 0 评论 -
基于python实现淘宝协议秒杀程序
前言: 最近太忙了,今天下午得空半小时更新一下博客。今天为大家带来的是某宝秒杀破解教程,也是我最近写的一个小软件,代码会可以在我的github上面看,建议有基础再去看看。在此我声明一下,这篇文字仅供学习,如果用来非法用途,后果博主一概不负!!!侵权立删!!!技术栈1、selenium+chromedriver:用web自动化来登陆获取cookie2、requests:python的一个爬虫库,用来请求某宝的api3、tkinter:可视化页面库(很丑)4、urllib:一些参数要编码首先 :se原创 2020-11-06 19:46:03 · 10100 阅读 · 9 评论 -
python爬虫之获取QQ关系网(超级详细)
背景: 继上次QQ空间登陆后获取QQ好友、群友、群信息之后,需求又扩大了,变成了获取QQ关系网,什么意思呢:就是给你一个QQ,然后从这个QQ出发,通过该QQ的说说、点赞、评论获取该QQ有过交集的人,保存他们的账号信息用来作为下次的起点。这样爬取下来就很像一张网一样,所有叫做QQ关系网。前提: 在开始之前我建议先去看一下我上次的QQ空间登陆获取信息的博客:python爬虫之QQ空间登陆获取信息(超级详细),详细介绍了QQ空间的登陆步骤和一些重要参数的破解。问题: 这篇文章主要是在之前的登陆之上进行扩展的,原创 2020-08-22 19:48:24 · 6728 阅读 · 0 评论 -
python爬虫之QQ空间登陆获取信息(超级详细)
一、背景: 前几天收到了一个需求:获取QQ好友,QQ群,QQ群友的账号。但是我却抓不到QQ程序的包就很尴尬,我觉得应该是QQ程序之间的通讯协议大部分不是HTTP或者HTTPS,而我用的是Fillder所以找不到包,但是不影响我完成需求的进度,我找了QQ的大部分相关应用,最后在QQ空间找到了能满足这个需求的数据,于是我换了个思路和方法,去QQ空间里面抓数据。二、分析: QQ空间一般是两种登陆方式:一是账号密码登陆,二是扫码登陆,领导要求的是扫码登陆,于是我就做扫码登陆把。经过反复抓包查看数据,发现登陆的原创 2020-07-30 12:07:06 · 11587 阅读 · 1 评论 -
【解决】Requests库的SSL警告:InsecureRequestWarning: Unverified HTTPS request is being made.
Requests库的SSL警告:InsecureRequestWarning: Unverified HTTPS request is being made. Adding certificate verification is strongly advised. See: https://urllib3.readthedocs.io/en/latest/advanced-usage.html#ssl-warningsInsecureRequestWarning)原因: 这个警告原因是你请求url的时候原创 2020-07-30 10:04:41 · 13439 阅读 · 1 评论 -
利用代理IP组建代理IP池
网上购买代理IP十分便宜,但是代理IP被爬虫使用的时候要以{“http”: “http://58.218.200.248:2055”}这种字典的形式才可以被使用,所以前面的key命名还蛮头疼的,以下是一个获取代理ip的方法并可以保持为爬虫直接使用的格式,代码是可以直接被使用的哦~~# coding:utf-8"""获取代理IP接口,请求IP构造IP池,IP池是一个json字符串写入并以列表嵌套字典的格式保存到ip_pool文件下"""import requestsimport jsonimp原创 2020-07-21 11:57:06 · 6721 阅读 · 0 评论 -
获取Cookies的name和value
获取一个网站cookie的name和values:# coding:utf-8"""获取请求信息的cookie值,反回一个可迭代的对象"""from urllib import requestfrom http import cookiejardef get_cookies(url): # 声明一个CookieJar对象实例来保存cookie cookie = cookiejar.CookieJar() # 利用urllib.request库的HTTPCookieP原创 2020-07-21 11:41:37 · 7840 阅读 · 0 评论 -
【解决】json字符串解析失败json.decoder.JSONDecodeError
解决json解析失败报错:json.decoder.JSONDecodeError最近遇到一个json字符串解析失败的问题,原因是json里面的":,这个三个符合在搞鬼,报错如下:json.decoder.JSONDecodeError: Expecting property name enclosed in double quotes: …json.decoder.JSONDecodeError: Expecting ‘,’ delimiter: …json.decoder.JSONDecodeE原创 2020-07-13 17:14:40 · 37173 阅读 · 3 评论