自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(40)
  • 收藏
  • 关注

原创 hook window

hook

2024-04-11 11:47:28 145

原创 ddddocr识别图片中的汉字

ddddocr识别图片中的汉字

2024-01-25 17:22:51 1026

转载 python项目中使用requirement.txt移植第三方库

python项目移植requirement.txt

2023-10-11 21:37:39 265

原创 scrapy---中间件--设置User-Agent、代理

本文主要讲述scrapy—中间件,理解中间件的处理流程。

2023-06-07 17:29:47 603

原创 scrapy--模拟登录--设置cookie

本文主要讲述模拟登录。

2023-06-06 18:27:52 660

原创 scrapy--管道1

本文主要讲述怎么在scrapy中保存数据。主要讲mysql、excel的保存。

2023-06-05 14:13:57 99

原创 python爬虫框架----scrapy基础篇

Scrapy 是一个基于 Twisted 实现的异步处理爬虫框架,该框架使用纯 Python 语言编写。Scrapy 框架应用广泛,常用于数据采集、网络监测,以及自动化测试等。提示:Twisted 是一个基于事件驱动的网络引擎框架,同样采用 Python 实现。本文主要讲述Scrapy爬虫工作流程以及创建scrapy爬虫项目。

2023-06-03 18:35:20 2774

原创 加速乐-AAencode-ob混淆

加速乐、AAEncode、OB 混淆破解出多层响应 Cookie 逆向。

2023-05-07 16:08:46 681

原创 AES链接加密逆向

AES加密

2023-04-21 18:15:56 548

原创 RSA登录加密--中国移动

RSA登录加密

2023-04-19 23:15:33 116

原创 有道翻译--js逆向分析md5加密参数---破解接口密文

有道翻译-最新js分析

2023-04-18 18:05:54 725

原创 MySql 创建表,插入表数据

一 、创建表1.#### 创建表结构一样的表CREATE TABLE IF NOT EXISTS new_table_name (LIKE table_name ); CREATE TABLE new_table_name select * from table_name

2021-12-13 16:42:25 684

转载 mysql中union与union all的区别

UNION用的比较多union all是直接连接,取到得是所有值,记录可能有重复 union 是取唯一值,记录没有重复1、UNION 的语法如下:[SQL 语句 1]UNION[SQL 语句 2]2、UNION ALL 的语法如下: [SQL 语句 1] UNION ALL [SQL 语句 2]效率:UNION和UNION ALL关键字都是将两个结果集合并为一个,但这两者从使用和效率上来说都有所不同。1、对重复结果的处理:UNION在进行表链接后会筛选掉重复的记录,Union

2021-12-13 16:36:48 154

原创 Mysql 更新数据

一、根据条件更新表中指定字段的值UPDATE table_name set 字段1= REPLACE(字段1,'旧数据','新数据'),字段3= REPLACE(字段3,'旧数据','新数据'), where 字段2= '激光传感器';

2021-12-13 15:51:45 1424

原创 mysql 查询删除重复数据,保留其中一条数据

一、查询重复数据--------根据多个字段查询重复数据SELECT *FROM table_name aWHERE (a.字段1, a.字段2) IN ( SELECT 字段1, 字段2 FROM table_name GROUP BY 字段1, 字段2 HAVING

2021-12-13 15:43:02 6393 1

原创 selenium+pyquery--51job

from selenium import webdriverfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.common.keys import Keysimport time

2021-11-22 14:10:47 725

原创 51job+selenium+div弹窗

from selenium import webdriverfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.common.keys import Keysimport time

2021-07-08 10:30:29 1642

原创 selenium+定位frame里的元素以及class属性元中有多个用空格隔开的元素

一、frame里的元素-----例子https://mail.163.com/登录1.原因:iframe的作用是文档中的文档,或者浮动的框架(FRAME)。iframe元素会创建包含另外一个文档的内联框架(即行内框架),在selenium使用的时候如果不进行切换,我们是无法定位到iframe中的元素的。我们可以通过switch_to.frame()来切换到相应的iframe上2.观察开发者工具可以看到用户名和密码都在iframe框架中from selenium import webdriverfr

2021-07-07 10:52:30 505

原创 selenuim+携程自由行+利用try...except判断元素是否存在

from selenium import webdriverfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.common.keys import Keysimport time

2021-07-06 22:31:37 270

转载 selenuim+京东

一、步骤第一步:设置input,要搜索的关键字第二步,利用selenuim设置打开浏览器第三步:声明一个list,存储dict第五步:定义爬虫函数a. 请求url :browser.get(url)b.获取输入框的id,并输入关键字 :browser.find_element_by_id(‘xxx’).send_keys(key_word)c.输入回车进行搜索: browser.find_element_by_id(‘xxx’).send_keys(Keys.ENTER)d.显示等待下一页的

2021-07-05 16:13:07 82

原创 requests+bs4 +find豆瓣

import requestsfrom bs4 import BeautifulSoupfrom random import choicefrom requests.exceptions import RequestExceptionurl = 'https://book.douban.com/tag/%E7%BC%96%E7%A8%8B'ua = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_1) AppleWebKit/537.36 (KHTML

2021-07-02 17:48:19 75

原创 requests+bs4 使用css选择器(select)豆瓣

import requestsfrom requests.exceptions import RequestExceptionfrom lxml import etreeimport time, json, csv,xlwt,xlrdimport pandas as pdfrom xlutils.copy import copyfrom bs4 import BeautifulSoup# 第一步:#定义一个方法获取网页信息def get_one_page(url): try:

2021-07-02 17:47:02 1131

原创 Requests+Xpath 爬取豆瓣读书TOP并生成txt,csv,json,excel文件

说明:##来源:https://www.cnblogs.com/yizhiamumu/p/10270926.html1 Requests+Xpath 爬取豆瓣读书TOP‘’’Requests+Xpath 爬取豆瓣读书TOP安装 Python 应用包pip install requestspip install lxml获取元素的Xpath信息并获得文本:手动获取:定位目标元素,在网站上依次点击:右键 > 检查file=s.xpath(‘元素的Xpath信息/text()’)快捷键

2021-07-01 23:16:32 4006

原创 python爬虫之BeautifulSoup

参考:https://blog.csdn.net/weixin_34127717/article/details/90583410?utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7EBlogCommendFromMachineLearnPai2%7Edefault-1.control&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7E

2021-06-01 21:49:18 365

原创 Xpath解析库

一、XPath 常用规则二、介绍安装lxml 库,导入库,from lxml import etree2.1 构造XPath 解析对象index.html的内容'''<html><head><title>The Dormouse's story</title></head><body><p class="title" name="dromouse"><b>The Dormouse's stor

2021-06-01 21:19:15 163

原创 requests+re爬取猫眼电影排行

import requestsfrom requests.exceptions import RequestExceptionimport re,json,timedef get_one_page(url): #获取网页信息 try: headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.44

2021-06-01 20:07:47 236

原创 re正则表达式

正则

2021-05-31 18:23:38 263

原创 5-1请求库-urllib

Urllib库与URLError异常处理

2021-04-13 17:16:31 163

转载 4-爬虫-会话、cookie

爬虫基础——会话和Cookie会话和Cookie在浏览网站的过程中,我们经常遇到需要登录的情况,有些页面只有登录之后才可以访问,而且登录之后可以连续访问很多次网站。有时候过一段时间就需要重新登录,有一些网站则打开浏览器就直接自动登录了,并且长时间不失效,这就涉及到会话和Cookie的相关知识。静态网页和动态网页使用前文的HTML示例代码这是一个基础的HTML代码,我们将其保存为一个.html文件,把它放在某台具有固定公网IP的主机上,主机上装上Apache或Nginx等服务器,这样这台主机就可

2021-04-12 16:56:54 103

原创 3-爬虫基础--网页基础

1.网页的组成2.网页的结构3.节点树及节点间的关系4.选择器

2021-04-12 15:44:33 55

原创 1-爬虫介绍

1.爬虫概述爬虫过程:发送请求,获取网页源码信息;解析网页信息,提取有用数据;保存数据。2.爬虫类型通用网络爬虫、聚焦网络爬虫(主题网络爬虫)、增量式网络爬虫、深层网络爬虫。2.1 通用网络爬虫爬取海量数据,主要作用于搜索引擎。组成:初始URL集合、URL队列、页面爬行模块、页面分析模块、页面数据库、链接过滤模块等构成。爬行策略:深度优先和广度优先。2.2聚焦网络爬虫(主题网络爬虫)根据预先定义好的有选择性地进行页面爬取的一种爬虫,将爬取的目标网页定位与主题相关的页面中。是特定信息

2021-04-12 15:26:32 115

原创 python——身份证有效性验证

import pymssql#sql serverfrom id_validator import validatorserver 数据库服务器名称或IPuser 用户名password 密码database 数据库名称conn = pymssql.connect(server=‘IP’, user=‘sa’, password=‘sa’, database=‘test_python’)cursor = conn.cursor() #创建游标对象#首先判断是否有数据表,

2021-03-26 16:31:25 611 1

原创 2-爬虫基础---HTTP原理

1.URL统一资源定位符,如https://www.githubs.cn/favicon.ico。其中https代表访问协议;访问路径:www.githubs.cn代表访问网站的根目录;资源名称:favicon.ico。2.超文本浏览器网页的源代码html就是超文本,网页就是超文本解析而成。如下:F12->Elements里的html代码就是超文本。3.HTTP和HTTPSHTTP:超文本传输协议,用于从网络传输超文本数据到本地浏览器的传送协议,能够保证高效而准确地传输超文本文档。

2021-03-12 16:45:18 114

转载 Python网络爬虫四大选择器(正则表达式、BS4、Xpath、CSS)总结

Python网络爬虫四大选择器(正则表达式、BS4、Xpath、CSS)总结0.前言相关实战文章: 正则表达式、BeautifulSoup、Xpath、CSS选择器分别抓取京东网的商品信息。网络爬虫:模拟客户端批量发送网络请求,批量接收请求对应的数据,按照一定的规则,自动抓取互联网信息的程序,进行数据采集,并进行持久化存储。其他用途:百度搜索, 12306抢票、各种抢购、投票、刷票、短信轰炸、网络攻击、Web漏洞扫描器 都是爬虫技术。爬虫的用途1.金融 金融新闻/数据 制定投资策

2021-03-09 16:58:54 1066

原创 python---global、lambda

1.global将全局变量可以在函数体内进行修改。2.lambda作用:即用即删除,很适合完成一项功能,但是此功能只在此一处使用。

2021-02-26 15:51:07 102

原创 python深浅拷贝

一、拷贝就是直接赋值,就是对象引用。解析:b= a:赋值引用。a,b都指向同一个对象。a = [1,[2,3]]b=aprint(id(a))print(id(b))print(id(a[0]))print(id(b[0]))print(id(a[1]))print(id(b[1]))结果261497033612826149703361282614967363888261496736388826149684039682614968403968二、浅拷贝浅拷贝

2021-02-24 15:15:10 51

原创 python数据类型简单介绍

python数据类型简单介绍1.python数据类型种类数字类型字符串类型布尔类型空类型列表类型元组类型字典类型1.1数字类型整型 int;浮点型 float;内置函数–type整型 int:既是整型的代表,也是定义整型的内置函数内置函数:count = int(100)浮点型 float:既是浮点型的代表,也是定义浮点型的内置函数内置函数:float_count = float(3.14)内置函数–type:返回变量的类型count = 100prin

2021-02-20 15:18:24 641

转载 python书籍推荐

python学习书籍推荐来源:https://www.py.cn/jishu/jichu/12559.html基础篇(学习路径:1->2->3)1.《Python 编程:从入门到实践》/ 豆瓣 9.1 / 2016-7-1 出版 / [美] 埃里克・马瑟斯Amazon编程入门类榜首图书,国内 Python 入门第一书。基于 Python3.5同时也兼顾 Python2.7,是一本全面的Python编程,从入门到实践教程,带领读者快速掌握编程基础知识、编写出能解决实际问题的代.

2021-01-13 11:27:10 333

转载 python爬虫之web服务器连接

一、web服务器整体处理过程1、输入:URLhttp(https)://域名部分:端口号/目录/文件名.文件后缀http(https)://域名部分:端口号/目录/2、处理过程爬虫抓取多个页面只需解析robots.txt 一次,,HTTP1.1中设置的Connection属性设置为keep-alive,表示连接会保持,服务端不会主动断开连接2、requests和response的使用requests.request():用于构造一个请求requests.get():获取H

2020-05-23 13:43:23 585

原创 python爬虫之普通爬虫

一、普通爬虫的体系架构web服务器连接:向指定web服务器发送请求(Requsets中的get、post请求),建立爬虫与web服务器的网络连接,连接作为发送URL和接收信息的通道。DNS缓存:为了减少域名到IP地址的映射时间消耗。URL过滤与提取:页面解析器对获得的HTML文件进行分析,提取包含的URL,根据robots.txt协议判断访问许可列表、是否已经爬行过等基本规则,再对提取的URL过滤。爬行策略:深度优先、宽度优先、基于PageRank的重要排序、在线页面重要指数(On-Li

2020-05-23 12:02:50 712

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除