自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

白菜猪肉炖粉条

渗透开搞

  • 博客(25)
  • 收藏
  • 关注

原创 【渗透笔记】windows反弹shell方法大全

正向shell: 控制端主动发起连接请求去连接被控制端,中间网络链路不存在阻碍。反向shell(反弹shell): 被控端主动发起连接请求去连接控制端,通常被控端由于防火墙限制、权限不足、端口被占用等问题导致被控端不能正常接收发送过来的数据包。ncnc正向shell被控端:nc -lvvp 6666 -e cmd.exe开启监听控制端:nc 192.168.1.62 6666此原理就是,被控端将cmd.exe重定向到本地的6666端口,控制端主动连接被控端的6666端口,即可获得sh

2021-01-06 11:51:17 2001

原创 【渗透笔记】内网文件传输

WindowsFTPftp没有设置认证,允许匿名登录的话,攻击者如果知道了机器开启ftp协议,他可以直接登录机器。还有ftp要做一个比较好的目录权限控制,即使设置了账号密码,攻击者可以通过爆破,如果ftp目录有读取写入执行权限,攻击者会上传文件进而反弹shell。py开启ftp服务pip3 install pyftpdlibpython3 -m pyftpdlib脚本文件ftp.txt,用于连接ftp服务,下载文件copy con ftp.txtopen 192.168.1.111 21

2021-01-04 10:22:35 906 1

原创 【渗透笔记】Linux主机信息收集

系统架构# 打印系统信uname -a# 文件 /etc/issue是一个文本文件,其中包含要在登录提示之前打印的消息或系统标cat /etc/issue# /etc/lsb-release,/etc/redhat-release文件包含一个被解析以获取信息的描述行cat /etc/*-release# /proc/version指定了Linux内核的版本,用于编译内核的gcc的版本以及内核编译的时间。他还包含内核编译器的用户名cat /proc/version# /pr

2020-12-29 14:16:58 466 1

原创 【渗透笔记】域内密码凭证获取

Volume Shadow Copy活动目录数据库ntds.dit活动目录数据库,包括有关域用户、组和组成员身份的信息。它还包括域中所有用户的密码哈希值。为了保护密码哈希值,使用存储在SYSTEM注册表配置单元中的密钥对这些哈希值进行加密。因此想要破解sam文件和ntds.dit文件都需要拥有一个system文件ntds.dit文件位置:%SystemRoot%\NTDS\NTDS.ditsystem文件位置:%SystemRoot%\System32\config\SYSTEMsa

2020-12-28 16:56:23 1738

原创 xray+burp扫描

xrayxray破解补丁,github上的被删除了,这是我之前下载的破解流程:# 生成证书main.exe -g zzzz# 破解main.exe -c xray.exe# 运行xrayxray.exe漏洞寻找:手工主动扫描(awvs等主动扫描工具)被动扫描(一般是自己手工探测流量或者利用爬虫获取流量进行扫描查找漏洞,借助xray,burp,awvs13等被动扫描工具+手工测试)开启xray被动扫描xray.exe webscan --listen 127.0.0.1:

2020-12-21 13:59:57 558

原创 【渗透笔记】Windows密码凭证获取

Windows HashWindows系统使用两种方法对用户的密码进行哈希处理,它们分别是**LAN Manager(LM)哈希和NT LAN Manager(NTLM)**哈希。LM哈希存在缺陷,所以新版的win不再使用LM哈希密码最大长度为14,密码长度超过14位使用NTLM哈希所谓哈希(hash),就是使用一种加密函数进行计算后的结果。这个加密函数对一个任意长度的字符串数据进行 一次数学加密函数运算,然后返回一个固定长度的字符串。现在已经有了更新的NTLMv2以及Kerberos验证体系

2020-12-03 14:41:29 2805

原创 【渗透笔记】Windows主机信息收集

在拿到webshell的时候,想办法获得系统信息拿到系统权限,进入到网络系统内部之后收集内部网络的各种信息,获取内部网络有价值的人员、资产信息。内网渗透的第一步,内网信息收集。环境搭建ATT&CK靶场二内网环境分析内网基础环境判断IP、网关、DNS、是否能联通外网、网络连接以及端口、本机host文件、机器的代理、是否在域内、域名是什么。分析机器所在位置区域DMZ区(两个防火墙之间的空间)、办公区、生产区、核心DB等分析机器的角色普通web服务器、开发服务器、文件服务器

2020-12-02 18:44:20 1042 1

原创 scrapy关于tbody标签的问题

今天在爬取网页时,当爬取表格(table) 的内容时,发现用 xpath helper 获取正常,程序却解析不到。原因是:浏览器会在table标签下添加tbody 在chrome、火狐测试都有这个情况。出现这种原因是因为浏览器会对html文本进行一定的规范化下图这个是xpath heper 获取的 下图是源码查看到的 对比发现,审查元素中多了tbody标签解决方法

2018-02-05 11:21:38 2956

原创 下载360图片

好久没写了,可不能生疏了,这次我们爬取360图片~就爬个妹子的图吧,网址在此, http://image.so.com/z?ch=wallpaper&t1=93F12看网络请求,随着鼠标往下往下滚动,发现加载了很多的图片,以及最重要的,jQuery发送的请求,其响应结果是一个json 可以看到发送请求的额url: http://image.so.com/zj?ch=wallp

2018-01-30 14:51:42 476

原创 基于Python的头脑王者脚本(纯娱乐)

最近在玩头脑王者,已经王者啦~ 这里写个头脑王者的脚本玩玩思路: 抓取手机端游戏截图 -> ocr提取图中的题目 -> 通过百度搜索,匹配答案中在页面出现次数最多的答案正确率实在不咋地,原因就是:很多问题都是选择不是!不是四大名楼的!不是粤菜的。。等等,这里匹配网页的时候就特别的吃亏,基本都是错误答案了。所以这个东西纯属娱乐,各位看官还是各凭本事吧,哈哈哈这里需要安装ocr模块,百

2018-01-22 15:27:28 3898 15

原创 Scrapy利用Splash抓取动态页面

之前的例子,我爬取的都是些静态页面中的信息,爬取容易。但是目前大多数网站都是动态的,动态页面中的部分内容是浏览器运行页面中的JavaScript脚本动态生成的,爬取相对困难。动态网页一般两种思路 ,一是找到api接口伪装请求直接请求数据,另一种是没有办法模拟的时候需要渲染环境。这里我使用了第二种方法Splash是Scrapy官方推荐的JavaScript渲染引擎,它是使用Webki

2018-01-22 09:56:06 3813 4

原创 第九章 下载文件和图片

Scrapy框架提供了两个Item Pipeline,专门用于下载文件和图片:FilesPipelineImagesPipeline使用时只需要通过item的一个特殊字段将要下载文件或图片的url传递给它们,就会自动将文件或图片下载到本地,并将下载结果信息存入item的另一个特殊字段,以便在导出文件中查阅。FilesPipeline使用说明1. 在配置文件settin

2018-01-18 16:31:50 469

原创 第八章 项目练习

项目练习项目需求 爬取目标站点http://books.toscrape.com网站中的书籍信息其中每一本书的信息包括: - 书名 - 价格 - 评价等级 - 产品编码 - 库存量 - 评价数量并将爬取的结果保存到csv文件中编码实现1. 创建项目 scrapy startproject books_to_scrape2. 创建

2018-01-18 11:35:34 621

原创 第七章 使用Exporter导出数据

使用Exporter导出数据在Scrapy中,负责导出数据的组件被称为Exporter,Scrapy内部实现了多个Exporter,每个Exporter实现一种数据格式的导出,支持的格式如下:JSON(JsonItemExporter)JSON lines(JsonLinesItemExporter)CSV(CsvItemExporter)XML(XmlItemExporter)

2018-01-18 09:12:24 1468

原创 第六章 使用LinkExtractor 提取链接

使用LinkExtractor 提取链接提取链接的两种方法:SelectorLinkExtractor之前的代码是使用的Selector,这里就不再做介绍了,开始LinkExtractor的学习1.使用LinkExtractorfrom scrapy.linkextractors import LinkExtractor# 提取链接 # 下一页的

2018-01-18 09:11:38 5974 1

原创 使用IDM神器突破垃圾百度云网速

百度云作为目前还在坚挺的免费云盘,深受大家喜爱,而如今的百度云下载网速,大家有目共睹,上百兆的宽带,下载速度居然不超过100k,给你限速,逼你开会员,实在是忍不了!还好还有IDM,给了我们希望1. 去官网下载IDM,并自行安装20171120最新版下载地址2. 安装破解文件看雪IDM破解文件传送门将下载好的dll文件,复制到IDM的安装目录下即可3. 浏览器

2018-01-17 16:07:17 25622 1

原创 第五章 使用Item Pipeline处理数据

在Scrapy中,Item Pipeline 是处理数据的组件,通常只负责一种功能的数据处理,在一个项目中可以同时启用多个Item Pipeline,它们按指定次序级联起来,形成一条数据处理流水线.Item Pipeline的几种典型应用: - 清洗数据 - 验证数据的有效性 - 过滤掉重复的数据 - 将数据存入数据库1. Item Pipeline在之前的example项

2018-01-17 16:05:53 2314

原创 第四章 使用Item封装数据

回顾之前的BookSpider代码,我们使用Python字典存储一本书的信息,但字典可能有以下缺点: 1. 无法一目了然的了解数据中包含那些字段,影响代码可读性 2. 缺乏对字段名的检测,容易因程序猿笔误而出错 3. 不便于携带元数据(传递给其他组件的信息)为解决上述问题,在Scrapy中可以使用自定义的Item类封装爬取到的数据1. Item和FieldScrapy提供了两

2018-01-17 16:05:18 621

原创 第三章 XPath学习

XPath 节点节点在XPath中,有七种类型的节点:元素属性文本命名空间处理指令注释文档节点(根节点)bookstore>book> title lang="en">Harry Pottertitle> author>J K. Rowlingauthor> year>2005year> price>29.99price>book

2018-01-17 16:04:37 344

原创 第二章 编写Spider

1. Scrapy框架结构以及工作原理 组件 描述 类型 ENGINE 引擎,框架的核心,其他所有组件在其控制下协同工作 内部组件 SCHEDULER 调度器,负责对SPIDER提交的下载请求进行调度 内部组件 DOWNLOADER 下载器,负责下载页面(发送HTTP请求/接收HTTP响应) 内部组件 SPIDER

2018-01-17 16:03:17 694

原创 第一章 初识Scrapy

Scrapy1. 什么是爬虫网络爬虫是指在互联网上自动爬取网站内容信息的程序,也被称作网络蜘蛛或网络机器人.一个网络爬虫的基本执行流程可以总结为:下载页面一个网页的内容本质上就是一个HTML文本,爬取一个网页内容之前,首先要根据网页的URL下载网页.提取页面中的数据HTML下载完成后,对页面中的内容进行分析,并提取出需要的数据,提取的数据可以以多种形式保存起来,C

2018-01-17 16:02:21 406

原创 Deepin 软件目录

系统安装软件一般在/usr/share,可执行的文件在/usr/bin,配置文件可能安装到了/etc下等。 文档一般在 /usr/share 可执行文件 /usr/bin 配置文件 /etc lib文件 /usr/lib

2018-01-17 16:00:44 4209

原创 Hexo搭建博客

这是很久之前写的了,当时发表在简书上的.记录下,Hexo还是简单粗暴的这两天系统是安装好了,开始各种安装各种开发工具啥的,比较畅通,没啥好写的由于换电脑了,之前的github上的博客没法更新了…因为之前的电脑进水了,代码没法拷过来…而clone下博客的项目发现,没有md文件了!!!于是只能重新搭建一个了,友情提醒:一定要保存好md文件额。这次打算建个分支把md文件也存起来…

2018-01-17 16:00:04 443

原创 Deepin制作快捷启动图标

默认情况下系统所有的快捷方式放在/usr/share/applications文件夹下, 该目录中的.desktop文件,每个文件便是一个快捷方式。``` [Desktop Entry] Name=stdio Comment=develop for Android Exec=/home/keenshin/developTools/android-studio/bin/studio

2018-01-17 15:59:02 3099

原创 Deepin安装msf

先安利一下Deepin,整合了各种常用的软件,使用Linux不再迷茫~~ 1. 获取kali源vim /etc/apt/sources.list添加源deb http://http.kali.org/kali kali-rolling main contrib non-freedeb-src http://http.kali.org/kali kali-rollin

2018-01-17 09:47:10 1973 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除