python和信息安全_python攻防之基础篇

众所周知,python是近几年比较火的语言之一,它具有简单易懂、免费开源、可移植、可扩展、丰富的第三方库函数等特点,Java需要大量代码的功能同样用python仅短短几行代码就能实现,python具备跨平台特性,Linux和Windows都能使用,所以想不被用于网络安全都难。

那么,这门语言究竟都能在网络攻防中实现哪些作用呢?

目录扫描:Web+多线程(requests+threading+Queue),后台、敏感文件(svn|upload)、敏感目录(phpmyadmin)

信息搜集:Web+数据库,中间件(Tomcat | Jboss)、C段Web信息、搜集特点程序。例如:搜索某个论坛上的所有邮箱,再进行攻击

信息匹配&SQL注入:Web+正则,抓取信息(用户名|邮箱)、SQL注入

反弹shell:通过添加代码获取Shell及网络信息

还有一些绕过WAF脚本,漏洞EXP等都可以通过python来实现

那究竟是如何实现的这些功能呢?这就不得不从基础开始说起了:

Python正则表达式被广泛应用在爬虫开发、多线程、网络编程中,而hacker应用也会涉及到正则表示式相关知识,比如扫描、爆破、POC等

正则表达式(RegEx)使用单个字符串来描述、匹配一系列符合某个句法规则的字符串。 (数字、非数字、标签、url等等)例如,如果想获取里面的ip地址,就需要使用正则表达式实现。Python通过re模块提供正则表达式的支持。具体就不再在这里详说了,想学习正则的话,小编后续会在专栏详细介绍

python的Web编程,并不是利用Python开发Web程序,而是用Python与Web交互,获取Web信息。包括urllib,request等模块以及爬虫

urllib是Python用于获取URL(Uniform Resource Locators,统一资源定址器)的库函数,可以用来抓取远程数据并保存,甚至可以设置消息头(header)、代理、超时认证等

urllib模块提供的上层接口让我们像读取本地文件一样读取www或ftp上的数据。其常用的方法如下:urlopen(url, data=None, proxies=None)

该方法用于创建一个远程URL的类文件对象,然后像本地文件一样操作这个类文件对象来获取远程数据。参数url表示远程数据的路径,一般是网址;参数data表示以post方式提交到url的数据;参数proxies用于设置代理。urlopen返回一个类文件对象

# -*- coding:utf-8 -*-

import urllib

url = "http://www.baidu.com"

content = urllib.urlopen(url)

print content.info() #头信息

print content.geturl() #请求url

print content.getcode() #http状态码

#该段调用调用urllib.urlopen(url)函数打开百度链接,并输出消息头、url、http状态码等信

urlretrieve(url, filename=None, reporthook=None, data=None)

urlretrieve方法是将远程数据下载到本地,参数filename指定了保存到本地的路径,如果省略该参数,urllib会自动生成一个临时文件来保存数据;参数reporthook是一个回调函数,当连接上服务器,相应的数据块传输完毕时会触发该回调,通常使用该回调函数来显示当前的下载进度;参数data指传递到服务器的数据

# -*- coding:utf-8 -*-

import urllib

url = 'https://www.baidu.com/img/bd_logo.png'

path = 'test.png'

urllib.urlretrieve(url, path)

#它将百度Logo图片下载至本地

requests模块是用Python语言编写的、基于urllib的第三方库,采用Apache2 Licensed开源协议的http库。它比urllib更加方便,既可以节约大量的工作,又完全满足http测试需求。requests是一个很实用的Python http客户端库,编写爬虫和测试服务器响应数据时经常会用到

网络爬虫:在安全领域,爬虫能做目录扫描、搜索测试页面、样本文档、管理员登录页面等。很多公司(如绿盟)的Web漏洞扫描也通过Python来自动识别漏洞。传统的爬虫代码会被网站拦截,从而无法获取相关信息。

右键审查元素(按F12),在Network中获取Headers值。headers中有很多内容,主要常用的就是user-agent 和 host,它们是以键对的形式展现出来,如果user-agent 以字典键对形式作为headers的内容,就可以反爬成功

小编曾经做过爬取文字的案例:

准备在互联网 下载两个新的模块

requests 代替 urllib模块 使用的一个浏览器

bs4 beautiful soup 靓汤 可以分析html标签 可以精确查找标签 以及显示标签内容

openpyxl python 制作execl 表格使用的

前提 让windows python使用国内的源下载数据

在家目录建立一个名为 pip的文件夹,建立一个名为pip.ini 的文件 配置文件。

[global]

timeout = 6000

index-url = https://pypi.tuna.tsinghua.edu.cn/simple

trusted-host = pypi.tuna.tsinghua.edu.cn

pip install bs4

pip install requests

pip install openpyxl

#如果没有配置过国内源 也可以临时使用国内源下载

pip install bs4 https://pypi.tuna.tsinghua.edu.cn/simple

通过request获取主页数据

#要求将北京市安全运维工程师岗位 进行批量获取第一页所有岗位信息 并写入excel表格

#需要用一个程序过滤出该页面所有岗位的地址链接

import job51page

import re

import openpyxl

url = "https://search.51job.com/list/010000,000000,0000,00,9,99,安全运维工程师,2,1.html"

headers = {'User-Agent':'Mozilla/5.0 \

(Windows NT 10.0; Win64; x64; rv:73.0) Gecko/20100101 Firefox/73.0'}

def get_joblist(url,headers):

html = job51page.get_html(url,headers)

joblist = re.findall("https://jobs.51job.com/.*/\d+\.html",html) #获取页面所有岗位地址列表

#print(html)

#print(joblist)

return joblist

def create_jobdb(joblist):

"将所有地址都访问一遍后将内容获取 并写入excel表格中"

wb = openpyxl.Workbook()

ws = wb.active

ws.append(["岗位名称","公司名称","薪资","岗位要求","职位诱惑","岗位信息","公司信息","网站地址"])

for joburl in joblist:

html = job51page.get_html(joburl,headers) #获取一条岗位地址页面的信息

jobinfolist = job51page.get_text(html,joburl)

ws.append(jobinfolist)

wb.save("c:\\users\\allen\\desktop\\190451jobdb.xlsx")

joblist = get_joblist(url,headers)

create_jobdb(joblist)

最后结果就是把涉及51北京网络安全运维的信息都爬到了一个EXCEL表中。爬图片的原理相同,就是寻找p标签

部分网站如果涉及到翻页,需要获取所有页码的信息,最传统的方法是定义一个函数,然后设计一个循环,一次遍历不同页面的内容实现

url_start = ""

url_end = ""

def lesson(url):

....

for i in range(1,9)

url = url_start+ str(i) + url_end

lesson(url)

如果遇到url始终不变的情况,一般是有设置了变量pagesnum,它标记为我们的页码,所以这里需要通过requests提交变量数据,就能实现翻页

# -*- coding: utf-8 -*-

import requests

import time

import datetime

url = "http://www.hshfy.sh.cn/shfy/gweb/ktgg_search_content.jsp?"

page_num = 1

date_time = datetime.date.fromtimestamp(time.time())

print date_time

data = {

"pktrqks": date_time,

"ktrqjs": date_time,

"pagesnum": page_num

}

print data

content = requests.get(url, data, timeout=3)

content.encoding='gbk'

print content.text

下面我们来说下Python的套接字通信

Python网络通讯主要是C/S架构的,采用套接字实现。C/S架构是客户端(Client)和服务端(Server)架构,Server唯一的目的就是等待Client的请求,Client连上Server发送必要的数据,然后等待Server端完成请求的反馈,Server端进行设置,首先创建一个通信端点,让Server端能够监听请求,之后就进入等待和处理Client请求的无限循环中。Client编程相对Server端编程简单,只要创建一个通信端点,建立到服务器的链接,就可以提出请求了

套接字是一种具有之前所说的“通信端点”概念的计算网络数据结构,最初套接字被设计用在同一台主机上多个应用程序之间的通讯,这被称为进程间通讯或IPC。网络化的应用程序在开始任何通信都必须创建套接字。相当于电话插口,没它无法通信,这个比喻非常形象。Python支持:AF_UNIX、AF_NETLINK、AF_INET,其中AF_INET是基于网络的套接字

套接字分两种:基于文件型和基于网络的

套接字是基于文件的,所以它们的底层结构是由文件系统来支持的。可以理解为同一台电脑上,文件系统确实是不同的进程都能进行访问的

如果把套接字比作电话的查看——即通信的最底层结构,那主机与端口就相当于区号和电话号码的一对组合。一个因特网地址由网络通信必须的主机与端口组成。而且另一端一定要有人接听才行,否则会提示“对不起,您拨打的电话是空号,请查询后再拨”。同样你也可能会遇到如“不能连接该服务器、服务器无法响应”等。合法的端口范围是0~65535,其中小于1024端口号为系统保留端口

面向连接的主要协议就是传输控制协议TCP。要创建TCP套接字就得创建时指定套接字类型为SOCK_STREAM。TCP套接字这个类型表示它作为流套接字的特点。由于这些套接字使用网际协议IP来查找网络中的主机,所以这样形成的整个系统,一般会由这两个协议(TCP和IP)组合描述,即TCP/IP

无连接的主要协议是用户数据报协议UDP。要创建UDP套接字就得创建时指定套接字类型为SOCK_DGRAM。这个名字源于datagram(数据报),这些套接字使用网际协议来查找网络主机,整个系统叫UDP/IP

使用socket模块的socket()函数来创建套接字。

语法如下:socket(socket_family, socket_type, protocol=0)其中socket_family不是AF_VNIX就是AF_INET,socket_type可以是SOCK_STREAM或者SOCK_DGRAM,protocol一般不填,默认值是0。

创建一个TCP/IP套接字的语法如下:tcpSock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)

创建一个UDP/IP套接字的语法如下:udpSock = socket.socket(socket.AF_INET, socket.SOCK_DGRAM)

由于socket模块中有太多属性,所以使用"from socket import *"语句,把socket模块里面的所有属性都带到命名空间中,大幅缩短代码。调用如下:tcpSock = socket(AF_INET, SOCK_STREAM)

举个例子,服务器端:

#!/usr/local/bin/python3

import socket

import os

ip = "" #我哪个ip开放 空表示所有ip

port = 5000 #我要开的端口

s = socket.socket(socket.AF_INET,socket.SOCK_STREAM) #对象s 使用基于tcp协议的网络套接字

s.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1) #关闭后不需要保存状态可以立即开启

s.bind((ip,port)) #对象s 开始绑定ip和端口

s.listen(1) #启动监听状态

conn,addr = s.accept() #当与别人建立连接 addr变量存对方ip conn 连接的对象

print(addr) #显示对方地址

while True:

data = conn.recv(10240) #接收对方字符串 #如果对方不发数据会卡住

print(data) #打印对方发来的数据

if data == b"byebye":

break

data = str(data,encoding="utf8")

f = os.popen(data) #可以将命令的内容以读取的方式返回

data2 = f.read()

if data2 == "":

conn.send(b"finish")

else:

conn.send(bytes(data2,encoding="utf8"))

conn.close() #断开连接

s.close() #关闭套结字

客户端

import socket

ip = "192.168.86.11" #对方服务器ip地址

port = 5000 #对方服务器的端口

c = socket.socket(socket.AF_INET,socket.SOCK_STREAM) #链接对方使用tcp协议 对象建立

c.connect((ip,port))

while True:

data = input("请输入命令:")

data = bytes(data,encoding="utf8")

c.send(data) #发送数据给对方

data2 = c.recv(10240)

print(str(data2,encoding="utf8"))

if data == b"byebye":

break

c.close()

好了,就先写到这里,欢迎圈内的小伙伴多提意见和建议,小编也是在无涯学海中拼力划着一叶扁舟,让我们一起乘风破浪吧!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值