- 博客(26)
- 收藏
- 关注
原创 【无标题】Kali无法上网
解决Kali无法上网问题刚装了几天的kali,今天打开发现无法上网了。使用ifconfig命令,发现没有工作网卡,只有本地地址。使用ifconfig -a命令查看到了自己的工作网卡还在。接着我们打开/etc/network/interfaces文件,将以下代码添加进去即可。auto eth0iface eth0 inet dhcp保存退出后。然后在终端中输入/etc/init.d/networking restart重启网络,使刚才修改的配置修改生效即可。...
2022-05-31 09:24:04 11680
原创 kali linux安装docker环境
在打算使用docker时,发现如下问题:原来我还没有安装docker.为解决这个问题,我们来安装一下:第一步:安装https证书,输入如下命令即可:apt-get install -y apt-transport-https ca-certificates看到done,则表示已经安装成功。第二步:安装dirmngr,输入如下命令即可:apt-get install dirmngr第三步:添加GPG密钥,并依次输入如下命令,注意,以下命令是两条命令:curl -fsSL http
2021-04-24 22:35:15 1728
原创 kali linux解决:docker-compose:未找到命令
在打算使用docker时发现,没有docker-compose命令 .解决方案:1.首先进入/usr/local/bin/目录下面2.进行安装:输入如下命令:wget https://github.com/docker/compose/releases/download/1.14.0-rc2/docker-compose-Linux-x86_643.安装之后对文件进行重命名:由于我怎么都安装不上rename命令,我选择进入文件夹下面进行重命名。4.然后按照以下命令赋予该文件相应权
2021-04-24 21:55:39 3121
原创 kali linux出现下列签名无效: EXPKEYSIG ED444FF07D8D0BF6 Kali Linux Repository <devel@kali.org>
root@kali:/usr/local/bin# apt-get update获取:1 http://mirrors.ustc.edu.cn/kali kali-rolling InRelease [30.5 kB]错误:1 http://mirrors.ustc.edu.cn/kali kali-rolling InRelease 下列签名无效: EXPKEYSIG ED444FF07D8D0BF6 Kali Linux Repository <devel@kali.org>获取.
2021-04-24 19:17:13 67504 16
原创 网络安全学习--014--木马及木马后门的讲解,webshell箱子溯源追踪
提示:本文所讨论的技术仅用于研究学习,旨在提高大家信息安全意识,任何人不得将其用于非法目的。@木马及木马后门的讲解,webshell箱子溯源追踪一:webshell制作原理webshell:即web网站后门getshell:是指拿webshell的过程1.webshell的种类一句话木马小马大马打包马脱裤马2.一句话木马:介绍:一句话木马短小精悍,而且功能强大,隐蔽性非常好,在入侵中始终扮演着强大的作用。这是一个一句话木马,我们把它插入到asp的网页中,然后用菜刀链接一下
2021-02-07 15:52:03 2142 1
原创 网络安全学习--008--SQL注入之Access数据库注入详解
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档Access注入漏洞详解一:注入漏洞分析站库分类:1.网站分类:静态网页:不依赖数据库灵活性差,制作、更新、维护麻烦交互性较差,在功能方面有较大的限制安全,不存在SQL注入漏洞动态网页:asp、aspx、php、jsp等,由相应的脚本引擎来解释执行,根据指令生成静态网页。依赖数据库灵活性好,维护简便交互性好,功能强大存在安全风险,可能存在SQL注入漏洞注:还有一种网站是伪静态的,这些网站看着是html,
2021-02-03 23:36:47 1070
原创 python爬虫--selenium滚动条的处理--实战爬取京东商品价格与商品名
selenium滚动条的处理很简单,只需在代码中添加一下内容即可:# 处理滚动条,因为刚开始加载页面时,滚动条的内容较短,只有等待一定时间页面才能完全加载成功js = "document.documentElement.scrollTop=100000"chrome.execute_script(js)# 一定要睡够足够的时间,才能保证加载完全sleep(20)完整的代码如下from selenium import webdriverfrom lxml import etreefrom
2021-02-01 21:59:11 9250 3
原创 python爬虫--使用selenium--实战爬取虎牙直播平台
今天我们对虎牙平台的lol板块的主播信息进行爬取,主要爬取主播名称,以及观看人数。下面我们先来分析一下网页源吧:这张图片下面的翻页列表是动态的,随着上线的主播越来越多,翻页的列表也会越来越大。通过XpathHelper工具我们可以找到主播网名对应的xpath路径,同理我们可以找到对应观看人数的xpath下面我们开始编写代码吧。本次爬虫练习,我们使用selenium模块进行爬取,使用selenium不用关注网页是静态的,还是动态的,直接进行加载就可以了# 使用selenium不用关注网页是静态
2021-02-01 16:49:04 2884 3
原创 selenium.common.exceptions.StaleElementReferenceException: Message: stale element reference: element
一天一bug,个个不一样今天写python爬虫,又又又遇到了bug。先看一些bug长什么样吧。 raise exception_class(message, screen, stacktrace)selenium.common.exceptions.StaleElementReferenceException: Message: stale element reference: element is not attached to the page document (Session info
2021-02-01 15:40:58 2138
原创 python爬虫--Selenium的使用
1. SeleniumSelenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,类型像我们玩游戏用的按键精灵,可以按指定的命令自动操作,不同是Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器)。Selenium 可以根据我们的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生。Selenium 自己不带浏览器,不支持浏览器的功能,它需要与第三方浏览器结合在一起才能使用。但是我们有时候需要
2021-02-01 10:57:06 252
原创 python爬虫--实战爬取某电影网站的电影名与电影类型
跌跌撞撞的终于完成了对于某电影网站的爬取。这个网站最令人头疼的问题就是采取了反爬虫的措施,期间我的多个IP接连没封锁,令人心疼。这次的任务主要是爬取电影名称与电影种类:下面让我来分析一下怎么做的吧:首先对index_url进行html文件爬取,解析这一部分工作主要由get_html()与prase_html()函数完成其次对具体的一个个电影介绍的url的html文件爬取,解析。这一部分工作则由praseinfo()函数完成。下面看一下我写的代码吧:import requestsfrom
2021-01-31 21:51:37 2051 1
原创 使用pycharm编写python爬虫时的乱码解决方案
一天一bug,个个不一样。今天在编写python爬虫时,又遇到了乱码。先看一下我编写的代码:import requestsfrom fake_useragent import UserAgenturl = "http://www.farmer.com.cn/2021/01/25/99864972.html"headers = { 'User-Agent': UserAgent().random}response = requests.get(url, headers=header
2021-01-30 11:46:43 1467 1
原创 网络安全--python编写自动化目录扫描脚本
本文主要介绍使用python编写目录扫描脚本老规矩,先贴代码再解释:import sysimport requestsfrom fake_useragent import UserAgentfrom optparse import OptionParserfrom threading import Thread# 扫描类class webDirScan(Thread): def __init__(self, options): Thread.__init__(se
2021-01-29 11:40:23 869 1
原创 python爬虫--多线程的学习--实战爬取糗事百科
1. 为什么要使用多线程使用单线程的危害:一旦一个地方卡到不动了,那不就永远等待下去了?多线程的优点:为此我们可以使用多线程来处理问题,并且在网络请求中多使用多线程2. 如何使用爬虫使用多线程来处理网络请求,使用线程来处理URL队列中的url,然后将url返回的结果保存在另一个队列中,其它线程在读取这个队列中的数据,然后写到文件中去3. 多线程主要组成部分3.1 URL队列和结果队列将将要爬去的url放在一个队列中,这里使用标准库Queue。访问url后的结果保存在结果队列中初始
2021-01-26 16:27:47 169
原创 使用pycharm编写python爬虫时出现乱码的解决方案UnicodeEncodeError: ‘gbk‘ codec can‘t encode character ‘\U0001f601‘ in
一杯茶,一首歌,一个bug改一天。今天在学习python多线程时,遇到的了乱码的情况,让我们先看一看是什么情况的吧在这样一段代码中:response = requests.get(url_queue.get(), headers=headers)info = response.textprint(info)报出如下错误:UnicodeEncodeError: 'gbk' codec can't encode character '\U0001f601' in position 36140:
2021-01-25 17:06:03 5300 6
原创 网络安全学习--007--漏洞分析简介
网络安全学习--007--漏洞分析前言一:常见漏洞分析工具有哪些1.NMAP2.AWVS3.Burpsuite4.椰树5.M7Lrv二:黑客的迂回“打法”1.旁站:2.C段3.子域名三:弱漏洞利用的方法1.网站暴库漏洞2.暴库利用方法:3.暴库绕过防下载4.高级语法暴库:5.任意文件下载漏洞:5.网站后台密码爆破6.网站漏洞EXP利用7.批量检测站点:总结前言 本文主要介绍渗透测试时如何常见的普通攻击手段,以及使用何种工具进行漏洞分析,以及手工分析漏洞的简介,以及一些弱口令的,目录遍历的简单介绍。
2021-01-24 17:55:08 1103
原创 网络安全学习--002--windows基础知识
一:系统目录1.windowsC:\Windows\System32是一个极其重要的文件,下面我们来介绍一下这个文件,(1)在C:\Windows\System32\config目录下面有这样一些文件:这里存放的都是windows的系统配置文件(2)在C:\Windows\System32\drivers\etc目录下面有这样一些文件:这里存放的都是与网络服务,端口,域名解析有关的文件2.program files在C:\Windows\Program Files中是程序默认安装的文件
2021-01-22 15:04:10 741 3
原创 Python爬虫练习--pyquery的练习--实战爬取匿名代理ip
1. pyquery1.1 介绍如果你对CSS选择器与Jquery有有所了解,那么还有个解析库可以适合你–Jquery官网https://pythonhosted.org/pyquery/1.2 安装pip install pyquery1.3 使用方式1.3.1 初始化方式字符串 from pyquery import PyQuery as pq doc = pq(str) //通过pq模块将我们传送的内容进行解析,并生成一个doc对象,便于
2021-01-20 16:14:33 387
原创 爬虫练习--正则表达式实战编写步骤--案例:糗事百科
先上代码,在解释:import requestsfrom fake_useragent import UserAgentimport reurl = "https://www.qiushibaike.com/text/page/1/"headers = { "User-Agent": UserAgent().random}#构造请求,发送请求,返回请求response = requests.get(url,headers=headers)info = response.text#
2021-01-18 14:41:51 152
原创 re.match()到底会返回什么?
1.re.match()到底会返回什么?根据菜鸟教程的解释,如下图:从图中的解释,我们可以看出“菜鸟教程” 并没有解释 “在起始位置匹配成功,会返回什么”,那么到底会返回什么呢?现在我们通过python编程实验来看看到底会返回什么:import reprint(re.match('www', 'www.runoob.com')) # 在起始位置匹配print(re.match('com', 'www.runoob.com')) # 不在起始位置匹配返回结果如下:<re.Matc
2021-01-15 11:58:22 8043 5
原创 Python爬虫requests库的使用教程
1. 介绍对了解一些爬虫的基本理念,掌握爬虫爬取的流程有所帮助。入门之后,我们就需要学习一些更加高级的内容和工具来方便我们的爬取。那么这一节来简单介绍一下 requests 库的基本用法2. 安装利用 pip 安装pip install requests3. 基本请求req = requests.get("http://www.baidu.com")req = requests.post("http://www.baidu.com")req = requests.put("http:/
2021-01-13 17:19:13 371
原创 Python爬虫学习--Cookie的使用
1. Cookie为什么要使用Cookie呢?Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。那么我们可以利用Urllib库保存我们登录的Cookie,然后再抓取其他页面就达到目的了。1.1 Opener当你获取一个URL你使用一个opener(一个urllib.OpenerDirector的实例)。在前面,我们都是使用的默认的opener,也就是url
2021-01-13 12:14:32 1308
原创 Could not install packages due to an EnvironmentError: [WinError5] 拒绝访问。: ‘c:\\program files\\python
在使用pip命令安装easygui时出现如下错误:Could not install packages due to an EnvironmentError: [WinError 5] 拒绝访问。: 'c:\\program files\\python\\Lib\\site-packages\\easygui'Consider using the `--user` option or check the permissions.一般这种错误都是权限不足导致的解决方案如下:1.使用管理员身份打开
2021-01-10 18:26:57 319
原创 ‘gbk‘ codec can‘t decode byte 0x80 in position 26: illegal multibyte sequence
Python在读文件时:源码如下:f = open(‘C:\Users\34682\Desktop\test.txt’, ‘r’)print(f.read())输出报错:Traceback (most recent call last):File “D:/python_yuC/字典”, line 6, in print(f.read())UnicodeDecodeError: ‘gbk’ codec can’t decode byte 0x80 in position 26: illegal
2021-01-09 19:43:14 1892 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人