- 博客(70)
- 资源 (3)
- 问答 (3)
- 收藏
- 关注
原创 wp删除指定分类下面所有的文章,实测有效!
wordpress里面某分类栏目下面,有许多文章要删除,后台每次批量删除20太慢,1w多篇文章,不知道要删除多久,所以想到了使用sql命令来解决,快速有效!
2022-10-28 19:43:57 493
原创 WordPress删除重复标题文章的几种方法
网站最近发现好多文章有重复的,手工一个一个很麻烦,就想到了程序。下面就是WordPress删除重复标题文章的几种方法一、通过操作SQL数据库删除:去除重复文章,只保留一篇CREATE TABLE my_tmp AS SELECT MIN(ID) AS col1 FROM wp_posts GROUP BY post_title;DELETE FROM wp_posts WHERE ID NOT IN (SELECT col1 FROM my_tmp);DROP TABLE my_tmp;
2021-04-15 10:58:21 1458 2
原创 解决网页文章不能复制粘贴的方法
当浏览网页时,有时候会遇到网页内容不能复制粘贴,甚至鼠标右键被禁用,怎么办?下面介绍三种方法来解决。1 利用快捷键 ctrl + u,调出该网页源代码,然后保存为html文件,直接浏览器打开该文件复制粘贴获取网页正文内容。当然,有的浏览器可能不成功,可换个浏览器,如IE。2 使用qq截屏功能 截屏 -> 长截屏 -> 编辑 ->点击文字图标-> 复制 -> 粘贴 即可。3 使用谷歌浏览器的打印 另存为pdf文档功能,在保存之前,选择复制,也可获取网页内容,只不过要进行数
2020-09-19 00:51:05 4872 1
原创 kali局域网对目标电脑进行arp断网测试
环境:虚拟机要安装有kali物理机为win10目的:验证arp攻击时,是否可以让win10断网。使用的相关命令如下:cat /proc/sys/net/ipv4/ip_forwardarpspoof -i eth0 -t 192.168.2.141 192.168.2.1 注意:i参数后面为kali里面的网卡名称,t后面的参数为目标机的ip和网关具体图示步骤如下:总结:使用kali里面的arpspoof命令可以让局域网内的某台电脑断网,但不能让手机断网。当中断arpspoof
2020-08-28 20:14:43 550
原创 kali获取局域网内的http账号密码
环境:虚拟机安装有kali作为攻击机,靶机为自己的物理机win10。网关为192.168.2.1,测试网站为批处理之家kali要安装disniff,原因时没法使用arpspoof,而使用arpspoof则要安装disniff。目的:验证是否能通过arp攻击来获取局域网内的http网站的账号密码。参考文章:B站的 kali使用ettercap抓取账号密码使用教程步骤如下:使用的相关命令如下:nmap -sP 192.168.2.1-255 扫
2020-08-28 19:38:08 2828 2
原创 cmd获取本电脑曾经成功连接过的wifi密码
B站有个老外,使用windows环境下的cmd命令获取到自己电脑曾成功连接过的wifi账号及密码。它山之石,可以攻玉。记录一下,cmd要使用管理员权限。关于netsh wlan使用,可参考windows 通过cmd命令(netsh wlan命令)连接wifinetsh wlan show profilenetsh wlan export profile folder=c:\ key=clear后在c盘根目录查找以wifi名字命名的xml文件,在MSM标签内会发现有wifi密码及账号。..
2020-08-27 21:51:11 337
原创 使用 sublime text3来修改hosts文件
对于windows环境下面 的hosts文件,普通用户使用sublime text3是无法修改保存的。但使用管理员权限用sublime text3,发现host文件无法打开。解决办法:先普通用户使用sublime text3打开hosts文件,后再管理员用户可直接sublime text3打开host文件,此时可修改保存hosts文件。关于sublime text3管理员打开方法:先把sub...
2020-04-16 04:50:14 2969
原创 php+mysql 仿百度分页
环境:win10 64 ,mysql,php目的:通过查询数据库test2里面的表user_list,制作一个类似百度分页的显示表。原来数据库test2里面的表user_list里面的数据如下:最终的效果图如下:思路:先把前端页面做出来,后填充数据。流程:刚开始加载文件时,表格默认显示第一页数据,每页显示2条。以后每次点击页码、上一页或下一页,则当前页码从点击的链接处获取,后显...
2020-04-11 13:07:06 263
原创 mysql 外键的使用,以及主从表的区别
目的:演示mysql的外键的创建、删除、外键的级联操作使用mysql创建2张表:按顺序依次创建班级class表和学生表students创建外键时,可以为外键起个名字(constraint后面紧挨的字符串为),该名字在删除外键时会被使用。注意:如果先创建学生表students并同时创建外键指向班级表class,会报错,因为class表不存在。要想删除表class里面1班的数据,同...
2020-04-03 18:19:43 1507
原创 csdn博客markdown设置对应编程语言格式方法
解决markdown代码块里面的编程语言格式设置,直接在 ```后 面加上相应的语言来解决。比如:先书写html格式代码,其它语言类比,突破固定的几种语言格式。效果如下: <h1>大标题</h1>...
2020-03-28 11:40:13 2152
原创 windows 10 安装 apache php mysql
一 wamp环境请求及响应运行原理如下wamp环境,就是windows + apache +mysql + php环境 。另外,lamp是指linux + apache + php ,lnmp是指linux + nginx + mysql + phpwamp环境下的请求及响应运行原理:浏览器请求 --> web服务器软件(如apache) --> php --> ...
2020-03-12 14:02:54 776
原创 css制作一个带数字的3d立方体
注意:3D转换中,旋转前后的X Y Z轴方向就会改变。但只要人对着某个平面位置随着一起旋转时,其X Y Z位置相对人时都不会改变。思路:把6个大小形同的盒子放在一起,然后进行旋转或平移,得到立方体。难点:旋转时的参考标准怎么解决。解决方法:对某个立方体的平面进行旋转时,人和该平面一起旋转,相对于人来说,其对面的X Y Z轴位置一直没变。<!DOCTYPE html><h...
2020-02-21 14:09:06 353
原创 64位Ubuntu 16.04 安装pyspider
Ubuntu 16.04 安装pyspider近期见到有人使用pyspider爬取一个小说网站,因此想使用pyspider来爬取一下。安装依赖的类库:sudo apt-get install python python-dev python-distribute python-pip libcurl4-openssl-dev libxml2-dev libxslt1-dev python...
2020-02-11 20:33:35 219
原创 js 使用星号输出倒金字塔图案
js 使用星号输出倒金字塔图案思路:先输出倒立的直角三角形的星号图形,然后添加对应的空格。注意事项:js里面的每行的多个星号要使用循环输出,没法使用其他语言里面的乘法思想解决js输出在浏览器的空格,要使用html里面的 来解决空格个数要单独使用一个变量来解决。<!DOCTYPE html><html><head> <t...
2020-02-11 00:34:09 6065
原创 虚拟机安装kali,解决wpscan更新问题及wpscan的简单应用
虚拟机安装kali,同时解决wpscan更新问题。环境:64位win10系统上的虚拟机安装64位kali linux系统一 、 下载最新桌面版kali linux镜像文件。从kali官网下载桌面版的镜像文件kali-linux-2019.4-gnome-amd64.iso,注意带gnome的镜像安装成功后进入系统,会有桌面,别的版本没有二 、在虚拟机里面开始安装kali...
2020-02-09 01:06:12 4985 2
原创 python打包若干个文件成so文件
目的:使用python把单个py文件或指定目录里面所有的py文件打包成so文件,以起到加密作用。环境:ubuntu 16.04 64位系统,python2,安装cython,gcc安装:安装cython :sudo pip install cython安装gcc: sudo apt-get install gcc一、把单个py文件test.py打包成so文件。test.py代码...
2020-02-07 23:53:51 5619
转载 SSH简介及两种远程登录的方法
本文转载自Jack LDZ的博客[SSH简介及两种远程登录的方法](https://blog.csdn.net/li528405176/article/details/82810342)SSH的安全机制SSH的安装启动服务器的SSH服务SSH两种级别的远程登录SSH的高级应用Secure Shell(SSH) 是由 IETF(The Internet Engineering Task...
2019-07-29 14:13:02 1612
原创 zoomeye用户使用手册及sodan实测查询监控主机例子
zoomeye用户使用手册使用[zoomeye](https://www.zoomeye.org)和[shodan](https://www.shodan.io/)是因为工作需要,以前仅仅是知道有这种针...
2019-07-18 15:21:36 2534
原创 ubuntu 16.04忘记root密码的解决办法
开机长按esc键进入下图画面,并点击下图里面的箭头所指项进入高级选项后,选择点击recover mode进入在以root身份进入的终端环境里面,重新设置root密码...
2019-07-04 05:48:12 2251
转载 tornado的静态文件static命名问题
转载自 https://blog.csdn.net/AbeBetter/article/details/77073359在tornado中配置静态文件,命名一个目录为statics,尽管配置了‘static_path’ : os.path.join(os.path.dirname(file), ‘statics’),但是依旧找不到statics下的静态文件。此时各个设置为:settings...
2018-11-20 13:02:04 977
转载 postman使用详解
转载自小喜的博客,https://www.cnblogs.com/xiaoxi-3-/p/7839278.html Postman使用详解 前言:Postman是一款功能强大的网页调试与发送网页HTTP请求的Chrome插件。接口请求流程一、get请求GET请求:点击Params,输入参数及value,可输入多个,即时显示在URL链接上,所以...
2018-10-26 17:54:32 668 1
转载 ubuntu chrome 设置 no proxy
ubuntu chrome设置noproxy原博客地址https://blog.csdn.net/cicome/article/details/79374082 当你的Google浏览器出现:When running Google Chrome under a supporte...
2018-10-01 21:01:36 2374
转载 scrapy_redis 解决空跑问题,自动关闭爬虫
使用过scrapy_redis框架的人一定知道,scrapy redis 在没有requests的时候,会阻塞等待接收start_url...
2018-09-13 17:26:34 1365 1
转载 scrapy-redis所有request爬取完毕,如何解决爬虫空跑问题?
scrapy-redis所有request爬取完毕,如何解决爬虫空跑问题?1. 背景根据scrapy-redis分布式爬虫的原理,多台爬虫主机共享一个爬取队列。当爬取队列中存在request时,爬虫就会取出reque...
2018-09-12 18:53:13 683
原创 使用scrapy及组件scrapy-redis进行分布式爬取腾讯社招
scrapy本身是不支持分布式爬取的,但和组件scrapy-redis一起使用,则支持分布式爬取。分布式爬取原理:所有爬虫端共享redis里面的request请求,然后从这里面获取请求,再去爬取,直至队列为空。共使用了3个系统,win10和ubuntu作为爬虫客户端,另外一个ubuntu存放redis数据库用来保存爬取的数据 请求及去重指纹。遇到的问题:爬取时有一个爬虫端不能爬取数据,...
2018-09-10 18:48:53 725
原创 关于使用scrapy_redis组件没有存取scrapy的请求到redis数据库的问题的解决
发现在使用scrapy_redis组件时,运行爬虫时,在redis数据库里面只有items数据列表和去重指纹集合,但没有scrapy的请求request数据列表,经过不断测试,发现只有在停止爬虫爬取时,才可以在redis数据库里面看到scrapy的request数据列表。爬取前的redis数据库,里面内容为空。 数据爬取中时,观察发现只有Items和dupefilter数据,但没有s...
2018-08-17 06:53:20 3235 10
转载 scrapy-redis使用以及剖析
这是转载博客园上的一篇文章,通过下面的这行代码解决了把scrapy的request 存入到redis数据库里面,没开启前只有item列表和去重集合存储到redis数据库。# Enables scheduling storing requests queue in redisSCHEDULER = "scrapy_redis.scheduler.Scheduler"scrapy-redis...
2018-08-16 22:49:53 525
原创 python关于windows创建含有中文字符串的文件夹及文件时乱码的问题处理
文件夹和文件的名字里面含有中文字符串时出现乱码的处理:把该字符串编码转换为unicode或gbk编码的字符串来解决。代码第二行如有声明编码格式如utf-8,则代码里面出现中文字符串的地方就按照utf-8格式的字符串去处理;如没有编码声明,则windows系统默认为gbk编码,而linux默认为utf-8编码。#!/usr/bin/env python# coding:utf-8impo...
2018-08-12 21:52:29 3626
原创 使用selenium + Chrome爬取某网站乌云公开漏洞文章并保存为pdf文件
目的:使用selenium + Chrome爬取某网站指定类型的乌云公开漏洞文章,即在win10终端输入漏洞类型(如未授权),则爬取所有该类型的漏洞文章,并把每个分页的数字作为文件夹名,来保存该分页下面的所有的漏洞文章。总结:本例只是能简单的爬取某一类型漏洞的所有文章,但不能爬取多个类型漏洞的所有文章,有时可能会有一些小bug导致没爬取完就崩溃,需要手工修改进而重新爬。其它问题解决看注释。...
2018-08-12 15:44:24 731
转载 CSDN怎么转载别人的博客
在参考“如何快速转载CSDN中的博客”后,由于自己不懂html以及markdown相关知识,所以花了一些时间来弄明白怎么转载博客,以下为转载CSDN博客步骤和一些知识小笔记。 参考博客原址:http://blog....
2018-08-10 00:05:04 180
转载 Python必会的单元测试框架 —— unittest
这是huilan_same博客写的关于python的单元测试框架unittest,写的真心不错,转载过来以备学习使用。关于如何快速转载别人博客,参考CSDN怎么转载别人的博客 对于转载过程中出现有些内容不在代码块范围内,可在使用markdown编辑时,选中不在代码块的内容,按一次tab键解决 用Pyth...
2018-08-09 23:59:33 209
原创 解决windows 10环境使用redis-cli.exe不能连接到ubuntu 16.4环境redis-server.exe的问题
本次出现连接不上的原因为ubuntu防火墙开启导致的,关闭防火墙解决搭建scrapy-redis环境时,发现在windows 10里面使用redis-cli.exe -h ip -p 6379去连接ubuntu 16.04系统里面的redis-server时,出现连接不上情况,如果使用windows 10的cmd环境去连接,则出现卡死的界面,如下图: 使用redis-desktop-...
2018-08-06 22:29:43 2097
原创 解决windows和ubuntu之间的文件拖放问题
在ubuntu 16.04 终端里面,执行命令如下# 首先移除系统原来的虚拟工具条open-vm-toolssudo apt-get autoremove open-vm-tools# 安装桌面版的虚拟工具条,以支持windows和ubuntu之间的拖放sudo apt-get install open-vm-tools-desktop重启ubuntu,让更改生效。...
2018-08-06 21:44:56 12324 6
原创 爬取某网站的所有乌云漏洞文章,保存为pdf文件
鼎鼎大名的乌云,存在了6年左右,就停摆了,真是可惜。。。这是从某个网站看到的乌云文章,爬取保存下来以作学习使用创建一个文件夹wooyun,把下面的代码保存到一个文件如test.py,放在该文件里面# -*- coding: utf-8 -*-import urllib2import pdfkitfrom lxml import etreeimport timeimport r...
2018-07-31 23:25:24 1281
原创 使用mongodb保存爬取豆瓣电影的数据
创建爬虫项目doubanscrapy startproject douban设置items.py文件,存储要保存的数据类型和字段名称# -*- coding: utf-8 -*-import scrapyclass DoubanItem(scrapy.Item): title = scrapy.Field() # 内容 content = scr...
2018-07-27 12:15:19 815 1
原创 使用scrapy爬取新浪新闻
使用scrapy爬取新浪新闻 思路:通过观察,获取某节点作为当前节点,然后依次遍历大类链接 小类链接 子链接 要点:注意item和meta参数的使用。详情见代码newsina.py里面相关的注释 总结:个人因为item的位置,导致浪费了好多时间。 流程如下:创建爬虫项目sina2scrapy startproject sina2设置items.py文件,存储要爬取的数据类型及...
2018-07-27 00:22:04 4694 5
原创 使用scrapy爬取阳光热线问政平台
目的:爬取问题反映每个帖子里面的标题、内容、编号和帖子urlCrawlSpider版流程如下:创建爬虫项目dongguangscrapy startproject dongguang设置items.py文件# -*- coding: utf-8 -*-import scrapyclass NewdongguanItem(scrapy.Item): # 每...
2018-07-20 14:26:43 1414
原创 使用scrapy爬取手机版斗鱼主播的房间图片及昵称
目的:通过fiddler在电脑上对手机版斗鱼主播进行抓包,爬取所有主播的昵称和图片链接关于使用fiddler抓取手机包的设置:把手机和装有fiddler的电脑处在同一个网段(同一个wifi),手机连接好wifi后,点击手机wifi的连接,把代理改为手动,主机地址设置为fiddler所在的电脑ip,端口号为8888(fiddler默认使用的端口号),就可以对手机进行抓包1 创建爬虫项...
2018-07-16 18:11:21 692
google-chrome-stable_current_amd64.deb
2018-04-16
python 爬虫怎么构造 提交的类型为 multipart/form-data 的数据
2018-06-27
使用xpath匹配的结果却为空?
2018-06-24
uwsgi安装后不能启动,日志报错如下,求原因
2018-05-18
TA创建的收藏夹 TA关注的收藏夹
TA关注的人