![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
python
WjXIIIIIIIIII
这个作者很懒,什么都没留下…
展开
-
使用python进行whois查询
使用python进行whois查询使用pip命令安装whois pip install python-whoisPython 2.7.6 (default, Oct 26 2016, 20:30:19) [GCC 4.8.4] on linux2Type "help", "copyright", "credits" or "license" for more information.>原创 2017-11-23 18:10:36 · 11909 阅读 · 2 评论 -
使用python进行whois查询并存入数据库
通过whois查询将得到域名的whois信息并存储在数据库中具体方法不过多阐述将出现请求出错的域名或者匹配出问题的域名写入数据库'''--------------------------ver : 2.0date : 2017/11/22auth : wud--------------------------'''import DNS原创 2017-11-23 18:16:13 · 2340 阅读 · 0 评论 -
使用python将得到whois信息,存入数据库(分片法)
使用python将whois信息分片,存入数据库whois服务器返回的whois字典信息会很长,有的域名的whois信息有2000+个字节,将返回的whois信息进行分片处理,程序选择将其分为9片,存入数据库中也可以进行关键字匹配进行存储,但是得到的信息会不够全面, 两种方法各有优劣。以下是分片处理的python源代码'''--------------------------ver原创 2017-11-23 18:24:30 · 1536 阅读 · 0 评论 -
python爬虫
爬取某高校教师信息请正当合理使用,否则请关闭此博客代码如下# -*- coding:utf-8 -*-'''crawhitteacherspersonalinformation auther : wud date : 2017/12/4 version : 1.0'''# encoding:utf-8原创 2017-12-06 20:52:45 · 473 阅读 · 0 评论 -
通过爬取IANA获得TLD对应的whois服务器
代码如下# -*- coding:utf-8 -*-'''更新TLD对应的whois服务器并获取IP,更新表==================================auther:wuddate:2018/1/17ver:1.0'''import ConfigParserimport urllib2import urllibimport MySQLdbi原创 2018-01-18 15:50:07 · 650 阅读 · 0 评论 -
基于SMTP的邮件发送程序(UI界面)
A Simple Email Sysytem (base Python 2.7)注: 只适用于阿里云企业邮箱Features邮件阅读邮件接收与发送邮件的删除黑/白名单过滤附件添加邮件信息加密(AES)Details登陆正常登入自己的用户名和密码就可登陆界面:image登陆成功:image主控制台image查阅控制台image删除邮件image写邮件控制台...原创 2019-02-14 22:47:40 · 2529 阅读 · 3 评论 -
Newcoder练习题
Newcoder 练习题Programming language: Python 2.7.x剑指offer66题 (更新中…)孩子们的游戏思路:每次拿到小礼品的孩子的位置为 (上一个小孩子的位置+m-1)%(小孩总数),依次循环,直到列表中只有一个元素,输出即可求1+2…+n思路:采用递归的形式进行求解第一个只出现一次的字符思路:遍历字符串,若在该字符的前后都没有出现该字符,将该...原创 2019-02-18 18:12:11 · 464 阅读 · 0 评论 -
RSA加密算法 - python 2.7.x
RSA_encryption_algorithm_PythonRSA加密算法,目前支持比较大的素数Give me a Star or Follow me if You like this Repo使用RSA(m).encryption()# m为明文Tips: 可能会存在一些 bug 导致程序报错,产生不了正确结果,多运行几次即可结果P is : 303201544048013519...原创 2019-05-16 22:10:28 · 545 阅读 · 0 评论 -
python,DNS,MySQL,爬虫
如题任务内容 1.用Domain得到A(ip)记录(DNS请求) 2.用得到的ip地址来获得地理位置信息 2.1用爬虫来获得地理位置信息 2.2用查询数据表来获得地理位置信息 最后将Domain,A记录,NS记录,地理位置信息存入MySQL直接上代码import DNSimport sysimport requestsimport reimport timeimport MySQ原创 2017-10-15 20:16:27 · 453 阅读 · 0 评论 -
python处理字符串(2)
如题上次得到的ip格式是: 74.121.139.0 74.121.139.255 美国|0|0|0|0 那么这次为了构建树查询我们将用python将ip转换为这种格式:1 0 4&1 0 7*澳大利亚|0|0|0|0就是将”.”和每段ip最后的字段去掉(ip最后的字段只是标示其为主机还是服务器,对其地理位置不产生影响) 代码在这儿def main(): f = open("/home/w原创 2017-10-14 20:57:36 · 305 阅读 · 0 评论 -
图片的简单爬取
Python对于图片的简单爬取——requests & os原创 2017-05-23 12:28:24 · 461 阅读 · 0 评论 -
《python网络爬虫——大学排名》
python网络爬虫——大学排名原创 2017-05-26 21:24:53 · 1817 阅读 · 0 评论 -
python对MySQL数据库的操作表单的创建,数据的插入,读取,更新,删除操作
不得不说python是一门很强大的语言下载安装MySQL库,linux装好后即可使用,windows系统装好注意配置环境变量。 先在我的数据库中创建好DNS_MySQL数据库,再用python对其操作。 代码截图如下: 输出结果如下图所示:代码如下:import MySQLdbdef connectdb(): print('Connecting MySQL...') d原创 2017-09-15 11:12:25 · 2944 阅读 · 2 评论 -
使用Python进行DNS查询
最近,实验室布置一个简单的任务,对学校官网www.hitwh.edu.cn进行DNS查询 要求使用python,既然布置了,那就做做呗。 1.pyDNS库 在linux上用python3装pyDNS总是会出现问题,所以放弃了python3,最后总算是用python2装好了pyDNS库>>>improt DNS>>>import成功了,这是第一步 下面开始写代码!/usr/bin/env p原创 2017-09-15 11:16:24 · 1926 阅读 · 0 评论 -
Python+DNS+MySQL
Python+DNS+MySQL具体任务和上一次一样,不过这次更细致具体 1.先在数据库中创建好Domain_info表格 打开数据库使用WJX数据库创建表CREATE TABLE Domain_info(ID int(12) AUTO_INCREMENT,Domain char(20),A_record char(20),NS_record char(30),Domain_local原创 2017-09-26 21:59:02 · 4350 阅读 · 0 评论 -
Python+MySQL+爬虫+DNS实现简单的综合性任务
程序主要功能读取文件内的域名(1k-1w)并将其IP地址和域名对应的地理位置存入数据库程序实现**Python2(MySQLdb库,pyDNS库, requests库), MySQL实现过程1.从文件头开始按行读取域名(url) 2.将域名进行DNS查询,返回A记录(IP) 3.将返回的IP地址作为变量以 adre_url= “http://www.ip138.com/ips138.asp?原创 2017-09-19 20:30:48 · 4505 阅读 · 0 评论 -
Pyhton字符串处理
python处理字符串最近在写一个IP比对程序,或者说是IP查询程序 上一篇文章不是已经在数据库中存入了大量的IP地址了吗,但是咱们这个存储速度或者说查询速度还是太慢了,4000+个域名就几乎用了2个小时。那咱就慢慢改进 多线程以后再说,最近在gitlab上获得了一份2017年2月份的IP分布表,形式类似于(首IP+末IP+地理位置)的格式,那就用这个现成的IP分布表来解决慢速的问题。 如果不原创 2017-10-01 19:37:29 · 351 阅读 · 0 评论 -
《python爬虫伊始(百度首页)》
python爬虫入门——简单使用requests库原创 2017-05-23 11:43:39 · 447 阅读 · 0 评论