- 博客(16)
- 资源 (1)
- 收藏
- 关注
原创 Linux下通过虚拟网卡实现局域网 转发tcp/udp流量
linux下有tun/tap,可以虚拟出来一张网卡.以下为个人理解:比如你的网卡ip为192.169.8.138,当你的程序在监听192.169.8.138:55555端口时,流量就会从这个网卡经过.经过是什么意思呢,tcp会有三次握手,那么握手的包便是走在这个网卡上,当你使用tcpdump -i tun111 -vvv -e -X 这个命令去抓tun111网卡的时候,就可以看到三次显...
2019-06-11 23:13:01 11315 2
原创 Phantomjs模拟滑动验证码
好像挺久之前就看到滑动验证码,然后最近又看见一些文章,好像不是很难,就试了一下主要是使用PhantomJS模拟浏览器,然后识别滑动距离,再进行滑动。也有人直接模拟数据包,不过看不太懂js就只能用模拟浏览器的方法了。网上很多例子了就不多说先截图获得带拼图的与原图进行反相直接计算纵坐标上像素点灰度超过指定值的点的数量就得出坐标,接着模拟滑动就完成了。只是移动的坐
2017-06-28 17:28:33 6519 2
原创 一个3D引擎Demo 源码
http://blog.csdn.net/cppyin/article/category/780767代码手写了一遍,在他的基础上加了光照,其实也就是计算下反射...代码:http://download.csdn.net/detail/u014375100/9847485
2017-05-20 12:16:04 1798 2
原创 简单后缀表达式转nfa 正则匹配 Python
简单学习了状态机的知识先记录下来global stackclass State: #counter = 0 def __init__(self,c,out = None,out1 = None): self.c = c self.out = out self.out1 = out1 self.lastlis
2016-04-19 18:22:47 2247
原创 [LeetCode] 199. Binary Tree Right Side View
这题的意思就是人站在一棵二叉树右边 1 <--- / \2 3 <--- \ \ 5 4 先是自己瞎想提交了好几次都不对,然后网上看了看,很多人都是用的一层一层地遍历然后存入最右边的node.val我的方法是类似遍历前序二叉树,每一层的深度通过deep记录下来然后更新cache
2016-04-01 11:29:20 408
原创 基于树莓派的四轴[仅基本功能]
github:https://github.com/Nonikka/Quadcopter博客的文章地址:http://futuregazer.me/artical/5上位机是Python 下位机是C,CPP
2015-09-26 11:09:48 5033 1
原创 Python爬虫初学(4)登陆武汉理工大学教务处并转到成绩管理
cookie的问题捣鼓了好久,本来以为要用正则提取JSESSIONID跟Referer,后来发现模拟点击成绩管理的按钮(就是链接啦)cookie会自己更新的。但是问题又来了,测试的时候有时是可以进去到成绩目录,有时候似乎只什么都不显示,可能是网速的问题,但是觉得cookie也有问题。先贴代码import urllib.parse,urllib.reque
2014-03-30 11:14:17 8206 6
原创 Python爬虫初学(3)登陆武汉理工大学教务处
cookie还是不太懂,登陆了教务处主页后,查成绩用的另一个header,所以总是登陆超时import urllib.parse,urllib.request,http.cookiejar,os#cookie处理,照抄cookie = http.cookiejar.CookieJar() cookieProc = urllib.request.HTTPCookieProces
2014-03-29 11:26:05 3538 6
原创 Python爬虫初学(2)豆瓣电影top250评论数
#作者:Nonikka#版本:0.3#2014年3月28日import os,urllib.request,retry: douban250 = urllib.request.urlopen('http://movie.douban.com/top250').read()except: print("link Error")douban250 = douban250.decode
2014-03-28 11:36:55 1846
原创 Python爬虫初学(1)豆瓣电影top250评论数
#豆瓣评论数v0.1import osimport reimport urllib.requestdouban250 = urllib.request.urlopen('http://movie.douban.com/top250').read()douban250 = douban250.decode('utf-8')re250 = re.compile(r'\s+\s+',re
2014-03-27 14:02:23 2211
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人