自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 资源 (4)
  • 收藏
  • 关注

转载 闭包的概念 形式以及在javascript,python,Ruby等语言中的应用

什么是闭包? 闭包并不是什么新奇的概念,它早在高级语言开始发展的年代就产生了。闭包(Closure)是词法闭包(Lexical Closure)的简称。对闭包的具体定义有很多种说法,这些说法大体可以分为两类:一种说法认为闭包是符合一定条件的函数,比如参考资源中这样定义闭包:闭包是在其词法上下文中引用了自由变量的函数。另一种说法认为闭包是由函数和与其相关的引用环境组合而成的实体。比如参考资源中就

2016-10-27 19:04:42 330

转载 关于express命令无法使用的问题

原因你安装的express是4.0以上的版本,express在4.0之后,需要安装the executable(执行器express-generator)才能执行express命令

2016-10-23 09:21:21 1808

转载 WebStorm常用快捷键

查找/代替 快捷键说明ctrl+shift+N 通过文件名快速查找工程内的文件(必记) ctrl+shift+alt+N 通过一个字符快速查找位置(必记) ctrl+F 在文件内快速查找代码 F3 查找下一个 shift+F3 查找上一个 ctrl+R 文件内代码替换 ctrl+shift+R 指定目录内代码批量替换 ctrl+shift+F 指定

2016-10-20 22:06:35 253

原创 selenium实战之教务系统自动化

本博文实现了教务系统自动化,可以自动爬取成绩先传入登录界面的URL,http://bkjw.guet.edu.cn/student/public/login.asp?driver.get("http://bkjw.guet.edu.cn/student/public/login.asp")打开开发者工具找到用户名和口令还有提交按钮元素,

2016-10-18 21:40:34 938

原创 Python爬虫工具之Selenium

selenium 是一个用于web自动化测试的工具集,selenium不尽支持所有主流的浏览器,而且还支持很多开发语言,更好的是他这种测试工具其实可以融入到不同的测试框架中,根据你的要求,适应不同的测试流程。其实selenium最核心的就是一个驱动浏览器进行自动化测试的东东。安装Seleniumpip install Selenium,建议用pip安装的时候

2016-10-18 21:10:19 343

原创 Python爬虫工具之Requests

Requests库的使用方法首先导入 requests模块import requests现在我们先请求得到一个网页 r = requests.get('https://api.github.com/events')我们得到了一个名字为r的响应对象,我们可以从r中得到我们想要的信息。比如cookies,content,headers,等等。

2016-10-12 20:45:59 379

转载 Python爬虫入门六

正则表达式1.1. 简单介绍 正则表达式并不是Python的一部分。正则表达式是用于处理字符串的强大工具,拥有自己独特的语法以及一个独立的处理引擎,效率上可能不如str自带的方法,但功能十分强大。得益于这一点,在提供了正则表达式的语言里,正则表达式的语法都是一样的,区别只在于不同的编程语言实现支持的语法数量不同;

2016-10-11 21:32:53 170

转载 phantonjs介绍

一、phantomjs介绍 (1)一个基于webkit内核的无头浏览器,即没有UI界面,即它就是一个浏览器,只是其内的点击、翻页等人为相关操作需要程序设计实现。

2016-10-10 18:24:52 1162

原创 Python爬虫入门五

**会话管理**1.Cookie技术Cookie用于服务器实现会话,用户登录及相关功能时进行状态管理,Cookie的会话数据保存在浏览器端。Cookie技术原理服务器创建Cookie对象,保存会话数据,把Cookie数据发送给浏览器浏览器获取cookie数据,保存在浏览器缓存区,然后在下次访问服务器时携带

2016-10-10 18:09:38 291

原创 Python爬虫入门四

详解HTTPError我们在写爬虫去请求服务器的时候可能会遇到各种各样的错误,在HTTP协议中常用的客户端错误码如下400 坏请求(Bad Request)401未授权(Unauthorized)402必须的支付(Payment Required)403禁用(Forbidden)404没有找到(Not Found)406 不可接受的 (Not Acceptable)407 需要代理验证

2016-10-09 19:24:35 400

原创 Python爬虫入门三

1.设置请求头我们继续以教务系统为例,下面来模拟一下,用Python登录教务系统,在入门二中分析了From Data 中的数据,样子是这样的 那我们就在请求的时候将数据值传过去代码如下import urllib2

2016-10-08 20:46:39 789 4

原创 Django 创建超级管理员是出现错误

Superuser creation skipped due to not running in a TTY. You can run manage.py createsuperuser in your project to create one manually.出现这个错误的解决方法就是在cmd中使用命令行 python manage.py createsuperuser 这样就可以成功了

2016-10-07 11:35:11 8320 1

原创 Python爬虫入门二

最简单的爬虫 首先介绍一下html,HTML是hyperText Markup Language 的缩写,又叫超文本标记语言,一个网页大部分是由HTML代码组成,HTML是一门制作网页的语言,我们如果要从网页上获取我们需要的信息,就要先看它的HTML,那么如何用Python看一个网页的HTML呢,很简单import urllib2response = urllib2.urlopen("

2016-10-06 20:47:13 671

原创 Python爬虫入门一

Python爬虫系列博客将会介绍爬虫的基础知识,简单的爬虫框架,并且穿插讲解一些web前端的知识,最后会用PyQt做UI用爬虫做一个简单的学校的教务系统什么是爬虫 网络爬虫始于一张被称作种子的统一资源地址(URLs)列表。当网络爬虫访问这些统一资源定位器时,它们会甄别出页面上所有的超链接,并将它们写入一张"待访列表",即所谓"爬行疆域"(crawl> frontier)。此疆域上的统一资源地址将

2016-10-06 14:08:25 554

原创 QTcreater快捷键

F2 跳转到函数定义Shift+F2 声明和定义之间切换F4 头文件和源文件之间切换Ctrl+1 欢迎模式Ctrl+2 编辑模式Ctrl+3 调试模式Ctrl+4 项目设置模式Ctrl+5 帮助模式Ctrl+6 输出模式Alt+0 显示或者隐藏侧边条,编辑模式下起作用Ctrl+Space 自动补全 -- (和输入发相互冲突)ESc 切换到编辑模式Al

2016-10-01 12:23:40 309

gradle-5.1.1-all.zip

1.检查jdk是否已经安装 需要 1.8 2.环境变量中增加名为GRADLE_HOME的变量名,值为Gralde的解压路径,例如D:\Gradle 3.在path的后追加%GRADLE_HOME%\bin; 4.验证 gradle -v 5.修改默认缓存目录 修改Gradle默认缓存目录可使用命令gradle -g 目录路径,例如gradle -g D:\Gradle\.gradle

2020-09-27

基于机器视觉的太阳能电池片表面缺陷检测的研究

基于机器视觉的太阳能电池片表面缺陷检测的研究!

2018-09-06

netty自定义数据包协议

netty自定义数据包协议示例 ,自定义解码器译码器 解决拆包粘包问题

2017-11-02

http协议的PDF文档

HTTP协议

2016-10-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除