自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

沐雨金鳞

Welcome!

  • 博客(24)
  • 资源 (20)
  • 收藏
  • 关注

原创 划分子网的意义

存在问题? 有些网络给了A、B、或者C类的IP地址,但是它的主机数量不多,IP地址存在很大的浪费、首先大家要知道: 总体来说,划分子网不但没有增加可用IP地址,而且减少了可用IP地址,因为每个子网中的全0网络地址和全1广播地址均不能作为主机ip来使用。为什么划分子网:1、如果不划分子网,那么每个路由器中路由表中中信息量极大!导致速度慢,性能差。 划分子网后,减少了广播所带来的负面影响,提高了整

2017-12-31 19:16:48 11469

原创 计算机各层网络协议

协议数据单元PDU(Protocol Data Unit)是指对等层次之间传递的数据单位物理层的 PDU是数据位(bit)数据链路层的 PDU是数据帧(frame)网络层的PDU是数据报(packet)传输层的 PDU是数据段(segment)其他更高层次的PDU是报文(message)应用层: (典型设备:应用程序,如FTP,SMTP ,HTTP) DHCP(Dynamic Host Config

2017-12-31 18:48:19 2492

原创 3NF分解(无损+4NF)

3NF 1、首先化为最小函数依赖 2、a、找依赖集中没有的属性 归为一个属性组 b、找左边部分相同的,归为一个依赖集 c、将这些依赖集全部转换为属性集 d、去掉被包含依赖集 e、若有a,则并上 成为3NF3NF+无损连接 3NF分解 + 并上候选码,判断去掉被包含 成为3NF+无损连接4NT 先找候选码,按照候选码,将不是的一个一个拉出来 成为4NF

2017-12-31 15:23:26 3074

原创 冲突域和广播域

所在层:设备名称:隔离冲突域:隔离广播域 物理层:集线器:N N 物理层:中继器:N N 链路层:交换机:Y N 链路层:网桥:Y N 网络层:路由器:Y Y 具体见图解冲突域(极力推荐)集线器是多接口中继器 中继器用来放大模拟信号 放大器用来放大数字信号 交换机是多接口网桥

2017-12-31 15:17:58 591

原创 计算机网络链路层知识点

1、数据链路层:封装成帧、透明传输、差错检测 2、不存在无确认有连接的服务 3、比特流、帧、报文 4、发送窗口后沿变化只有两种:原地不动、向前移动 ps:因为收到确认才能向前移动,所以不可能向后移动 5、按序接受:接受窗口只能为一、停止等待协议和后退N帧协议 停止等待协议:1:1、后退N帧协议:N:1 6、HDLC采用位填充方式实现透明传输 :5个1后面加0 7、帧序号的多少是根据帧

2017-12-31 15:01:07 390

原创 地址栏输入网址enter查询后发生了什么

(1). 浏览器分析超链接指向的页面的 URL(假设 URL 为 www.126.com/index.htm)。(2). 浏览器向 DNS 请求解析域名 www.126.com 的 IP 地址。(3). 域名系统 DNS 解析出网易服务器的 IP 地址。(4). 浏览器利用域名系统 DNS 解析到的 IP 地址,与 www.126.com 的服务器建立 TCP连接。(5). 浏览器发出读取 inde

2017-12-30 13:24:32 947

原创 计算机网络应用层笔记

1、FTP:文件传输协议 HTTP:超文本传输协议 SMTP:简单邮件传输协议 POP:邮件接收协议 TELNET:远程登录服务协议2、C/S模型:服务器总处于打开状态,等待客户机发过来的请求,客户机是服务请求方,服务器是服务提供方。 P2P模型:不严格区分客户机和服务器,对等方。3、DNS:域名解析服务,采用C/S模型,运行在UDP之上,采用53端口号。 理解:客户端向DNS服务器查

2017-12-30 13:21:06 747

原创 python爬虫(gzip新浪微博为例)

# coding=utf-8import urllib.requestimport gzipurl = 'http://news.sina.com.cn/'def getUrlContent(url): # 返回页面内容 doc = urllib.request.urlopen(url).read() # 解码 try: html = gzip.

2017-12-30 11:30:18 1536

原创 Linux运维笔记

配置 jdk 、Tomcat (关闭防火墙:systemctrl stop firewalld setenforce 0) 1.传文件 apache-tomcat-8.0.46.tar.gz 和 jdk1.8.0_60.tar.gz scp 文件地址(可以直接拖过来) root@ip地址:目的目录的路径 $ scp /d/download_k/a

2017-12-29 18:51:04 709

原创 Linux运维理解笔记

多个pc端(请求端) 多个nginx端(代理服务器) 多个db端(数据库服务器)pc端请求nginx服务器的ip(虚拟ip“采用优先级防止nginx服务器崩溃”)nginx服务器中配置了每个数据库服务器(IPhash等实现负载均衡)例如我们翻墙访问谷歌,谷歌域名绑定的是我们采用的代理服务器ipJDK8----ok Tomcat需要JDK8的支持Tomcat8---ok 用作数据库服务器

2017-12-29 18:48:02 266

原创 python-爬虫(今日新闻头条练手)

# coding=utf-8from tkinter import *import urllib.requestroot = Tk()root.title = "今日头条"root.geometry("450x560")can = Canvas(root,width=400,height=560,bg="orange")can.pack()url = "http://www.mnw.cn/n

2017-12-28 21:34:33 1096

原创 python_网络编程_socket(服务器+客户端)

服务端代码# coding=utf-8#创建套接字 绑定到端口 监听 处理 返回import socketsk = socket.socket(socket.AF_INET,socket.SOCK_STREAM) #IPv4 TCPhost = "192.168.47.1"port = 5000sk.bind((host,port))sk.listen(1)while 1: clnt,

2017-12-27 23:29:04 662

原创 python爬取百思不得姐视频代码

# coding=utf-8import urllib.requestimport redef getVideo(page): url = "http://www.budejie.com/video/%s" %page #爬取网页的url req = urllib.request.Request(url) req.add_header("User-Agent","Mozi

2017-12-24 19:27:52 392

原创 python-快速使用urllib爬取网页(小结)

1、Urllib是Python提供的一个用于操作URL的库 Python2.X中(Urllib库+Urllib2库) Python3.X中(Urllib库)2、基于URL标准对字符的严密要求,我们有时要进行编码解码处理3、有时爬取出现403错误时,有可能是所爬取的网站做了反爬虫处理4、由于urlopen()不支持一些HTTP高级功能,所以,我们如果要修改报头,那么我们使用urllib.reque

2017-12-24 10:46:10 1070

原创 python-快速使用urllib爬取网页(8-URLError)

程序的执行难免遇到异常,发生异常不要紧,关键是要合理处理异常在Python爬虫中,经常要处理与URL相关的异常 使用URL异常处理-URLError类进行处理 导入urllib.error模块本节我们主要介绍两个类:URLError + HTTPErrorimport urllib.requestimport urllib.errortry: urllib.request.urlope

2017-12-24 10:40:25 370

原创 python-快速使用urllib爬取网页(7-DebugLog)

有时我们希望在程序运行的过程中,边运行边打印调试日志信息,此时需要开启DeugLog如何开启DebugLog那? 1、分别使用urllib.request.HTTPHandler()和urllib.request.HTTPSHandler()将debuglevel设置为1 2、使用urllib.request.build_opener()创建自定义的opener对象,并将1中值作为参数 3、用

2017-12-24 10:27:27 450

原创 python-快速使用urllib爬取网页(5-POST)

采用Post的方式后续会详细讲解,这里只说明过程1、构造URL2、构造表单数据,并进行编码处理3、构建Request对象4、使用add_header()添加头信息,模拟浏览器爬取5、打开对应的Request对象6、后续处理

2017-12-24 09:13:15 378

原创 python-快速使用urllib爬取网页(4-GET)

客户端–消息传递(HTTP协议)–服务器端 HTTP协议请求分为六种类型: a、GET请求:GET请求通过URL网址传递信息,可以直接在URL中写上要传递的信息,也可以由表单进行传递,如果使用表单进行传递,表单中的信息会自动转为URL地址中的数据,通过URL地址传递。 b、POST请求:可以向服务器提交数据,比较主流和安全。比如在登录时,经常使用POST请求发送数据。 c、PUT请求:请求服

2017-12-24 09:03:59 428 3

原创 黑盒测试概述

1、黑盒测试又称功能测试、数据驱动测试或基于规格说明书的测试,是一种从用户观点出发的测试。 黑盒测试示意图 ,测试的依据是产品说明书; ps:白盒测试的依据是设计说明书2、黑盒测试主要测试的错误类型有: ①不正确或遗漏的功能; ②接口、界面错误; ③性能达不到要求; ④外部数据结构或数据访问错误; ⑤系统初始化或终止条件错误等等。3、不论白盒测试还是黑盒测试,都无法做到穷举4、运用黑盒

2017-12-24 08:33:14 2460

原创 python-快速使用urllib爬取网页(3-超时异常)

爬虫怕的就是超时,而出现最多的就是超时,这种问题如何解决那?# coding=utf-8import urllib.requestfor i in range(1,100): try: file = urllib.request.urlopen("http://yum.iqianyue.com",timeout=1) data = file.read()

2017-12-24 08:26:35 3431

原创 python-快速使用urllib爬取网页(2-Headers属性)

有时候,我们无法爬取一些网页,出现403错误,因为这些网页为了防止别人恶意采集进行了一些反爬虫设置可是我们想爬取这些信息,怎么办? 设置一些Headers属性,模拟成浏览器去访问这些网站,就解决了这个问题了首先我们要获得所要爬取网页的User-Agent信息 在所要爬取的网页的地址栏里输入 about:version 我们就找到了用户代理的字符串信息 我们将其复制出来 形式如下所示:Mo

2017-12-23 22:06:46 2126

原创 python-快速使用urllib爬取网页(1)

要使用Urllib爬取网页,首先需要导入用到的对应模块 urllib是python自带的模块,不需要下载import urllib.request导入了模块后,我们采用以下方法打开并爬取一个网页file = urllib.request.urlopen("http://www.baidu.com")此时,我们已经将爬取到的网页赋给了变量file 爬取完后,我们现在可以使用file.read()读

2017-12-23 21:08:59 5395

原创 TCP拥塞控制

1、对资源需求的总和>可用资源:资源拥塞!!! 资源拥塞–>网络性能变坏–>网络的吞吐量随着输入负荷的增大而下降 ps:正常情况下,网络的吞吐量随着输入的增大而上升2、流量控制与资源拥塞的区别: 流量控制仅是发送端和接收端之间的点对点通信量的控制问题,是一种避免接收方资源过载的端到端的控制机制。 ps:抑制发送方发送数据的速率,以便使接收端来得及接受 拥塞控制是一个全局性的问题,是一种避

2017-12-23 16:33:36 566

原创 TCP流量控制

发送方–>发送数据过快–>接收方–>来不及接受—->数据丢失!!!流量控制就是用来解决这一问题,保证TCP的可靠传输的!滑动窗口机制!!!TCP为每个连接设置一个持续计数器,只要TCP连接的一方收到对方的零窗口通知,就启动持续计数器。发送方<—->持续计数器<—->接收方a发送零窗口通知–>启动持续计数器–>时间到!–>a发送零窗口探测报文(1B)–>b给出窗口值–>若窗 口值仍为零(重置计数器)

2017-12-23 15:27:00 367

faster rcnn流程图.png

自己写的,也是花费了大量精力,希望对您有帮助! faster rcnn流程图

2020-07-04

MongoDB参考手册.zip

MongoDB中文教程

2019-05-17

mybatis数据库逆向工程

mybatis数据库逆向工程mybatis数据库逆向工程mybatis数据库逆向工程mybatis数据库逆向工程

2018-07-11

mybatis中文教程

mybatis中文教程mybatis中文教程mybatis中文教程mybatis中文教程mybatis中文教程

2018-07-07

项目管理课件真题

项目管理课件真题项目管理课件真题项目管理课件真题项目管理课件真题项目管理课件真题

2018-05-29

算法PPT和常用算法手册

算法PPT和常用算法手册算法PPT和常用算法手册算法PPT和常用算法手册算法PPT和常用算法手册算法PPT和常用算法手册算法PPT和常用算法手册

2018-05-09

软件测试PPT加题目总结

软件测试PPT加题目总结

2018-05-09

C++代码快速入门

C++代码快速入门C++代码快速入门C++代码快速入门C++代码快速入门C++代码快速入门

2018-05-09

hadoop各种资料

hadoop各种资料hadoop各种资料hadoop各种资料hadoop各种资料hadoop各种资料

2018-05-09

数据挖掘学习PPT

数据挖掘数据挖掘数据挖掘数据挖掘数据挖掘数据挖掘数据挖掘数据挖掘

2018-05-04

C#学习笔记

C#学习笔记C#学习笔记C#学习笔记C#学习笔记C#学习笔记C#学习笔记C#学习笔记C#学习笔记

2018-05-04

吴恩达机器学习课件

吴恩达机器学习课件吴恩达机器学习课件吴恩达机器学习课件吴恩达机器学习课件

2017-12-22

Linux网站搭建流程

Linux 网站搭建 关闭防火墙... [root@aliyun ~]# systemctl stop firewalld [root@aliyun ~]# systemctl disable firewalld

2017-12-22

数学建模教材(精品)

全书共三十二章,各章有一定的独立性,这样便于教师和学生按需要进行选择。 数学建模是对现实世界的特定对象,为了特定的目的,根据特有的内在规律,对其 进行必要的抽象、归纳、假设和简化,运用适当的数学工具建立的一个数学结构。数学 建模就是运用数学的思想方法、数学的语言去近似地刻画一个实际研究对象,构建一座 沟通现实世界与数学世界的桥梁,并以计算机为工具应用现代计算技术达到解决各种实 际问题的目的。建立一个数学模型的全过程称为数学建模。因此“数学建模”(或数学 实验)课程教学对于开发学生的创新意识,提升人的数学素养,培养学生创造性地应用 数学工具解决实际问题的能力,有着独特的功能。

2017-09-27

Linux操作系统实验教程_南大版

《Linux操作系统实验教程》是国防科技大学国家精品课程“操作系统”配套教材,系统地讲解了Linux操作系统原理和基于Linux的各种编程,特别是Linux操作系统内核编程。《Linux操作系统实验教程》内容分为三部分:第一部分介绍Linux操作系统原理;第二部分介绍10个基于Linux的实验;第三部分附录包含Linux环境下的操作及与编程有关的命令和函数列表。

2017-09-23

2016年考研核心考点——计算机组成原理

《2016 年考研核心考点命题思路解密 计算机组成原理》严格按照最新计算机考研 408 统考大纲的 计算机组成原理部分编写,涵盖大纲指定的所有考试内容。本书对统考大纲所涉及的知识点进行深入剖析 和总结,并精心策划和部署每一个章节,对每一个章节的考点做了独家策划。 本书每一个考点中的命题,绝大部分来源于历年名校计算机考研真题和统考真题,少部分来源名校期 末考试试题中的精华部分,是全国 408 统考大纲和高校考研真题的较好结合。为了提高考题的质量和解析 的准确度,参考资料采用以考研权威教材、习题、考研真题为主,多方借鉴众多高校从事多年教育的教师 课堂资料。梦享团队对每一个命题的思路和解题方法进行深入详细地讲解,并附上大量的图来帮助考生理 解记忆,力求考生能够通过掌握一个题目而达到举一反三,有利于考生利用更少的时间掌握更多的知识。 本书可作为考生参加计算机专业研究生入学考试的备考复习用书,也可作为计算机专业的学生学习计 算机组成原理的练习用书。

2017-09-23

2016年考研核心考点-----计算机网络

《2016 年考研核心考点命题思路解密 计算机网络》严格按照最新计算机考研 408 统考大纲的计算 机网络部分编写,涵盖大纲指定的所有考试内容。本书对统考大纲所涉及的知识点进行深入剖析和总结, 并精心策划和部署每一个章节,对每一个章节的考点做了独家策划。 本书每一个考点中的命题,绝大部分来源于历年名校计算机考研真题和统考真题,少部分来源名校期 末考试试题中的精华部分,是全国 408 统考大纲和高校考研真题的较好结合。为了提高考题的质量和解析 的准确度,参考资料采用以考研权威教材、习题、考研真题为主,多方借鉴众多高校从事多年教育的教师 课堂资料。梦享团队对每一个命题的思路和解题方法进行深入详细地讲解,并附上大量的图来帮助考生理 解记忆,力求考生能够通过掌握一个题目而达到举一反三,有利于考生利用更少的时间掌握更多的知识。 本书可作为考生参加计算机专业研究生入学考试的备考复习用书,也可作为计算机专业的学生学习计 算机网络的练习用书。

2017-09-23

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除