- 博客(24)
- 资源 (20)
- 收藏
- 关注
原创 划分子网的意义
存在问题? 有些网络给了A、B、或者C类的IP地址,但是它的主机数量不多,IP地址存在很大的浪费、首先大家要知道: 总体来说,划分子网不但没有增加可用IP地址,而且减少了可用IP地址,因为每个子网中的全0网络地址和全1广播地址均不能作为主机ip来使用。为什么划分子网:1、如果不划分子网,那么每个路由器中路由表中中信息量极大!导致速度慢,性能差。 划分子网后,减少了广播所带来的负面影响,提高了整
2017-12-31 19:16:48 11469
原创 计算机各层网络协议
协议数据单元PDU(Protocol Data Unit)是指对等层次之间传递的数据单位物理层的 PDU是数据位(bit)数据链路层的 PDU是数据帧(frame)网络层的PDU是数据报(packet)传输层的 PDU是数据段(segment)其他更高层次的PDU是报文(message)应用层: (典型设备:应用程序,如FTP,SMTP ,HTTP) DHCP(Dynamic Host Config
2017-12-31 18:48:19 2492
原创 3NF分解(无损+4NF)
3NF 1、首先化为最小函数依赖 2、a、找依赖集中没有的属性 归为一个属性组 b、找左边部分相同的,归为一个依赖集 c、将这些依赖集全部转换为属性集 d、去掉被包含依赖集 e、若有a,则并上 成为3NF3NF+无损连接 3NF分解 + 并上候选码,判断去掉被包含 成为3NF+无损连接4NT 先找候选码,按照候选码,将不是的一个一个拉出来 成为4NF
2017-12-31 15:23:26 3074
原创 冲突域和广播域
所在层:设备名称:隔离冲突域:隔离广播域 物理层:集线器:N N 物理层:中继器:N N 链路层:交换机:Y N 链路层:网桥:Y N 网络层:路由器:Y Y 具体见图解冲突域(极力推荐)集线器是多接口中继器 中继器用来放大模拟信号 放大器用来放大数字信号 交换机是多接口网桥
2017-12-31 15:17:58 591
原创 计算机网络链路层知识点
1、数据链路层:封装成帧、透明传输、差错检测 2、不存在无确认有连接的服务 3、比特流、帧、报文 4、发送窗口后沿变化只有两种:原地不动、向前移动 ps:因为收到确认才能向前移动,所以不可能向后移动 5、按序接受:接受窗口只能为一、停止等待协议和后退N帧协议 停止等待协议:1:1、后退N帧协议:N:1 6、HDLC采用位填充方式实现透明传输 :5个1后面加0 7、帧序号的多少是根据帧
2017-12-31 15:01:07 390
原创 地址栏输入网址enter查询后发生了什么
(1). 浏览器分析超链接指向的页面的 URL(假设 URL 为 www.126.com/index.htm)。(2). 浏览器向 DNS 请求解析域名 www.126.com 的 IP 地址。(3). 域名系统 DNS 解析出网易服务器的 IP 地址。(4). 浏览器利用域名系统 DNS 解析到的 IP 地址,与 www.126.com 的服务器建立 TCP连接。(5). 浏览器发出读取 inde
2017-12-30 13:24:32 947
原创 计算机网络应用层笔记
1、FTP:文件传输协议 HTTP:超文本传输协议 SMTP:简单邮件传输协议 POP:邮件接收协议 TELNET:远程登录服务协议2、C/S模型:服务器总处于打开状态,等待客户机发过来的请求,客户机是服务请求方,服务器是服务提供方。 P2P模型:不严格区分客户机和服务器,对等方。3、DNS:域名解析服务,采用C/S模型,运行在UDP之上,采用53端口号。 理解:客户端向DNS服务器查
2017-12-30 13:21:06 747
原创 python爬虫(gzip新浪微博为例)
# coding=utf-8import urllib.requestimport gzipurl = 'http://news.sina.com.cn/'def getUrlContent(url): # 返回页面内容 doc = urllib.request.urlopen(url).read() # 解码 try: html = gzip.
2017-12-30 11:30:18 1536
原创 Linux运维笔记
配置 jdk 、Tomcat (关闭防火墙:systemctrl stop firewalld setenforce 0) 1.传文件 apache-tomcat-8.0.46.tar.gz 和 jdk1.8.0_60.tar.gz scp 文件地址(可以直接拖过来) root@ip地址:目的目录的路径 $ scp /d/download_k/a
2017-12-29 18:51:04 709
原创 Linux运维理解笔记
多个pc端(请求端) 多个nginx端(代理服务器) 多个db端(数据库服务器)pc端请求nginx服务器的ip(虚拟ip“采用优先级防止nginx服务器崩溃”)nginx服务器中配置了每个数据库服务器(IPhash等实现负载均衡)例如我们翻墙访问谷歌,谷歌域名绑定的是我们采用的代理服务器ipJDK8----ok Tomcat需要JDK8的支持Tomcat8---ok 用作数据库服务器
2017-12-29 18:48:02 266
原创 python-爬虫(今日新闻头条练手)
# coding=utf-8from tkinter import *import urllib.requestroot = Tk()root.title = "今日头条"root.geometry("450x560")can = Canvas(root,width=400,height=560,bg="orange")can.pack()url = "http://www.mnw.cn/n
2017-12-28 21:34:33 1096
原创 python_网络编程_socket(服务器+客户端)
服务端代码# coding=utf-8#创建套接字 绑定到端口 监听 处理 返回import socketsk = socket.socket(socket.AF_INET,socket.SOCK_STREAM) #IPv4 TCPhost = "192.168.47.1"port = 5000sk.bind((host,port))sk.listen(1)while 1: clnt,
2017-12-27 23:29:04 662
原创 python爬取百思不得姐视频代码
# coding=utf-8import urllib.requestimport redef getVideo(page): url = "http://www.budejie.com/video/%s" %page #爬取网页的url req = urllib.request.Request(url) req.add_header("User-Agent","Mozi
2017-12-24 19:27:52 392
原创 python-快速使用urllib爬取网页(小结)
1、Urllib是Python提供的一个用于操作URL的库 Python2.X中(Urllib库+Urllib2库) Python3.X中(Urllib库)2、基于URL标准对字符的严密要求,我们有时要进行编码解码处理3、有时爬取出现403错误时,有可能是所爬取的网站做了反爬虫处理4、由于urlopen()不支持一些HTTP高级功能,所以,我们如果要修改报头,那么我们使用urllib.reque
2017-12-24 10:46:10 1070
原创 python-快速使用urllib爬取网页(8-URLError)
程序的执行难免遇到异常,发生异常不要紧,关键是要合理处理异常在Python爬虫中,经常要处理与URL相关的异常 使用URL异常处理-URLError类进行处理 导入urllib.error模块本节我们主要介绍两个类:URLError + HTTPErrorimport urllib.requestimport urllib.errortry: urllib.request.urlope
2017-12-24 10:40:25 370
原创 python-快速使用urllib爬取网页(7-DebugLog)
有时我们希望在程序运行的过程中,边运行边打印调试日志信息,此时需要开启DeugLog如何开启DebugLog那? 1、分别使用urllib.request.HTTPHandler()和urllib.request.HTTPSHandler()将debuglevel设置为1 2、使用urllib.request.build_opener()创建自定义的opener对象,并将1中值作为参数 3、用
2017-12-24 10:27:27 450
原创 python-快速使用urllib爬取网页(5-POST)
采用Post的方式后续会详细讲解,这里只说明过程1、构造URL2、构造表单数据,并进行编码处理3、构建Request对象4、使用add_header()添加头信息,模拟浏览器爬取5、打开对应的Request对象6、后续处理
2017-12-24 09:13:15 378
原创 python-快速使用urllib爬取网页(4-GET)
客户端–消息传递(HTTP协议)–服务器端 HTTP协议请求分为六种类型: a、GET请求:GET请求通过URL网址传递信息,可以直接在URL中写上要传递的信息,也可以由表单进行传递,如果使用表单进行传递,表单中的信息会自动转为URL地址中的数据,通过URL地址传递。 b、POST请求:可以向服务器提交数据,比较主流和安全。比如在登录时,经常使用POST请求发送数据。 c、PUT请求:请求服
2017-12-24 09:03:59 428 3
原创 黑盒测试概述
1、黑盒测试又称功能测试、数据驱动测试或基于规格说明书的测试,是一种从用户观点出发的测试。 黑盒测试示意图 ,测试的依据是产品说明书; ps:白盒测试的依据是设计说明书2、黑盒测试主要测试的错误类型有: ①不正确或遗漏的功能; ②接口、界面错误; ③性能达不到要求; ④外部数据结构或数据访问错误; ⑤系统初始化或终止条件错误等等。3、不论白盒测试还是黑盒测试,都无法做到穷举4、运用黑盒
2017-12-24 08:33:14 2460
原创 python-快速使用urllib爬取网页(3-超时异常)
爬虫怕的就是超时,而出现最多的就是超时,这种问题如何解决那?# coding=utf-8import urllib.requestfor i in range(1,100): try: file = urllib.request.urlopen("http://yum.iqianyue.com",timeout=1) data = file.read()
2017-12-24 08:26:35 3431
原创 python-快速使用urllib爬取网页(2-Headers属性)
有时候,我们无法爬取一些网页,出现403错误,因为这些网页为了防止别人恶意采集进行了一些反爬虫设置可是我们想爬取这些信息,怎么办? 设置一些Headers属性,模拟成浏览器去访问这些网站,就解决了这个问题了首先我们要获得所要爬取网页的User-Agent信息 在所要爬取的网页的地址栏里输入 about:version 我们就找到了用户代理的字符串信息 我们将其复制出来 形式如下所示:Mo
2017-12-23 22:06:46 2126
原创 python-快速使用urllib爬取网页(1)
要使用Urllib爬取网页,首先需要导入用到的对应模块 urllib是python自带的模块,不需要下载import urllib.request导入了模块后,我们采用以下方法打开并爬取一个网页file = urllib.request.urlopen("http://www.baidu.com")此时,我们已经将爬取到的网页赋给了变量file 爬取完后,我们现在可以使用file.read()读
2017-12-23 21:08:59 5395
原创 TCP拥塞控制
1、对资源需求的总和>可用资源:资源拥塞!!! 资源拥塞–>网络性能变坏–>网络的吞吐量随着输入负荷的增大而下降 ps:正常情况下,网络的吞吐量随着输入的增大而上升2、流量控制与资源拥塞的区别: 流量控制仅是发送端和接收端之间的点对点通信量的控制问题,是一种避免接收方资源过载的端到端的控制机制。 ps:抑制发送方发送数据的速率,以便使接收端来得及接受 拥塞控制是一个全局性的问题,是一种避
2017-12-23 16:33:36 566
原创 TCP流量控制
发送方–>发送数据过快–>接收方–>来不及接受—->数据丢失!!!流量控制就是用来解决这一问题,保证TCP的可靠传输的!滑动窗口机制!!!TCP为每个连接设置一个持续计数器,只要TCP连接的一方收到对方的零窗口通知,就启动持续计数器。发送方<—->持续计数器<—->接收方a发送零窗口通知–>启动持续计数器–>时间到!–>a发送零窗口探测报文(1B)–>b给出窗口值–>若窗 口值仍为零(重置计数器)
2017-12-23 15:27:00 367
Linux网站搭建流程
2017-12-22
数学建模教材(精品)
2017-09-27
Linux操作系统实验教程_南大版
2017-09-23
2016年考研核心考点——计算机组成原理
2017-09-23
2016年考研核心考点-----计算机网络
2017-09-23
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人