自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(28)
  • 收藏
  • 关注

原创 思科模拟器--09.交换机端口聚合实验配置--24.5.23

配置中继模式下的接口允许vl 10 , 20通过 (switchport trunk all vlan 10,20)端口聚合的作用:可以提供更高的带宽,更高的可靠性技术,通俗讲,就是避免丢包,两条通道路多呗!Switch1的G0/1, G0/2接口分别与Switch2的G0/1, G0/2接口相连。将物理接口绑定成一个逻辑接口,并采用静态的方式进行端口聚合,3为聚合组的编号。将物理接口绑定成一个逻辑接口,并采用静态的方式进行端口聚合,3为聚合组的编号。PC3的F0与Switch2的Fa0/1连接。

2024-05-30 16:46:24 1259

原创 思科模拟器--08.三层交换机配置实验(两个交换机)--24.5.22

network 中:192.168.5.0配置错误了,所以又重新写入覆盖掉了错误的:network 192.168.3.0。PC1~4的接口F0按顺序依次用直通线连接交换机1的Fa0/1~4接口。PC5~8的接口F0按顺序依次用直通线连接交换机2的Fa0/1~4接口。第3步:(交换机1配置:vlan , IP, 启用rip协议)配置交换机1中的vl 6的IP地址为:192.168.5.1。配置交换机2中的vl 6的IP地址为:192.168.5.2。第1步:(配置个人电脑的IP地址,子网掩码和默认路由)

2024-05-22 19:48:31 2357

原创 思科模拟器--07.三层交换机实验配置--24.5.21

查看当前的路由信息(当前会发现啥也没有的,小编此时就傻了的!将交换机(管理该系列的f0/5-6接口,上面的也一样)端口设置为接入模式。计算机领域里并没有黑魔法,有的只是我们不知道的一些知识罢了,将PC1~6的F0依次按交换机的接口Fa/1~6相连接。第1步:(配置个人电脑的IP地址,子网掩码和默认路由)配置vl 2的IP地址为: 192.168.1.254。将交换机的f0/1-2系列接口划分到vlan 2中。将f0/3-4系列的接口划分到vl 3中。进入f0/1-2系列的vl接口配置模式。

2024-05-21 11:40:53 1976

原创 思科模拟器--06.单臂路由升级版--多端路由互连实验--24.5.20

输入:in ra f0/1-3(全写:inter range f0/1-3)输入:vl da (全写: vlan database(vlan数据库))进入0模块第0端口的配置模式(以后简写为:进入g0/0接口配置模式)PC0的F0,PC1的F0分别和交换机的F0/0, F0/1连接。PC2的F0,PC3的F0分别和交换机的F0/4, F0/5连接。PC4的F0,PC5的F0分别和交换机的F0/7,F0/8连接。进入f0/1,f0/2,f0/3一系列的接口配置模式。

2024-05-20 13:35:21 936

原创 思科模拟器--05.单臂路由实验配置--24.5.19(补24.5.18)

输入:encapsulation dot1q 10(可以简写:enca dot1q 10)输入:sh ru(show running-configer的简写)(额外收获:ping 不存在的IP地址是无法ping通过的哇)设置f0/3端口的工作模式为:Trunk(也就是中继模式)Submask(子网掩码): 255.255.255.0。第一步:(配置个人电脑的IP, 子网掩码和默认网关)配置该子接口的IP地址为:192.168.1.1。配置该子接口的IP地址为:192.168.2.1。

2024-05-19 21:40:03 1185

原创 思科模拟器--04.OSPF协议路由配置--24.5.17

输入:network 192.168.2.0 0.0.0.255 area 0。输入:network 192.168.2.0 0.0.0.255 area 0。输入:network 192.168.3.0 0.0.0.255 area 0。输入:network 192.168.3.0 0.0.0.255 area 0。输入:ip ad 192.168.1.1 255.255.255.0。输入:ip ad 192.168.4.1 255.255.255.0。

2024-05-17 22:00:57 1395

原创 思科模拟器--03.RIP协议路由--24.5.17

在特权模式输入:show running-config(可以简写:sh ru)用来查看IP配置情况,根据检查,发现我们配置成功啦(实战演练如下图)进行左端口的ip地址配置:输入:ip address 192.168.1.1 255.255.255.0。用来退出当前模式,直接退回到特权模式(特权模式是这个样子:(Router #,标志就是这个"#"))目的:降低失误概率,提高成功率!用命令:enable(可以简写:en)进入路由器2号的特权模式。输入:show ip route(简写:sh ip ro)

2024-05-17 20:24:03 1100

原创 思科模拟器--02.静态路由和默认路由配置24.5.15(24.5.20补)

(第一次不通过的话,可以ping第二次试试!接着,配置两台电脑的IP,子网掩码和默认网关。首先,创建三个路由器和两个个人电脑。

2024-05-15 22:54:05 512

原创 思科模拟器学习1--Vlan & Trunk

目的是:vlan 1的通讯不可以向vlan 2传送,就是消息传送互不干扰的,不同的vlan,不同的网段,都是我们隔离广播域的一个方法。这时候,我们在SW0的命令端口,先进入全局配置模式,接着输入in f0/24进入f0/24的接口配置,再输入sw mo tr命令,让交换机0切换成中继模式。(注意:连接时,尽量有规律连接的,可以避免自己搞糊涂的,小编就是按照老师讲的,PC~PC3按顺序F0/1, F0/2, F0/3依次连接交换机的)看上一幅图,可知vl 1已经有了的)到了这个时候,我们的目的也就达到啦;

2024-05-14 22:51:28 798 2

原创 Deep Learning Part Eight--Attention 24.5.4

本章我们学习了 Attention 的结构,并实现了 Attention 层。然后,我们使用 Attention 实现了 seq2seq,并通过简单的实验,确认了 Attention 的出色效果。另外,我们对模型推理时的 Attention 的权重(概率)进行了可视化。从结果可知,具有 Attention 的模型以与人类相同的方式将注意力放在了必要的信息上。另外,本章还介绍了有关 Attention 的前沿研究。从多个例子可知,Attention 扩展了深度学习的可能性。

2024-05-04 19:29:47 639 1

原创 Deep Learning Part Eight Attention--24.5.3

注意力是全部。注意力是全部。--(你若好,就是夏天)安夏的座右铭。

2024-05-03 22:29:13 683 1

原创 Deep Learning Part Seven基于RNN生成文本--24.5.2

现在,使用这个RnnlmGen类进行文本生成。import sys# 设定start单词和skip单词# 生成文本print(txt)

2024-05-02 22:52:12 2198 2

原创 Deep Learn Part Six Gated RNN-24.5.1

此外,像 Dropout[9] 这样,在训练时随机忽略层的一部分(比如 50 %)神经元,也可以被视为一种正则化(图 6-30)。更糟糕的是,RNN 比常规的前馈神经网络更容易发生过拟合,因此 RNN 的过拟合对策非常重要。因此,在大多数情况下,门使用 sigmoid 函数作为激活函数,而包含实质信息的数据则使用 tanh 函数作为激活函数。在这里进行的实验中,梯度的大小或者呈指数级增加,或者呈指数级减小。二是降低模型的复杂度。换句话说,通过加深层,可以创建表现力更强的模型,但是这样的模型往往会发生。

2024-05-01 22:04:23 771 1

原创 Deep Learning Part Five RNNLM的学习和评价-24.4.30

准备好RNNLM所需要的层,我们现在来实现RNNLM,并对其进行训练,然后再评价一下它的结果的。5.5.1 RNNLM的实现这里我们将RNNLM使用的网络实现为SimpleRnnlm类,其层结构如下:如图 5-30 所示,类是一个堆叠了 4 个 Time 层的神经网络。拓展:接着,我们来实现forward()方法、backward()方法和方法。从上述中,可以看出实现非常简单。在各个层中,正向传播和反向传播都正确地进行了实现。因此,我们只要以正确的顺序调用forward()(或者。

2024-04-30 09:51:36 714 1

原创 Deep learning Part Five RNN--24.4.29

除此之外,根据图中5-5的左图所示,在CBOW模型的中间层求单词向量的和,这时就会出现另一个问题的,那就是上下文的单词的顺序将会被打乱的;但是,这时候新的问题又出现了的,采用拼接法固然可以解决上一个问题的,但是,这时候就会发生一系列连锁反应的,出现新的问题的:权重参数等比例增加,处理的数据量爆炸式增加!方案一:拼接法,就如5-5图右侧的那样,在中间层“拼接”上下文的单词向量的。接着上期,CBOW模型无法解决文章内容过长的单词预测的,那该如何解决呢?主角终于还是在最后登场的啦,有请RNN大哥善良登场的。

2024-04-29 09:51:15 902

原创 深度学习RNN

只记得我在一个昏暗潮湿的地方喵喵地哭泣着。——夏目漱石《我是猫》到目前为止,我们看到的神经网络都是前馈型神经网络。(feedforward)是指网络的传播方向是单向的。具体地说,先将输入信号传给下一层(隐藏层),接收到信号的层也同样传给下一层,然后再传给下一层……像这样,信号仅在一个方向上传播。虽然前馈网络结构简单、易于理解,而且可以应用于许多任务中。不过,这种网络存在一个大问题,就是不能很好地处理时间序列数据(以下简称为“时序数据”)。

2024-04-22 20:22:30 791

原创 《大话数据结构》-程杰自学数据结构感悟

悟:探索一个新的领域,例如写书,本来就会有许多困难,对照我自身也是如此。但是,怕而不退,畏而不缩,这是我和作者所共同追求的,幸福感满满!

2024-04-22 13:35:39 656

原创 数据结构第四讲:上课习题演练:串中的KMP解法个人总结

1.对于开始的"",也就是空字符串,赋值该位置为:02. 对于这样"a", 也就是单字符串,赋值该位置为:1 此时:013.对于这样"ab", 也就是多个字符串不相同的,赋值该位置: 1,此时: 0114.对于这样"aba", 也就是多字符串有相同的,在前一位的基础,也就是1,加1即可,此时:0112我曾经在后台查看过数据,大部分人都是扫一眼的所以能读到这里的人,都是翘楚中的翘楚的!所以陌生人要加油哇!你在未来一定是个非常优秀的人才!

2024-04-19 22:40:31 466

原创 Python游戏代码集

记录游戏,以便未来回忆!

2024-04-18 19:17:49 94

原创 CBOW模型24.4.18打卡

可从上图中看出,contexts是一个二维数组,target是一个一维数组,最后输入forward(也就是正向传播)的数据都是经过处理的数字信息。图4-4 Embedding层的正向传播和反向传播处理的概要(小提示:为了方便,Embedding层记为Embed)专业术语是:输入层到隐藏层,输入的值第几个就直接取到Win(也就是输入的权重)的第几个。Embedding层的核心:简化数据,挑出有价值的数据,把没价值的数据放一边罢了。图4-3 one-hot表示的上下文和MatMul层的权重的乘机。

2024-04-18 19:06:56 297

原创 Word2vec的高速化:CBOW模型 24.4.17打卡

我们首先要调用输入层的Embedding,相关词经过Embedding(也就是降低数据处理量,简化),然后,再相加,再除以相关词的数量,得到平均数,这就求出了隐藏层。forward:contexts(文本)是目标词的上下文的关联词,target(目标)是我们需要预测的值。2.create_contexts_target(生成上下文和目标词的函数)这里我们先给出正确解题思路:(思维框架)然后再调用损失函数,即可求出损失值啦。1.CBOW模型的学习代码。word2vec的高速化。

2024-04-17 22:56:25 206

原创 PyCharm下载第三方库的网址集合

清华大学镜像网址:https://mirrors.tuna.tsinghua.edu.cn/清华大学:https://pypi.tuna.tsinghua.edu.cn/simple。中国科技大学:https://pypi.mirror.ustc.edu.cn/simple。阿里巴巴开源镜像: https://ospsx.alibaba.com/mirror/阿里云:https://mirrors.aliyun.com/pypi/simple。

2024-04-17 20:24:30 735

原创 哔哩哔哩白羽黑月课程:requests的学习与总结

Requests 库 是用来发送HTTP请求,接收HTTP响应的一个Python库。Requests库经常被用来 爬取 网站信息。用它发起HTTP请求到网站,从HTTP响应消息中提取信息。Requests库也经常被用来做 网络服务系统的Web API 接口测试。因为Web API 接口的消息基本上都是通过HTTP协议传输的。Python中构建HTTP请求的库有很多,其中 Requests 库最为广泛使用,因为它使用简便,功能强大。

2024-04-17 20:12:33 263

原创 哔哩哔哩白羽黑月老师课程:socket的学习与感悟——在此作篇,以便以后翻阅

你用一台新设备填写密码登录微信,就是你向服务器发送请求,这是第一次握手,(主动,你向服务器发送:我需要帮助)服务器说,要再次验证身份,请让好友辅助验证,就是服务器做出的应答,这是第二次握手(被动,服务器来满足你的要求)好友辅助验证成功,就是客户,也就是你让好友成功帮助你进行了辅助验证,让服务器确认了你的身份,这就是上述你对服务器进行的报文确认,也就是第三次握手(你向服务器验证了自己的身份,为啥子?这个时代嘛,防诈骗吖)我们现在来看一个 TCP协议进行通讯的 socket 服务端程序和客户端程序。

2024-04-15 19:19:00 1027 2

原创 Python数据结构-栈的定义和特点——第二节内容总结

引子:一、什么是链表?1、链表是物理存储单元上非连续的、非顺序的存储结构,数据元素的逻辑顺序是通过链表的指针地址实现,有一系列结点(地址)组成,结点可动态的生成。2、结点包括两个部分:(1)存储数据元素的数据域(内存空间),(2)存储指向下一个结点地址的指针域。3、相对于顺序结构,操作复杂。4.链表分为 (1)(2)双链表 (3)单向循环链表 (4)双向循环链表1.链表和数组一样,也是一种线性表二、链表的作用1、实现数据元素的存储按一定顺序储存,允许在任意位置插入和删除结点。

2024-04-14 19:57:02 1046

原创 Python深度学习进阶-第四章

Word2vec的高速化第三章我们学习了word2vec的原理,并实现了CBOW模型但是,上一章还是遗留了一个问题的嘞:就是随着语料库的处理词汇量增加,计算量也会随之增加的,如果不进行解决的话那么,还是有可能在语料库非常大的时候,让机器学习的效率大幅度下降的。举个极端的例子:如果一组语料库要处理的内容需要的期限100万年,咱们等不起哇因为这里可不是至尊宝和紫霞仙子的爱你一万年哇!这时呢,就要对上一章的简单的word2vec进行两点改进:1、引入名为Embedding层的新层。

2024-04-10 20:18:04 143

原创 深度学习进阶:自然语言处理入门:第三章

通俗讲,PMI就是求两个事件同时发生的概率有多大,他们发生的概率越大,则PMI的值就越大的嘞,也就表示两个事件的关联性就越强,放在男女之间,就说明她和他的关系就越亲密的呢,就好比令人神往的青梅竹马,流口水哇,小编也想要哇(努力加油哇!共现矩阵的元素表示两个单词同时出现的次数,这里的次数并不具备好的性质,举个例子,有短语叫the car,因为the是个常用词,如果以两个单词同时出现的次数为衡量相关性的标准,与drive 相比,the和car的相关性更强,这是不对的。实际上,处理 10 万维向量 是不现实的。

2024-04-09 20:51:20 306

原创 Python数据结构第三章第一节--初识栈和队列

队列:像排队打饭一样,先进先出(First in First out, 简称:FIFO)栈:像叠盘子一样,后进先出(Last in First out:简称:LIFO)6.栈底:Stack_Base。5.栈顶:Stack_Top。2. 队列:Queue。

2024-04-07 18:50:10 267

Python游戏代码集

Python游戏代码集

2024-04-18

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除