自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(61)
  • 收藏
  • 关注

原创 【刷题笔记4】

假设有m个苹果和n个盘子,我们可以将问题分为两种情况: 1. 盘子中至少有一个盘子为空:这种情况下,我们可以将m个苹果放在n-1个盘子中,即将问题转化为将m个苹果放在n-1个盘子中的分法。2. 盘子中所有盘子都有苹果:这种情况下,我们可以将每个盘子中放入一个苹果,然后将剩余的m-n个苹果放在n个盘子中,即将问题转化为将m-n个苹果放在n个盘子中的分法。综上所述,将m个苹果放在n个盘子中的分法数为f(m, n) = f(m, n-1) + f(m-n, n)。斐波那契数列:1,1,2,3,5,8,13……

2024-01-17 19:02:58 635

原创 【刷题笔记3】

(1):n*m的棋盘格子(n为横向的格子数,m为竖向的格子数)从棋盘左上角出发沿着边缘线从左上角走到右下角,总共有多少种走法,要求不能走回头路,即:只能往右和往下走,不能往左和往上走。作用相当于是:输出a*pow(2,24);也就相当于,这个数转换成二进制后,在后面多了24个0.

2024-01-11 18:08:24 494

原创 【刷题笔记2】

两个数的最大公约数=两数乘积/最小公倍数。string是比较标准的。

2024-01-09 15:32:39 488

原创 【刷题笔记1】

输入为hello nowcoder时,输出为8 (nowcoder的长度)否则,就用一般性的cin>>a;3.排序函数sort(first,last)定义: stack 容器名。size() //返回堆栈中元素的个数。empty() //判断堆栈是否为空。push() //向堆栈顶部添加元素。pop() //弹出堆栈顶部的元素。top() //返回堆栈顶部的元素。6.stake(堆栈)的使用。2.字符串的输入(有空格)输入为ABCabc a。输出为ABCabc a。

2023-12-14 19:37:33 502

原创 python入门学习(八)spyder闪退

每次通过指令打开spyder,立刻闪退,没有任何的报错信息出现。第一次卸载了spyder并重新安装了一个新版本的spyder成功解决了问了。过了几天,问题再度出现,卸载并重新安装是不可能的!此时我敏锐的感受到,这两次出现闪退好像是出于相同的原因。那就是在前一天关闭spyder的时候,打开了两个文件路径下的.py文件。所以也不知道具体的原因,但是看了网上的一些解决方法,解决了问题。解决方法:找到C:\Users\Administrator\路径下的.spyder-py3文件和.matplotlib,然后

2022-03-28 09:15:10 2561 2

原创 【一】从.WAV文件中提取语音的fbank特征

本文的代码的主要作用:截取声音文件的前3.5s,预加重(增大高频部分幅度),分帧(帧长25ms,步长10ms),加窗(汉明窗),FFT(计算的512点的),梅尔滤波器(32维的)最后画图显示代码效果。每部分的参数都可以进行修改,按照自己的需求进行即可。import numpy as npfrom scipy.io import wavfilefrom scipy.fftpack import dctimport warningswarnings.filterwarnings('ignore')

2022-03-21 13:48:29 736

原创 【无标题】

网上抄来的代码语音预处理代码1function [x1,x2] = vad(x)%语音活动检测函数%幅度归一化到[-1,1]x = double(x);x = x / max(abs(x));%常数设置FrameLen = 240;%帧长FrameInc = 80;%步长amp1 = 10;%预先设定能量门限amp2 = 2;zcr1 = 10;%预先设定过零率zcr2 = 5;maxsilence = 8; % 6*10ms = 30msminlen = 15

2022-01-14 21:46:11 1761

原创 (九)处理机调度

1.处理机调度概念概念:用来管理处理机执行能力的这部分资源的功能。对比学习(1)进程切换:CPU资源的当前占用者的切换(2)处理机调度:从就绪队列中挑选下一个占用CPU运行的进程。(3)调度程序:挑选就绪进程的内核函数。2.调度准则调度策略:如何从就绪队列中选择下一个执行 的进程。调度算法的准则:CPU使用率(CPU忙状态的时间百分比);吞吐量(单位时间内完成的进程数量);周转时间(进程从初始化到结束的总时间);等待时间(进程在就绪队列中的总时间);响应时间(从提交请求到产生响应所话费的总时

2021-09-09 16:38:31 124

原创 (八)进程控制

1.进程切换2. 进程创建3.进程加载4.进程等待与退出

2021-09-09 09:56:27 86

原创 (七)进程和线程

1.进程的概念进程:有一定独立功能的程序在一个数据集合上的一次动态执行过程。进程时处于执行状态的程序的抽象=程序+执行状态。同一个程序的多次执行过程对应为不同进程。2.进程控制块3.进程状态4.三状态进程模型5.挂起进程模型6.线程的概念7.用户线程8.内核线程...

2021-09-07 16:09:56 96

原创 (五)虚拟存储概念

1.需求背景计算机系统内存空间不够用。2.覆盖和交换覆盖技术:把程序划分成功能独立的模块,将不会同时执行的模块共享同一块内存区域。缺点:编程困难,增加了执行时间交换技术:增加正在运行或需要运行的程序的内存。吧暂时不用的程序放到外存。存在问题:交换时机,交换区大小,程序换入时重定位。3.局部性原理程序执行过程中,指令地址和指令的操作数地址分别局限于一定区域。时间局部性,空间局部性,分支局部性,4.虚拟内存概念虚拟存储:将不常用的内存块暂存到外存。实现方式:虚拟页式内存,虚拟段式

2021-09-05 15:29:10 615

原创 (四)物理内存管理:非连续内存分配

1.背景非连续内存,实现虚拟地址和物理地址的转换有点困难。可以软件、硬件实现。非连续分配中内存块大小:段式、页式存储管理。2.段式内存管理3.页式内存管理4.页表描述5.快表和多级页表6.反置页表7.段页式存储管理...

2021-09-05 13:34:33 172

原创 (三)物理内存管理:连续内存分配

1. 计算机体系结构和内存层次重定位,分段,分页,虚拟存储重定位:改段寄存器的地址。分段:程序分为数据、代码、堆栈。分页:把内存分为最基本的单位虚拟存储:逻辑地址空间大于物理内存空间2.地址空间和地址生成物理地址:硬件支持的地址空间。逻辑地址:在cpu运行进程看到的地址。程序加载到内存中,变成进程。源代码编译,变成指令的汇编指令(汇编的源代码),再次编译,变成二进制代码(机器能认识的指令)。3.连续内存分配4.碎片整理5.伙伴系统...

2021-09-04 16:28:20 373

原创 (一)绪论

1.数据结构讨论的范畴描述现实世界实体的数学模型机器上的操作在计算机中的表示和实现2.基本概念一:数据与数据结构数据:能输入到计算机中且被计算机处理的符号的集合,是计算机处理信息的符号表示数据元素:数据中心的一个个体,是数据结构中的基本单位数据项:数据结构中的最小单位。数据元素是数据项的集合。数据结构:带结构的数据元素的集合。数据的逻辑结构归结为四类:定义形式:(是一个二元组)(数据的逻辑结构)数据的存储结构:逻辑结构在存储器中的映像数据元素的映像方法:二进制位的位串表示数据元素:

2021-08-21 17:54:33 81

原创 (二)中断、异常。系统调用

1.BIOS内存分为RAM和ROM(加电之后有原来写的内容,上电后的初始化代码在这里执行),BIOS的启动固件提供的功能包括:基本输入输出程序,系统设置信息,开机后自检程序,系统自启动程序2.系统启动流程加电读BIOS,BIOS读加载程序,加载程序读内核映像,3.中断、异常和系统调用比较4.系统调用5.系统调用实例...

2021-08-21 12:32:21 106

原创 (一)操作系统概述

课程概述1.操作系统的结构:2.中断与系统调用:中断:操作系统与硬件打交道系统调用:操作系统对上层应用提供的服务接口3.内存管理内存的分配、回收。4.进程及线程管理用户程序执行过程。运行程序的状态的维护5.处理机调度多个进程交替使用CPU,需要处理机来进行调度6.同步互斥(进程间通信)进程间相互通信,进程间信息交流7.文件系统数据很大之后,管理保存数据。8.I/O系统控制IO设备什么是操作系统1.是一个控制程序(系统软件)2.是一个资源管理器操作系统的组

2021-08-18 18:40:36 107

原创 计算机网络 (九) 运输层(下)

运输层(下)8.TCP拥塞控制8.1 拥塞控制一般原理8.2 TCP拥塞控制方法8.3 主动列队管理AQM9. TCP的运输连接管理9.1 TCP 的连接建立9.2TCP 的连接释放9.3 TCP的有限状态机继8.TCP拥塞控制拥塞:∑ 对资源需求 > 可用资源 最坏结果:系统崩溃实际可能原因:点缓存容量太小,链路容量不足,处理机速率太慢,自身就会加剧但是增加资源也不能解决拥塞:因为网络拥塞是一个非常复杂的问题。拥塞控制与流量控制的区别:拥塞数据时防止过多数据注入网络,使路由器或链路不

2021-06-06 13:28:13 162 1

原创 计算机网络(八)运输层(中)

5.TCP报文段的首部格式注释:源端口和目的端口字段——各占 2 字节。端口是运输层与应用层的服务接口。运输层的复用和分用功能都要通过端口才能实现。序号字段——占 4 字节。TCP 连接中传送的数据流中的每一个字节都编上一个序号。序号字段的值则指的是本报文段所发送的数据的第一个字节的序号。确认号字段——占 4 字节,是期望收到对方的下一个报文段的数据的第一个字节的序号。数据偏移(即首部长度)——占 4 位,它指出 TCP 报文段的数据起始处距离 TCP 报文段的起始处有多远。“数据偏移”的单位

2021-06-05 09:54:58 242

原创 计算机网络(七) 运输层(上)

传输层(上)1. 运输层协议概述1.1 进程之间的通信1.2 运输层的两个主要协议1.3 运输层的端口2.用户数据协议2.1 UDP概述2.2 UDP的首部格式3.传输控制协议 TCP 概述3.1 TCP最主要特点3.2 TCP连接4.可靠传输的工作原理4.1 停止等待协议4.2 连续ARQ协议1. 运输层协议概述1.1 进程之间的通信传输层属于面向通信部分的最高层,用户功能中的最低层。网络中只有边缘部分的主机才有运输层。从IP层来说,通信的两端是两台主机。从运输层的角度看,通信的真正端点并不是主机

2021-06-04 15:46:30 284 1

原创 计算机网络(六) 网络层(下)

网络层(下)6.IPv66.1 IPv6的基本首部6.2 IPv6的地址6.3 IPv4向IPv6过度6.4 ICMPv67. IP多播7.1 IP多播的基本概念7.2 在局域网上进行硬件多播7.3 网际组管理协议 IGMP 和多播路由选择协议8. 虚拟专用网VPN和网络地址转换NAT8.1 虚拟专用网VPN8.2网络地址转换NAT继:网络层(中)6.IPv66.1 IPv6的基本首部IPv6仍支持无连接的传送,数据单元称为分组。引进IPv6的变化主要有:将地址从 IPv4 的 32 位 增大到

2021-05-28 10:39:21 535

原创 计算机网络(五) 网络层(中)

网络层(中)3.划分子网和构造超网3.1划分子网3.2使用子网时分组的转发3.3无分类编址CIDR(构造超网)4. 网际控制报文协议(ICMP)4.1 ICMP报文的种类4.2 ICMP的应用举例5.互联网的路由选择协议5.1 有关路由选择的基本概念5.2 内部网关协议RIP5.3内部网关协议OSPF5.4 外部网关协议BGP5.5 路由器的构成继:网络层(上)3.划分子网和构造超网3.1划分子网引出问题:两级IP到三级IP:给每个网络分配一个网络号会使得路由表太大,两级IP地址不够灵活。解决方案

2021-05-26 14:59:56 801 4

原创 计算机网络(四) 网络层(上)

网络层1.网络层提供的两种服务2.网际协议IP1.网络层提供的两种服务对于网络层面向连接与否,可靠交付与否,存在着较多的争论。而最后互联网的设计思路是:网络层向上只提供简单灵活的、无连接的、尽最大努力交付的数据报服务。2.网际协议IP网际协议IP是TCP/IP体系中最主要的协议之一。与IP协议配套使用的还有三个协议:地址解析协议(ARP),网际控制报文协议(ICMP),网际组管理协议(IGMP)中间系统:将网络互相连接起来的中间设备。五种不同的中间设备:物理层中继系统:转发器 (repeat

2021-05-26 10:21:11 352

原创 计算机网络(三) 数据链路层

数据链路层1.点对点信道的数据链路层1.1数据链路和帧1.2三个基本问题2.点对点协议PPP2.1 PPP协议的特点2.2 PPP协议的帧格式2.3 PPP协议的工作状态3.使用广播信道的数据链路层3.1 局域网的数据链路层3.2 CSMA/CD协议3.3 使用集线器的星状拓扑3.4 以太网的信道利用率3.5 以太网的MAC层4.扩展的以太网5.告诉 以太网1.点对点信道的数据链路层1.1数据链路和帧链路(物理链路);一条无源的点到点的物理线路段(中间没有任何交换节点)数据链路(逻辑链路):把实现

2021-05-24 12:44:45 441

原创 计算机网络(二)物理层

物理层1.物理层基本概念2.数据通信的基础知识2.1 数据通信系统的模型2.2 有关信道的基本概念2.3 信道的极限容量3.物理层下面的传输媒体3.1 导引型传输媒体3.2 非导引型传输媒体4.信道复用技术4.1 频分复用、时分复用和统计时分复用4.2 波分复用4.3 码分复用(CDMA)5.数字传输技术6.宽带接入技术6.1 ADSL技术6.2 光纤同轴混合网(HFC网)6.3 FTTx技术(Fiber To The...)1.物理层基本概念在连接各种计算机的传输媒体上传输数据比特流(而不是具体的传输

2021-05-23 19:52:46 1346 9

原创 计算机网络(一)概述

概述章1.计算机网络定义及其特点1.1 计算机网络定义:1.2,计算机网络特点2.互联网概述2.1互联网概念:2.2 互联网发展的三个阶段:3.互联网组成3.1边缘部分:3.2核心部分:4.计算机网络的发展5.计算机网络的类别5.1计算机网络的定义5.2几种不同类别的网络6.计算机网络的性能6.1计算机网络的性能指标6.2计算机网络的非性能特性7.计算机网络的体系结构1.计算机网络定义及其特点大众熟悉的三类网络:电信网络,有线电视网络,计算机网络。1.1 计算机网络定义:由一些通用的、可编程的硬件互

2021-05-23 17:13:44 228

原创 PyTorch学习(十四)Batch_Normalization(批标准化)

神经网络太深的话,传到后面,受到激励函数饱和区间、失效期间的影响,最后导致神经网络学不到了。批标准化:将分散数据统一的一种方法,优化神经网络。处理方式大概为下图:代码如下:import torchfrom torch import nnfrom torch.nn import initimport torch.utils.data as Dataimport matplotlib.pyplot as pltimport numpy as np# torch.manual_seed

2021-05-12 10:44:13 477

原创 PyTorch学习(十三)过拟合

过拟合:不能表达处理训练数据以外其他的数据。解决方法1:增加数据量。解决方法2:运用正规化。过拟合中,W变化的比较大,所以在计算误差的时候做一些手脚,让学出来的曲线不会过于扭曲。专门用在神经网络的正规化方法:droptout regularization,随机忽略掉一些神经元和神经的连接。处理过程大概为下面两张图:丢掉一些神经元之后对比是否丢掉神经元的结果代码如下:import torchimport matplotlib.pyplot as plt# torch.manual_

2021-05-12 09:58:25 351

原创 PyTorch学习(十二)GAN(对抗神经网咯)

本节依据莫烦的画家的实例来介绍GAN的工作流程,代码如下。import torchimport torch.nn as nnimport numpy as npimport matplotlib.pyplot as plt# torch.manual_seed(1) # reproducible# np.random.seed(1)# Hyper ParametersBATCH_SIZE = 64LR_G = 0.0001 # 两个神经网络generator,

2021-05-11 11:18:20 251

原创 PyTorch学习(十一)encoded,decoded

本节主要介绍自编码的相关内容。区别于以前内容的是,自编码过程并不需要标签。只需要数据集即可。import torchimport torch.nn as nnimport torch.utils.data as Dataimport torchvisionimport matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3Dfrom matplotlib import cmimport numpy as np#

2021-05-11 09:54:07 673

原创 PyTorch学习,optimizer优化器

本节主要介绍不同的优化器的效率import torchimport torch.utils.data as Dataimport torch.nn.functional as Fimport matplotlib.pyplot as plt# torch.manual_seed(1) # reproducibleLR = 0.01BATCH_SIZE = 32EPOCH = 12# 数据#1000个数据,每批分成32个,训练12次,所以1000*12/32=375.x

2021-05-09 17:09:40 95

原创 PyTorch学习(十)RNN回归

RNN回归import torchimport torch.nn as nnfrom torch.autograd import Variableimport torch.utils.data as Dataimport torchvisionimport numpy as npimport matplotlib.pyplot as plttorch.manual_seed(1) # reproducibleTIME_STEP=10#考虑多少时间点的数据,INPUT_SI

2021-05-09 14:22:59 271

原创 PyTorch学习(九),RNN分类

数据集与先前下载的数据集一致,所以此次就不再下载,但仍然呈现了下载的代码代码如下,大部分都加了详细的注释import torchimport torch.nn as nnfrom torch.autograd import Variableimport torch.utils.data as Dataimport torchvisionEPOCH=1 #训练整批数据的次数BATCH_SIZE = 64#批训练的数据个数TIME_STEP=28#考虑多少时间点的数据,INPUT_SIZ

2021-05-09 10:57:23 778

原创 实现自适应均值滤波,并和算术均值滤波的结果做对比

直接看代码%% 导入原图像,并添加高斯噪声image=imread('aft.jpg');imagen=rgb2gray(image);[width,height]=size(imagen);r1=rand(width,height);%用于产生高斯噪声r2=rand(width,height);x=0.1*sqrt(-2*log(r1)).*cos(2*pi*r2); %产生了噪声imagen=x+double(imagen)/255;%为了加上高斯噪声,需要将图像变为double型im

2021-05-07 21:15:29 709

原创 逆滤波和维纳滤波恢复降质图像

题目:用式子H(u,v)=e−k∗(u2+v2)5/6 H(u,v)= e^{-k*(u^2+v^2)^ {5/6}} H(u,v)=e−k∗(u2+v2)5/6对图像进行模糊处理,然后加白高斯噪声,得到降质图像。用逆滤波和维纳滤波恢复图像,对结果进行分析。逆滤波的原理非常之简单,只需要在频域除去滤波器即可,就不用管噪声了。首先套它猴子的,matlab太搞人心态了。因为matlab中数值是有上限和下限的,经过本人的探测,上限大概在e308 下限大概在e-324…每次实验用的小女孩的大小

2021-05-07 21:02:23 1515

原创 PyTorch学习(八)CNN手写体识别

本节将介绍利用CNN进行手写体识别首先呢,我们需要下载数据来进行训练。下载的代码如下:注意:数据集下载一次就好,DOWNLOAD_MNIST = Truetrain_data=torchvision.datasets.MNIST(#下载数据的代码 root='./mnist', train=True, transform=torchvision.transforms.ToTensor(), #(网上数据改为tensor),0-1之间,并复制到train_data中

2021-05-07 15:02:20 501

原创 PyTorch学习(七)批训练

批训练import torchimport torch.utils.data as Datatorch.manual_seed(1) # reproducibleBATCH_SIZE = 5 # 批训练的数据个数x = torch.linspace(1, 10, 10) # x data (torch tensor)y = torch.linspace(10, 1, 10) # y data (torch tensor)# 先转换成 torch 能

2021-05-05 16:54:47 141

原创 PyTorch学习(六)网络的保存与提取

保存提取神经网络import torchfrom torch.autograd import Variableimport matplotlib.pyplot as plttorch.manual_seed(1)# 数据x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)y = x.pow(2) + 0.2*torch.rand(x.size())x,y=Variable(x,requires_grad=False),Variabl

2021-05-05 16:36:16 99

原创 PyTorch学习(五)快速搭建网络

分类问题,与回归问题大同小异,框架基本一致,只不过要修改之前的数据,以及在输出结果的地方进行加工。import torchfrom torch.autograd import Variableimport torch.nn.functional as Fimport matplotlib.pyplot as pltn_data = torch.ones(100, 2) x0 = torch.normal(2*n_data, 1) # 类型0 x data (te

2021-05-05 14:53:22 126

原创 PyTorch学习(四)第一个神经网络(回归与分类)

第一个网络即将横空出世…分类与回归。本节主要介绍回归问题Regression回归。import torchfrom torch.autograd import Variableimport torch.nn.functional as Fimport matplotlib.pyplot as plt#生成一些伪数据x=torch.unsqueeze(torch.linspace(-1,1,100), dim=1)#变成二维数据,因为只能处理二维数据y=x.pow(2)+0.2*torc

2021-05-04 18:18:13 176

原创 PyTorch学习(三)激活函数

y=Wx, 神经网络y=AF(Wx),,AF为激励函数,是一个非线性方程。激励函数必须是可以微分的。默认首选激励函数:卷积神经网络中:relu循环神经网络中:relu or tanh激励(激活)函数(activation function)import torchimport torch.nn.functional as Ffrom torch.autograd import Variableimport matplotlib.pyplot as pltx=torch.linspac

2021-05-04 17:02:41 201

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除