自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(72)
  • 资源 (1)
  • 收藏
  • 关注

原创 插入排序、冒泡排序、选择排序---python

插入排序O(n^2) # 从第二个数开始和前面的数比较,插入合适位置def insertion_sot(array): for index in range(1,len(array)): position = index temp_value = array[index] while position > 0 and arr...

2019-11-16 12:43:38 88

原创 快速排序与快速选择---python

快速排序 def quicksort(arr): if len(arr) <= 1: return arr start = arr[0] left = [x for x in arr if x < start] middle = [x for x in arr if x == start] right = [x for...

2019-11-16 12:35:38 188

原创 HTTP方法和状态码

一、HTTP方法 GET方法:获取资源 HEAD方法:获取报文首部(不返回报文实体主体部分,主要用于确认URL的有效性以及资源更新的日期时间等) POST方法:传输实体主体(POST传输数据、GET获取资源) PUT:上传文件(因不带验证机制,任何人都可以上传文件,因此存在安全问题,一般不使用该方法) PATCH:对资源进行部分修改(PUT也可以修改,但只能完全替代原始资源) DELETE:删除文件(和PUT一样不带验证机制) OPTIONS:查询...

2020-07-09 09:42:25 241

原创 笔记------测试需求分析

1、测试需求分析的流程 熟悉需求、需求项整理、提取测试点、测试点细化、确定测试范围、制定测试策略2、测试需求分析的文档 列出待测功能点 列出待测的规则 用作图工具(office vison)画出待测系统的流程图 用作图工具(office vison)画出待测的状态转换图 列出待测的用户角色及其权限 列出待测的质量因素 列出待测的环境因素 列出待测系统的场景 列出待测系统的范围...

2020-06-23 16:03:06 322

原创 软件测试基础(基本知识、测试方法分类作用、测试报告说明等)

一、工作流程 需求分析--测试文档的编写(测试计划、测试用例、测试报告等)--接口测试--WEB测试--APP测试--BUG管理二、测试模型:V型、W型、瀑布型、敏捷型(前两个要会默写)三、软件测试阶段:单元测试(整个程序模块是否有bug)、集成测试(接口模块是否有问题)、 确认测试(是否满足需求)、系统测试(整个系统是否有问题)、验收测试(用户确认是否符合预期) 四、分类 4.1 按测试阶段分类 .

2020-06-23 16:02:21 986

转载 windows下jdk的安装和配置(转载)

安装下载JDK正在上传…重新上传取消注册并在Oracle官网找到JDK的下载页面https://www.oracle.com/java/technologies/javase-downloads.html正在上传…重新上传取消JDK Download进入下载页,下载Windows x64 Compressed Archive版本解压正在上传…重新上传取消将下载好的jdk-13.0.2_windows-x64_bin.zip解压出来,移动到D盘的Java目录...

2020-06-17 21:19:29 738

原创 网络举例---------Pytorch

import torchimport torch.nn as nnimport torch.nn.functional as F1、卷积网络 class Net(nn.Module): def __init__(self,'这里放参数'): super(Net,self).__init__() @CNN # 输入通道数,输出通道数/卷积核个数,卷积核尺寸 self.conv1 =.

2020-05-21 11:57:26 265

原创 张量---------Pytorch

# numpy转tensor: torch.Tensor(trainDATA)# torch.view()==reshape()一、张量tensor 1.1 张量的建立 # 数据建议是列表 # 如果是numpy数组则会共享内存,即修改一个,另一个也跟着改变 x = torch.tensor([5.5, 3]) # 把张量放到gpu x = torch.tensor([5.5, 3],device='cuda') 1.2 特殊张量 # .

2020-05-21 11:56:42 190

原创 全连接网络与激活函数、权值初始化---------Pytorch

1、线性 # in_features 输入结点数 # out_features 输出结点数 # bias 是否要偏置 nn.Linear(in_features,out_features,bias=True)2、激活函数 2.1 nn.Sigoid # 输出(0,1) # 导数[0,0.25],易梯度消失 y = 1/(1+e**(-x)) 2.2 nn.tanh # 输出(-1,1) .

2020-05-21 11:56:05 1669

原创 正则化---------Pytorch

# 正则化目标:减小方差1、误差=偏差+方差+噪声 偏差:预测和真实值的偏离程度(刻画学习算法的拟合能力) # 训练集结果和真实结果的差异,高偏差对应欠拟合 方差:同样大小的训练集的变动所导致的学习性能变化(刻画数据扰动造成的影响) # 验证集结果和训练集结果的差异,高方差对应过拟合 噪声:当前任务上任何学习算法所能达到的期望泛化误差的下界# 目标函数=Loss+正则化项2、L2(权值衰减):对权值的平方求和 optim_wdecay.

2020-05-21 11:54:46 146

原创 损失函数---------Pytorch

1、交叉熵损失:分类 # weight:各类别的loss设置权值 # ignore_index:忽略某个类别,不计算其loss # reduction:计算方式(mean/none/sum) ''' mean:加权平均,返回标量(所有loss求平均) none:逐个元素计算(计算每个样本loss) sum:所有元素求和,返回标量(所有loss求和) ''' nn.CrossEntropyLoss(weight=None,ignore_.

2020-05-21 11:54:04 372 1

原创 网络容器------Pytorch

一、容器(在Net网络类的__init__函数中使用) 1、nn.Sequetial:按顺序包装多个网络层 class Net(nn.module): def __init__(self,classes) super(Net,self).__init__() self.network = nn.Sequetial( nn.Conv2d(3,6,5), .

2020-05-20 15:23:51 178

原创 优化器---------Pytorch

1、梯度清零 # 反向传播[loss.backward()]之前要梯度清零 optimizer.zero_grad()2、权值更新 optimizer.step()3、动量(冲量):结合当前梯度与上一次更新信息,用于当前更新4、优化器## SGD:对参数敏感,但合适的参数会使效果更好## Adam:每次迭代,学习率有一个确定的范围,使参数更新稳定 # rmsprop优化器是自适应学习率梯度下降法adagrad的改进 @随机梯度下降法 # pa.

2020-05-20 15:21:55 205

原创 循环神经网络(RNN、LSTM、GRU)---------Pytorch

# 处理不定长输入# 时间序列任务(输入数据具有前后关系)1、RNN # input_size:输入x的特征数量 # hidden_size:隐藏层的特征数量 # num_layers:RNN层数 # nonlinearity:默认tanh,非线性函数使用tanh还是relu # bias:默认True,是否使用偏置 # batch_first:默认False[即(序列长度seq,批大小batch,特征维度feature)];若True则(batch,s.

2020-05-20 15:20:34 729

原创 卷积和池化---------Pytorch

1、二维卷积 @输入数据形状:32*32*3(size*in_channels) # in_channels 输入通道数 # out_channels 输出通道数(卷积核个数) # kernel_size 卷积核尺寸 # stride 步长,默认1 # padding 填充个数,默认0 # dilation 空洞卷积大小,默认1(常用于图像分割) # groups 分组卷积设置,默认1,一幅图划分为多个区域且不同区域内有一个卷积核(常用于模型.

2020-05-20 15:18:20 573

原创 Pytorch中的保存与加载

path_model = 'model.pkl'path_state_dict = 'model_state_dict.pkl'1、保存(序列化) # obj:对象 # f:输出路径 torch.save(obj,f) 2、保存模型参数 # 数据以字典形式存储 # 获取模型的可学习参数 state_dict = net.state_dict() # 将参数保存 torch.save(state_dict,f)3、加载(反序列化) .

2020-05-20 15:17:38 671

原创 DataLoader以及图片处理操作---------Pytorch

一、DataLoader torch.utils.data.DataLoader( # 数据集;批大小;是否乱序 dataset,batch_size=1,shuffle=False, # 读取数据的进程数 num_workers=0, # 当样本数不能被batchsize整除时, # 是否舍弃最后一批数据 drop_last=False) 二、图片处理 # 组合图片的操作.

2020-05-20 15:14:51 1982 3

原创 torchvision视觉库---------Pytorch

0、制作网格图像(多张图组成一张网格) # tensor:图像数据,BatchSize图片数*C通道数*H高*W宽 # nrow:行数(列数自动计算) # padding:图像间距(像素单位) # normalize:是否将像素值标准化,默认False(默认数据[0,255]),但如果数据[0,1]可设置为True # range:标准化范围(在意的像素值区间:若像素值[-1000,2000],设置[-600,600],则小于-600的设置为-600,大于600的设.

2020-05-20 15:13:45 253

原创 torchsummary查看模型信息以及TensorBoard可视化---------Pytorch

0、查看模型信息# model:模型# input_size:模型输入size# batch_size# device:'cuda'或'cpu'torchsummary(model,input_size,batch_size=-1,device='cuda')from tensorboardX import SummaryWriter1、实例化SummaryWriter,并指明日志存放路径(若当前目录没有此文件将自动创建) # log_dir:event_file输出文件'log.

2020-05-20 15:12:08 1800

原创 Pytorch中的to方法------数据类型转换、GPU使用方法及注意点、单机多GUP并行执行任务

一、转换数据为浮点数# (张量不执行inplace操作,因此要重新赋值)tensorX = torch.ones((3,3))tensorX.to(torch.float64)二、将张量放至gpu # (张量不执行inplace操作,因此要重新赋值) tensorX = tensorX.to('cuda') # 指定gpu tensorX = tensorX.to('cuda:0') @以下是另一种方法 device = torch.devi

2020-05-20 15:09:06 5552 2

原创 爬虫笔记---有关post/get请求以及payload数据的填写

一、post请求(以网站登陆为例)import requests# agent:浏览器信息,在与网站交互时用到agent = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.92 Safari/537.36'headers = {"Use...

2020-04-29 10:47:55 3102

原创 深度强化学习算法分类及介绍---按on-off/按有无模型/按基于价值还是基于策略

一、按算法分类1、onpolicy:同策学习:边决策边学习,学习者也是决策者,例如围棋AI边对弈边学习2、offpolicy:异策学习:通过之前的历史(可以是自己的历史也可以是别人的历史)进行学习,学习者和决策者不需要相同。在异策学习的过程中,学习者并不一定要知道当时的决策,例如围棋AI通过阅读人类的对弈历史来学习二、按有无模型分类1、有模型学习:用到了环境的数学模型,可能在学...

2020-03-27 14:34:01 1753

原创 pip安装报错:xxx has requirement xxx>=2.5.0, but you'll have xxx的根本原因及解决方法

根本原因:包没有装好出错场所:1、pip本地安装时,因为依赖文件没有装好,直接装目的包会报此错 2、包的版本不符合解决方法:安装依赖包或更新已有包...

2020-03-20 21:00:27 9828 1

原创 用多项式分布采样代替epsilon-greedy

一、epsilon-greedy if explore: if np.random.rand() <= self.epsilon: return random.randrange(self.action_size) act_values = self.model.predict(state)...

2020-03-08 22:20:55 812

原创 xftp无法显示远程文件夹的简单解决方法

问题背景xshell可以连接并显示文件夹,但使用xftp时提示“无法显示远程文件夹”,服务器协议:sftp,传输:只能使用被动模式问题原因xftp无法识别“~”文件夹解决方法如上图所示,在文件地址栏直接填写“/root”即可...

2020-03-06 11:18:42 5652 4

原创 keras Conv1D 一维卷积的输入维度

报错情况:expected conv1d_1_input to have 3 dimensions, but got array with shape (1, 56)问题原因:维数不匹配解决方法:数组的维数是(1,56),但神经网络维数与数组维数相反,应该使用(56,1)或(None,1)同时神经网络的输入数据应改成三维,即reshape为(1,56,1)...

2020-01-02 21:57:45 5033 4

原创 Linux后台执行Python程序

nohup python3 -u test.py >test.log 2>&1 &

2019-12-13 14:08:44 114

原创 DDPG本质:将策略网络和价值网络分开 || 经验池作用、目标网络作用、DDQN简介

经验池作用:深度学习要求输入数据独立同分布,使用经验池可以使状态间相互独立目标值网络作用:计算网络目标值需要用到现有的Q值,用一个更新较慢的网络专门提供此Q值,进而提高训练的稳定性和收敛性,而原网络的Q值仅用于动作选择和更新参数DQN:只有一个网络Nature DQN:用目标网络计算目标值yDouble DQN:因真实策略具有随机性,因此上图max操作使估计值函数比真实值函数大...

2019-12-07 09:52:34 2959

原创 论文特殊符号解释:[X-Y]^+

X<Y时等于0,X>Y时等于X-Y

2019-12-07 09:29:46 765

转载 最大似然估计、最大后验估计、贝叶斯估计的对比

https://www.cnblogs.com/jiangxinyang/p/9378535.html

2019-12-07 09:18:22 158

转载 KL散度、JS散度、Wasserstein距离

https://zxth93.github.io/2017/09/27/KL%E6%95%A3%E5%BA%A6JS%E6%95%A3%E5%BA%A6Wasserstein%E8%B7%9D%E7%A6%BB/index.html

2019-12-07 09:16:04 187

原创 自然语言处理---主要流程

# 小写化# 分词# 去停用词与无效高频词# TF-IDF:学习一个词对文本的重要性# 向量化:word2vec向量化词汇(产生词嵌入模型)# 词袋

2019-11-28 14:03:40 163

原创 自然语言处理---词袋

# https://blog.csdn.net/a40850273/article/details/81119103'''词袋模型将一段文本作为一个个分离的词进行处理,通过不同类文本中可能出现词的差异对文本进行分类。必须指出的是对于文本分类,上下文对于其真正的类别有着强相关性。个人理解此类方法可能只是为了算法的简易性选择性地放弃了文本中的上下文信息,或者说只关注词频信息也能够获得符合要求的文...

2019-11-28 14:02:51 232

原创 scikit-learning------划分训练/测试集、替换缺失值

# 划分训练集和测试集,33%数据是测试集data_train,data_test,label_train,label_test=train_test_split( data,labels,test_size=0.33,random_state=42)# scikit-learn的Simplelmputer可以进行缺失值的替换imp = Simplelmputer(mis...

2019-11-26 11:30:16 535

原创 偏差、方差、混淆矩阵等

# 偏差与方差偏差:模型预测值和真实值之间的差距方差:给定数据点的模型预测的可变性偏差/方差权衡:模型越简单,偏差越高;模型越复杂,方差越高# 二分类评估指标# 1、混淆矩阵'''正类即目标类,真即预测正确 预测为反类 预测为正类 反类 真反例TN 假正例FP 正类 假反例FN 真正例TP1.1 精度[模型总体性能]:(TP+TN)/(TP+TN+FP+FN)1...

2019-11-22 09:01:23 365

原创 re.match、re.findall、正则元字符

#只匹配开头>>> re.match('hello','hellojfsjkhello')<re.Match object; span=(0, 5), match='hello'>>>> re.match('hello','hellojfsjkhello').group()'hello'

2019-11-22 08:58:30 298

原创 L1正则化、L2正则化以及dropout正则化的keras实现

# L2正则化from keras import regularizersmodel = models.Sequential()# l2(0.001)是指该层权重矩阵每个系数都会使网络总损失增加0.001*weight_coefficient_value# 由于这个惩罚项只在训练时添加,因此这个网络的训练损失会比测试损失大很多model.add(layers.Dense(16,ker...

2019-11-22 08:56:29 2945

原创 keras卷积神经网络举例

# 特征图深度在增加(从32到128,但尺寸在变小)from keras import layersfrom keras import model# 输入尺寸为150*150*3,展平后是7*7*128model = model.Sequential()# 二维卷积核(提取的图块大小)一般3*3=9个特征向量,或5*5# 卷积所计算的过滤器数,即第一层深度,32model.add...

2019-11-22 08:55:57 437

原创 绘制训练损失和训练精度曲线

from keras import modelsfrom keras import layersmodel = models.Sequential()model.add(layers.Dense(26,activation='relu',input_shape=(38,)))model.add(layers.Dense(26,activation='relu'))model.add(l...

2019-11-22 08:55:24 3331 2

原创 函数式API

model.add(layers.Conv2D(32, (3,3), activation='relu', input_shape=(28,28,1)) 32表示通道数,即特征的数量,一般是32或64(第一层32,之后64,再展平) 池化不改变特征数,改变图像的长和高# 卷积-池化,多次循环后展平mode...

2019-11-22 08:54:36 574

DDQN的Pytorch实现.zip

使用Pytorch和多项式分布采样实现DDQN算法 DDQN和Nature DQN一样,也有一样的两个Q网络结构。在Nature DQN的基础上,通过解耦目标Q值动作的选择和目标Q值的计算这两步,来消除过度估计的问题。

2020-05-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除