自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 资源 (1)
  • 收藏
  • 关注

原创 【流刷新定位、格式化输入输出】

一、流的缓冲区刷新二、定位流 – ftell/fseek/rewind三、格式化输出和输入

2022-12-26 16:26:31 205 1

原创 【按单个字符和行读写文件】

1.读写一个字符:fgetc()/fputc()一次读/写一个字符2.读写一行:fgets()和fputs()一次读/写一行3.读写若干个种类对象:fread()/fwrite() 每次读/写二进制文件、文本文件对象都可以

2022-12-20 10:09:26 309

原创 标准I/O-FILE(流的打开与关闭)

一、打开流二、fopen-参数path三、fopen-参数mode1.处理错误信息-perror库函数2.处理错误信息-strerror库函数四、关闭流

2022-12-13 20:58:49 377

原创 标准文件IO介绍

一切皆文件一、文件基础二、UNIX基础知识-系统调用和库函数举例子说明系统调用和库函数三、标准I/O-介绍

2022-12-11 16:41:07 329

原创 深度学习_目标分类_AlexNet详解

深度学习_目标分类_AlexNet详解AlexNet简介新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入AlexNet简介你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdo

2021-09-06 16:20:09 379

原创 深度学习- 循环神经网络(基础篇)浅析LSTM和-自用笔记8

Using LSTM and GRU一、LSTM是什么?二、LSTM的公式解析三、GRU是什么四、GRU公式解析一、LSTM是什么?二、LSTM的公式解析三、GRU是什么GRU介于RNN 和 LSTM之间,GRU比LSTM性能差,但比LSTM节省计算时间。GRU比RNN性能好,但比RNN消耗计算时间。四、GRU公式解析...

2021-01-25 15:57:20 246

原创 深度学习- 循环神经网络(基础篇)采用词嵌入 Embedding的方式-自用笔记8

Embedding• One-hot encoding of words and characters• The one-hot vectors are high-dimension.• The one-hot vectors are sparse.• The one-hot vectors are hard coded.• Do we have a way to associate a vector with a word/character with following specificati

2021-01-25 15:42:03 454

原创 深度学习- 循环神经网络(基础篇)Basic_RNN-自用笔记9

循环神经网络(基础篇)Basic_RNN循环神经网络(基础篇)Basic_RNN用于处理具有时间序列的数据的问题,采用权重共享的概念来减少需要训练的权重的数量举例:用前三天的温度、气压、是否下雨,去预测第四天是否下雨,RNN擅长处理带时间序列关系的数据。实际上我们要考虑x1(第一天的天气状况)、x2(第二天的天气状况)、x3(第三天的天气状况)之间的时间序列的关系,因为第二天的天气状况跟第一天的天气有很大程度的关系,部分以来前一天的天气。自然语言,金融股市等等,都是根据时间序列的数据,因此我们要

2021-01-24 22:48:48 438

原创 深度学习- 卷积神经网络(基础篇)Basic CNN-自用笔记8

上一讲我们介绍的全连接的神经网络所谓的全连接就是说网络里全都是用的线性层,如果我们的网络全都是这种线性层串联起来,我们就把这种网络叫做全连接的网络接下来我们介绍一种处理图像的卷积的神经网络,卷积层他能保留图像的空间特征。简单介绍一下先是对输入的图像进行卷积,然后进行池化下采样,再进行卷积,再进行池化下采样,再进行view变成一位的tensor,再进行全连接层最后输出十维的张量类型。经过卷积输出的值是通过所有像素加权求和得到的,所以卷积之后的东西包含每个像素的信息。单一通道的卷积的工作原理

2021-01-20 17:56:46 563 2

原创 深度学习-多分类问题- Softmax Classifier-自用笔记8

深度学习-多分类问题 -Softmax Classifier-自用笔记8回顾上一讲我们讲的手动加载文件中的糖尿病数据集的二分类的问题https://blog.csdn.net/qq_42764492/article/details/112750673糖尿病数据集一共有8个feature,输出的y^为是糖尿病的概率p训练了一个模型如下图:基于MNIST Dataset介绍多分类的SoftmaxThere are 10 labels in MNIST dataset,Output a Distri

2021-01-20 14:51:19 1613 5

原创 深度学习-加载数据集 -Dataset and DataLoader-自用笔记7

深度学习- -Dataset and DataLoader-自用笔记7说明:自用笔记1-6都是采用加载全部数据集放到batch中,今天讲解的是采用mini_batch的方法之前采用全部数据集的代码方法如下:采用mini_batch的方法加载数据集采用mini_batch的方法加载数据集需要设置:Epoch, Batch-Size, Iterations三个两的值,如图DataLoader: batch_size=2, shuffle=Truebatch_size=2代表每一个mini_bat

2021-01-17 17:51:13 1084 2

原创 深度学习-处理多维度特征的输入 -Multiple Dimension Input-自用笔记6

深度学习-处理多维度特征的输入 -Multiple Dimension Input-自用笔记6多维度特征的数据集每一行代表一个样本,每一列代表一重要特征Feature一个样本特征多个的计算图如图所示多个样本多个特征的计算图如图所示模型采用一层线性函数self.linear = torch.nn.Linear(8, 1),函数的输入的特征维度为8,输出的维度为1,如下图若线性层函数采用输入的特征维度为8,输出的维度为2,如下图:若线性层函数采用输入的特征维度为8,输出的维度为6,如

2021-01-17 15:37:33 6558 10

原创 深度学习-逻辑斯蒂回归Logistic_Regression-自用笔记5

深度学习-逻辑斯蒂回归Logistic_Regression-自用笔记5逻辑斯蒂回归与线性回归做对比线性回归:Affine Model:????^ = ???? ∗ ???? + ????Loss Function:???????????????? = (ො ???? − ????)2= (???? ∙ ???? − ????)2线性回归是做一个线性的预测。逻辑斯蒂回归:Logistic Regression Model:???? = ????(???? ∗ ???? + ????)Los

2021-01-15 18:12:08 185 3

原创 深度学习-PyTorch官网学习资料-自用笔记4

深度学习-PyTorch官网学习资料-自用笔记4不同的优化器• torch.optim.Adagrad• torch.optim.Adam• torch.optim.Adamax• torch.optim.ASGD• torch.optim.LBFGS• torch.optim.RMSprop• torch.optim.Rprop• torch.optim.SGDRead more example from official tutorial从官网获得更多的例子https://pyt

2021-01-14 21:08:38 186 1

原创 深度学习-如何用pytorch提供的工具来构建线性模型-自用笔记3

深度学习-如何用pytorch提供的工具来构建线性模型-自用笔记3分为四部分1、 Prepare data set 准备数据集2、Design model using Class 设计模型3、 Construct loss and optimizer —using PyTorch API 用 using PyTorch的应用接口API,构造损失函数loss和优化器optimizer4、Training cycle----forward, backward, update 训练过程Prepare

2021-01-14 18:21:11 256 3

原创 深度学习-反向传播Back Propagation-自用笔记2

#深度学习-反向传播Back Propagation-自用笔记2##一个两层的线性模型A two layer neural network???? = ????2 (????1 ∙ ???? + ????1) + ????2如下图所示为第一层的输入X、权重W1、偏置b1的维度。同样的方法可以将两个层的线性模型写出来如下:First Layer、Second Layer如下图两个线性层进行得加没有任何意义,因为经过变换之后又成了一个线性层,线性层进行权重得加完全没有意义,因此需要解决线性层叠

2021-01-13 17:33:27 258 2

原创 深度学习-梯度下降算法-自用笔记1

深度学习自用笔记1深度学习-梯度下降算法-自用笔记刚刚进入深度学习,了解到梯度下降算法,发现梯度下降算法会遇到局部最优点和鞍点梯度下降算法最终是要找到一个合适的权重W*来让损失函数cost(w)最小。但真正的梯度下降曲线不可能是这样简单的一维曲线的损失函数的最低点,而是多维的空间面的损失函数的最低点。一般学习率取得都很小,保证他是缓慢收敛到最低点,而不会跳过最低点,如图所示梯度下降算法可能会遇到局部最优点和鞍点非凸函数会产生局部最优点,会导致神经网络无法找到全局最优点,但实际上在神经网络中

2021-01-12 11:44:09 261 3

深度学习-处理多维度特征的输入 -Multiple Dimension Input-自用笔记6的糖尿病数据集

深度学习-处理多维度特征的输入 -Multiple Dimension Input-自用笔记6的糖尿病数据集

2021-01-17

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除