深度学习
文章平均质量分 57
记录深度学习过程中的一些知识
灰太狼家的小鸭子
物是人非事事休
展开
-
Pytorch实现early stopping 的模板:
主要是根据验证集上的val来实现的:原创 2023-09-26 10:02:30 · 252 阅读 · 0 评论 -
Pytorch(GPU)环境安装
在C盘中的用户目录下,查看.condarc文件:将下面的配置复制上,并保存:(使用的阿里云的镜像源)激活环境:然后根据要求点yes 就行。原创 2023-09-18 12:01:15 · 393 阅读 · 0 评论 -
tensorflow中如何自定义自己的数据集---使用tf.data.DatasetAPI
API 支持多种文件格式,因此可以处理不适合存储在内存中的大型数据集。例如,TFRecord 文件格式是一种简单的、面向记录的二进制格式,许多 TensorFlow 应用都将其用于训练数据。这对于小数据集来说效果很好,但是会浪费内存(因为数组的内容会被多次复制),并且可能会达到。构造函数会获取可调用对象作为输入,而非迭代器。,但强烈建议添加,因为许多 TensorFlow 运算不支持秩未知的张量。类将一个或多个 TFRecord 文件的内容作为输入流水线的一部分进行流式传输。参数,作为可调用对象的参数。原创 2023-04-27 14:50:01 · 754 阅读 · 0 评论 -
tensorflow 中fit函数的使用:
参数: x:输入 y:输出 batch_size:输入多少样本呢整数;每次梯度更新的样本数。未指定,默认为32 epochs:整数训练模型迭代次数 verbose:日志展示,整数;0:为不在标准输出流输出日志信息1:显示进度条2:每个epoch输出一行记录 callbacks:其中的元素是keras.callbacks.Callback的对象。这个list中的回调函数将会在训练过程中的适当时机被调用,参考回调函数; validation_split:浮点数0-1之间 ;表示验证集的比例;用原创 2023-04-27 13:55:25 · 816 阅读 · 0 评论 -
tensorflow中Keras ---图像预处理----tf.keras.preprocessing.image.ImageDataGenerator 类
支持的方法有 "nearest", "bilinear", and "bicubic"。默认情况下,使用 "nearest"。一个生成(x, y) 元组的DataFrameIterator, 其中x是一个包含一批尺寸为 (batch_size, *target_size, channels)的图像样本的numpy数组,y 是对应的标签的 numpy 数组。class_mode: "categorical", "binary", "sparse", "input", "other" or None之一。原创 2023-04-27 11:37:05 · 1518 阅读 · 1 评论 -
tensorflow中生成图片数据集可以使用这个类,根据图片所在文件夹划分训练集和验证集:tf.keras.preprocessing.image_dataset_from_directory
data_dir,label_mode='categorical',#生成多分类;标签被编码成分类向量;binary;seed=120,# color_mode='rgb' #默认图片的是rgbdata_dir,seed=120,原创 2023-04-27 10:18:03 · 543 阅读 · 0 评论 -
tensorflow ---gpu的环境配置
先鼠标右键查看对应的CUDA的版本: 根据本机的CUDA、cuDNN版本确定python及TensorFlow版本。如下表所示:tensorflow_gpu版本 Python 版本 cuDNN CUDAtensorflow_gpu-2.4.0 3.6-3.8 8.0 11.0tensorflow_gpu-2.3.0 3.5-3.8 7.6 10.1tensorflow_gpu-2.2.0 3.5-3.8 7.6 10.1原创 2023-04-25 21:38:48 · 2114 阅读 · 0 评论 -
python中np.concatenate 的 axis=1 和axis=-1 有啥区别
axis=-1:最后一维操作:其他维度的需要是相同的维度;axis=0:在第一维操作:其他维度的需要是相同的维度;axis=1:在第二维操作:其他维度的需要是相同的维度;原创 2023-04-19 15:13:34 · 2466 阅读 · 0 评论 -
paddle.tile()函数的用法
定义:paddle.tile(x,repeat_times,name=None);根据参数repeat_times对输入x的各维度进行复制。原创 2023-04-06 19:21:09 · 393 阅读 · 0 评论 -
pytorch中torch.cat() 和paddle中的paddle.concat()函数用法
在pytorch中:torch.cat(x=[A,B],dim=n)函数:是将数据A,B沿着dim=n的方向进行拼接;x必须是list或者tuple类型的tensor.原创 2023-04-06 17:35:27 · 1898 阅读 · 0 评论 -
自注意模型和Transformer模型(资料来源百度飞浆)
(Self-Attention Model)的设计思想来源于解决。原创 2023-04-03 15:45:07 · 726 阅读 · 0 评论 -
自监督学习:词向量的实现:Skip-gram的实现
自监督学习:词向量的实现:Skip-gram的实现原创 2023-03-24 16:39:39 · 401 阅读 · 0 评论 -
Pytorch中卷积对于边界的填充和移动步幅的设置
通常,如果我们添加pℎ行填充(大约一半在顶部,一半在底部)和pw列填充(左侧大约一半,右侧一半),则输出形状将为。所以说要是输入与输出具有相同的高度和宽度,就需要使。然后再左右、上下所填充的行数或者列数是。原创 2023-02-19 20:56:29 · 255 阅读 · 0 评论 -
pytorch: 获取 tensor 维度的方法:shape 和 size()
是其属性,而 size() 是其继承的方法,两者均可以获得 tensor 的维度。tensor 是类 Tensor() 的实例, 其中。的方法有两种:shape 和 size()shape是属性,使用中括号[]size是函数,使用()pytorch 获取。原创 2023-02-19 19:18:28 · 1270 阅读 · 0 评论 -
pytorch中的torch.zeros_like(x)
【代码】pytorch中的torch.zeros_like(x)原创 2023-02-12 15:59:28 · 325 阅读 · 0 评论 -
pytorch中tensor求导:y.sum().backward()为什么求导的时候要进行这个sum操作;
pytorch中tensor求导:y.sum().backward()为什么求导的时候要进行这个sum操作;原创 2023-02-08 20:40:46 · 1997 阅读 · 3 评论 -
torch.utils.data :pytorch的数据迭代器
pytorch框架中torch.utils.data :pytorch的数据迭代器原创 2023-02-07 22:05:23 · 420 阅读 · 0 评论 -
torch.normal()函数
torch.normal()函数:原创 2023-02-07 19:06:09 · 4389 阅读 · 0 评论 -
安装pytorch框架(cpu)
安装pytorch框架(cpu)原创 2023-02-06 20:52:36 · 4876 阅读 · 1 评论 -
解决You will need to adjust your conda configuration to proceed.Use `conda config --show channels` to
解决You will need to adjust your conda configuration to proceed.Use `conda config --show channels` to原创 2023-02-06 20:15:51 · 2857 阅读 · 4 评论