自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(24)
  • 收藏
  • 关注

原创 安装CUDA时,nvcc --version无法找到命令

参考https://blog.csdn.net/qq_25603827/article/details/107822394添加环境变量export PATH="/usr/local/cuda-11.3/bin:$PATH"export LD_LIBRARY_PATH="/usr/local/cuda-11.3/lib64:$LD_LIBRARY_PATH"

2021-05-19 14:53:54 1504

原创 Tensorflow: Cannot dlopen some GPU libraries. Skipping registering GPU devices...

参考添加链接描述

2021-05-18 21:25:46 593

原创 CommandNotFoundError: Your shell has not been properly configured to use ‘conda activate‘ 问题解决

参考:https://blog.csdn.net/qq_30722795/article/details/107725045# 激活 anaconda 环境 source activate# 退出 anaconda 环境 source deactivate激活成功后即可进入base环境

2021-05-18 21:25:10 219

原创 Linux设置anaconda3的环境变量

1.修改~/.bashrc2.添加export PATH=/home/yangmengyu/anaconda3/bin:$PATH3.source ~/.bashrc

2021-05-18 21:23:54 136

原创 语义分割中图像任意裁剪中的维度问题

在图像的语义分割中,对图像进行裁剪时,为了达到image和label的统一裁剪,需要将image和label使用concat合并到一起然后进行任意裁剪,再分开。在这个过程中,如果image为(256,256,3),label为(256,256,1),那么concat(axis=-1)后,concat_image的维度为(256,256,4),这个不难理解。concat后我们使用tf.image.random_crop对图片进行裁剪,裁剪过后再切片把image和label分开。在分开的过程中,最后一维的索

2021-04-01 14:15:11 539 1

原创 tf.keras.metrics和tf.keras.metrics中的部分函数

tf.keras.metrics.Accuracy对象只能接受label值,在使用的时候可以对输出使用tf.argmax等方法进行处理a = tf.keras.metrics.Accuracy()a.update_state([1, 2, 3, 4], [0, 2, 3, 4])print(a.result().numpy())# 输出为0.75tf.keras.metrics.SparseCategoricalAccuracy对象将接受label和对应的输出值,是否用softmax激活不会对结

2021-04-01 12:38:08 1369 1

转载 python中super().__init__()

https://blog.csdn.net/a__int__/article/details/104600972

2021-03-27 10:20:26 64

转载 python下使用sort()函数对目录下文件名进行多条件排序

https://blog.csdn.net/Kobaayyy/article/details/105132639

2021-03-26 20:43:29 93

转载 TensorFlow中padding卷积的两种方式“SAME”和“VALID”

转自:https://blog.csdn.net/syyyy712/article/details/80272071tensorflow官网定义的padding如下:padding = “SAME”输入和输出大小关系如下:输出大小等于输入大小除以步长向上取整,s是步长大小;padding = “VALID”输入和输出大小关系如下:输出大小等于输入大小减去滤波器大小加上1,最后再除以步长(f为滤波器的大小,s是步长大小)。反卷积操作所以在反卷积操作tf.keras.layers.Conv2D

2021-03-25 10:01:54 435

转载 Pyhton中dataFrame型数据 values方法返回结果是数组,并将数组转化为列表的tolist方法

Pyhton中dataFrame型数据 values方法:获取该数据的值:lis=[['fanfan','B','18'], ['huanhuan','G','23'], ['lingling','B','21']]col_lis=['name','sex','age']list_df=pd.DataFrame(lis,columns=col_lis)print(list_df.values)程序运行结果:[[‘fanfan’ ‘B’ ‘18’][‘huanhuan’

2021-03-21 15:09:22 1113

转载 Tensorflow使用预训练模型时预测时BN层的问题

这是今晚同学在答疑群群提到的一个问题。问题表现为模型训练时表现很好,之后在测试数据上表现很差,和预期的差距很大。这是tensorflow的BN层带来的一个问题, 对于BN层,在训练时,是对每一批的训练数据进行归一化,也即用每一批数据的均值和方差。而在测试时,比如进行一个样本的预测,就并没有batch的概念,因此,这个时候用的均值和方差是全量训练数据的均值和方差,这个可以通过移动平均法求得。如果待预测的图片分布与训练图片的分布有大的差别时,直接使用训练数据的均值和方差可能会导致预测结果准确率比较糟糕。

2021-03-20 21:01:48 522

原创 Embedding层出错Invalid argument: indices[2,37] = 7100 is not in [0, 7100)

在处理文本数据时,在进行编码之后常常需要处理文本数据长度不同的问题,此时需要使用tf.keras.preprocessing.sequence.pad_sequences(data,max_length))方法对文本数据进行填充,使样本的长度相同。在填充过程中,会在样本中加0,这样也就导致了整个数据集中单词个数的增长(+1)。如果不增加单词个数,在后续使用Embedding层的时候,tf.layers.Embedding(word_dim,new_space_dim,input_length)

2021-03-19 12:05:13 1307

转载 Keras.metrics中的accuracy总结

转自:https://blog.csdn.net/qq_36588760/article/details/105689736Keras.metrics中总共给出了6种accuracyaccuracy该accuracy就是大家熟知的最朴素的accuracy。比如我们有6个样本,其真实标签y_true为[0, 1, 3, 3, 4, 2],但被一个模型预测为了[0, 1, 3, 4, 4, 4],即y_pred=[0, 1, 3, 4, 4, 4],那么该模型的accuracy=4/6=66.67%。

2021-03-18 09:18:07 646

转载 tensorflow dataset.shuffle dataset.batch dataset.repeat

转自:https://blog.csdn.net/qq_16234613/article/details/81703228batch很好理解,就是batch size。注意在一个epoch中最后一个batch大小可能小于等于batch sizedataset.repeat就是俗称epoch,但在tf中与dataset.shuffle的使用顺序可能会导致个epoch的混合dataset.shuffle就是说维持一个buffer size 大小的 shuffle buffer,图中所需的每个样本从shuf

2021-03-15 00:17:59 96

转载 深度学习:词嵌入(Word Embedding)以及Keras实现

原文链接:https://blog.csdn.net/LiQingBB/article/details/849313971.文本数据需要预处理成张量的形式,才能输入到神经网络。2.文本划分成单元的过程叫做分词过程(tokenization),分成的单元叫做标记(token)。3.文本可以划分为,单词、字符(abcdefg…)、n-gram等等。4.一般用one-hot编码或者word-embedding将单词处理为数值张量。5.one-hot编码简单,但是没有结构,任何两个单词之间的距离为2\sq

2021-03-13 22:29:09 199

原创 使用for循环创建列表、字典时使用enumerate的细节

test='i am a student'test_split=test.split()word_dict=dict((word,index) for word,index in enumerate(test_split))print(word_dict,type(word_dict))输出当我们调整word与index的顺序时test_split=test.split()word_dict=dict((word,index) for index,word in enumerate(tes

2021-03-13 22:22:00 250

转载 批标准化(batch normalization)

1.为什么需要BN我们知道网络一旦train起来,那么参数就要发生更新,除了输入层的数据外(因为输入层数据,我们已经人为的为每个样本归一化),后面网络每一层的输入数据分布是一直在发生变化的,因为在训练的时候,前面层训练参数的更新将导致后面层输入数据分布的变化。以网络第二层为例:网络的第二层输入,是由第一层的参数和input计算得到的,而第一层的参数在整个训练过程中一直在变化,因此必然会引起后面每一层输入数据分布的改变。我们把网络中间层在训练过程中,数据分布的改变称之为:“Internal Covariat

2021-03-12 15:49:22 90

原创 标准化与归一化

https://blog.csdn.net/u012768474/article/details/99871942

2021-03-12 15:40:52 38

转载 (已解决)Error: Received a label value of 1 which is outside the valid range of [0, 1)-Python,Keras

转自:https://blog.csdn.net/The_Time_Runner/article/details/93889004用Keras做文本二分类,总是遇到如题错误,我的类别是0或1,但是错误跟我说不能是1.参见:Received a label value of 1 which is outside the valid range of [0, 1) - Python, Kerasloss function的问题。原来用的是sparse_categorical_crossentropy,

2021-03-12 15:23:31 1019 1

转载 dict 的 items() 方法与 iteritems() 方法的不同?

items方法将所有的字典以列表方式返回,其中项在返回时没有特殊的顺序;iteritems方法有相似的作用,但是返回一个迭代器对象转自:https://www.cnblogs.com/sea-stream/p/11244348.html

2021-03-12 13:10:50 190

原创 Python及Numpy的数据类型和操作

Python:https://www.cnblogs.com/linjiqin/p/3608541.htmlNumpy:https://www.w3school.com.cn/python/numpy_data_types.asp

2021-03-09 14:55:26 75

转载 keras中concatenate和add层

转自https://blog.csdn.net/u012193416/article/details/79479935在网络结构的设计上,经常说DenseNet和Inception中更多采用的是concatenate操作,而ResNet更多采用的add操作,那么这两个操作有什么异同呢?concatenate操作是网络结构设计中很重要的一种操作,经常用于将特征联合,多个卷积特征提取框架提取的特征融合或者是将输出层的信息进行融合,而add层更像是信息之间的叠加。This reveals that both

2021-03-09 14:00:59 989

原创 使用CNN时报错,ValueError: Input 0 of layer sequential is incompatible with the layer

使用CNN时报错,错误如下ValueError: Input 0 of layer sequential is incompatible with the layer: : expected min_ndim=4, found ndim=3. Full shape received: (32, 28, 28)错误的原因是由于对CNN以及Fashion MNIST数据集理解不到位。cnn的数据输入要求是四维张量,另外MNIST手写数据集以及Fashion MNIST数据集中的图片均为灰度图像。from

2021-03-08 17:42:52 28176

原创 交叉熵损失函数与one-hot编码

交叉熵损失函数交叉熵损失函数是在分类问题中常用的一种损失函数,交叉熵能够衡量同一个随机变量中的两个不同概率分布的差异程度,在机器学习中就表示为真实概率分布与预测概率分布之间的差异。交叉熵的值越小,模型预测效果就越好。二分类问题中使用交叉熵损失函数,输出层常用sigmoid激活函数loss=−1n∑i=1n[yiln⁡ai+(1−yi)ln⁡(1−ai)]loss=-\frac{1}{n}\sum_{i=1}^n{\left[ y_i\ln a_i+\left( 1-y_i \right) \ln \

2021-03-08 17:27:04 3294

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除