自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 资源 (3)
  • 收藏
  • 关注

原创 记录利用CrossEntropyLoss()做图像分割任务踩过的坑~

1、利用unet做图像分割任务时,首先运用BECLoss模型能完全运行成功,但是当损失函数设置为CrossEntropyLoss()是出现如下错误:

2020-06-03 16:51:45 3844 3

原创 利用segnet做图像分割~Bug

首先数据预处理确认是正确的,在unet模型上已经运行成功,当数据集在segnet模型上时,会出现如下错误:RuntimeError: reduce failed to synchronize: device-side assert triggered百度说是标签的index出错,应该是从0开始的,但是我在读数据时,它就是自动从零开始,所以这个原因不可行。后来检查代码发现模型的输出没有用激活函数torch.nn.Sigmoid()(x11d)在模型的最后添加这个就成功解决啦!

2020-06-03 08:56:29 499 1

原创 信息论与编码(姜丹版)第七章简答题笔记

该文基于自身情况,按照教学要求整理的,并不完全,忘海涵通信的有效性问题:即如何通过对信源进行编码,压缩信源的多余度,提高传输的效率。通信的可靠性问题:即消息通过信道传输时如何选择编码方案以减少差错。通信的可靠性显然与信道的统计特性有关,因为杂噪干扰是造成错误的主要因素。其次,编码方法和译码方法也将影响信息传输的可靠性。信道编码目的:提高抗干扰能力,使差错率最小。实质:...

2019-12-31 10:00:16 961

原创 信息论与编码(姜丹版)第六章笔记

通信的根本任务——有效、可靠地传输信息信源编码:用信道能传输的符号代表信源的消息,使信源的消息适于传输(变换);在不失真或允许一定失真下,用尽可能少的符号来传递信息(通信的有效性,数据压缩)信道编码:增加信号抗干扰能力,同时保持尽可能大的信息传输率(通信的可靠性,纠错编码)二元码:码符号集X={0,1},如果要将信源通过二元信道传输,必须将信源编成二元码,这也是最常用的一种码。...

2019-12-31 09:58:34 1545

原创 信息论与编码(姜丹版)第三章简答题笔记

极限概率存在的条件:各态遍历各态遍历的含义: 1)各态相通,均可经历; 2)由各态历经过程产生的每个序列,都有同样 的统计特性,具有统计均匀性。信源的相关性n阶马尔可夫信源的极限熵H∞就是离散平稳有记忆信源X的n+1阶条件熵。离散平稳信源的输出是等概率分布时,平均自信息量最大,且设为H0信源的相关性:信源符号间的依赖关系增...

2019-12-31 09:57:43 1852 1

原创 信息论与编码(姜丹版)第二张简答题笔记

笔记是根据自身情况整理的,只是为了留下足迹,以防忘记,并不是很全,望海涵!信道的分类以输入输出空间分:离散信道、连续信道、半离散半连续信道、时间离散的连续信道、波形信道(时间和幅度连续)以输入输出随机变量的pdf分:恒参信道、随参信道以输入输出端的个数分:两端信道、多端信道(多用户)按符号的个数分:单符号信道、多符号信道按随机变量是否与时间起点有关:无记忆信道、有记忆...

2019-12-31 09:56:46 972

原创 信息论与编码(姜丹版)第一张简答题笔记

为什么Shannon信息论在解决通信系统的问题方面非常有效,但是在涉及人工智能理论研究的问题是就无能为力?信息论只关注信号(信息的载体)的波形,不关心它的内容和价值。通信系统的设计可以只关心信号的波形。人工智能却必须“理解信息的内容和价值”。提出和建立了“全信息理论”--能够统一考虑信息的形式因素(称为语法信息)、内容因素(称为语义信息)和价值因素(称为语用信息)的全新的信息理论...

2019-12-31 09:54:27 1266

原创 机器学习(西瓜书)第十章笔记

Note:我们学习过程中第十章并不是重点,所以并没有做很详细的笔记k近邻学习k近邻学习是一种常用的监督学习方法工作机制:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k 个“邻居”的信息来进行预测通常,在分类任务中可使用“投票法” ,即选择这k个样本中出现最多的类别标记作为预测结果;在回归任务中可使用“平均法”,即将这k个样本的实值输出标记的平...

2019-12-31 09:52:37 2541

原创 机器学习(西瓜书)第九章笔记

该博客是在一篇博主的基础上该的,如果要看详细的,可以参考他的博客:https://blog.csdn.net/shichensuyu/article/details/94552906聚类的应用生物进化树寻找优质客户推荐系统信用卡照片黑客攻击聚类和分类的区别聚类没有学习集,告诉我这些样本点如何去分类,无监督学习分类:有监督学习什么样的聚类结果比较好呢...

2019-12-31 09:51:06 936

原创 机器学习(西瓜书)第七章笔记

极大似然估计这种参数估计方法虽能使类条件概率估计变得相对简单,但是结果的准确性严重依赖于所假设的概率分布形式是否符合潜在的真实数据分布。Laplacian correction避免了因训练集样本不充分而导致概率估值为零的问题,并且在训练集变大时,修正过程所引入的先验的影响也会逐渐变得可忽略,使得估值渐渐趋向于实际概率值。贝叶斯分类中后验概率P(c|x)的求解确实很困难,于是提出...

2019-12-31 09:43:56 1498

原创 机器学习(西瓜书)第六章笔记

如果能找到一个超平面,把二分类问题分隔开,则采用拉格朗日结合KKT条件求解该问题如果不存在这样的超平面可以正确划分该怎么办?将样本从原始空间映射到一个更高维空间,使得样本在这个特征空间内线性可分,计算过程就是将样本x换成一个向量µ(x)习题答案:4.讨论线性判别分析与线性核支持向量机在何种情况下等价。在线性可分的情况下,LDA求出的wlwl与线性核支持向量机求出的wsws...

2019-12-31 09:42:57 1200

原创 机器学习(西瓜书)第五章学习笔记

标准BP算法和累积BP算法的比较标准BP算法每次只针对单个样例,参数更新得非常频繁,而且对不同样例进行更新的效果可能出现“抵消”现象。因此,为了达到同样的累积误差极小点,标准BP算法往往需要进行更多次数的迭代累积BP算法:直接针对累计误差最小化,它在读取整个训练集D一遍后才对参数进行更新,这样参数更新得频率就会小很多,但是同...

2019-12-31 09:41:35 2447

原创 机器学习(西瓜书)第四章笔记

Part1 名词解释 一棵决策树包含一个根节点,若干个内部节点和若干个叶节点,叶节点对应决策结果,其他每个节点测对应于一个属性测试,每个结点包含的样本集合根据属性测试的结果被划分到子结点中,根结点包含样本全集,从根节点到每个叶节点的路径对应了一个判别测试序列。 决策树学习的目的是为了产生一颗泛化能力强,及处理未见示例能力强的决策树,其基本流程遵循简单且直观的“分而治之...

2019-12-31 09:32:23 607

原创 机器学习(西瓜书)第三章笔记

Part5关于多分类学习 以上两种方法可以从存储开销和训练时间两个角度来分析模型的优势。海明距离:就是比较测试实例中与上面的每一行不同的个数欧式距离:以测试集和第一行为例,sqrt[(1-(-1))2+(-1-1))2+(1-(-1))2]=sqrt(12)关于习题答案习题3.1:试分析在什么情况下,在以下式子中不比考虑偏置项b线性模型y...

2019-12-31 09:31:21 1923

原创 机器学习(西瓜书)第二章

该笔记是在学习周志华老师《机器学习》这本书的过程中所做的笔记Part1 经验误差与过拟合精确度=1-错误率泛化误差:在新样本上的误差过拟合:学习器把训练样本学得太好了,很可能已经把训练样本自身的一些特点当作了所有潜在样本都具有的一般性质,这样会导致泛化能力下降产生过拟合的原因:学习能力太强了欠拟合:对训练样本的一般性质尚未学好欠拟合产生的原因:学习能力低下...

2019-12-31 09:30:02 1007

原创 机器学习(西瓜书)第一章学习笔记

Part1 名词解释训练过程中使用的数据集称为训练集,其中的每一个样本称为训练样本。测试:学得模型后,使用该模型进行预测的过程,被预测的样本成为测试样本假设:学得模型对应于数据的某种潜在规律,这种潜在的规律自身成为真相或真实学习的过程就是为了找出或逼近真相,将这种模型成为学习器样例:拥有标记信息的示例分类:预测的是离散值,则称分类回归:预测的是连续纸,则称回归...

2019-12-31 09:24:40 403

超限学习机在疾病相关性预测的应用

关于超限学习机在生物信息领域的应用,主要lncRNA与疾病关联预测。这只是一个我自己方向的代码研究,仅供参考

2020-05-23

西电矩阵论讲义.doc

主要是矩阵论讲义,后面的自己看吧,肯定有用的,共分12章,主要介绍线性空间与线性变换、内积空间与等距变换、特征值与特征向量、λ-矩阵与Jordan标准形、特殊矩阵、矩阵分析初步、矩阵函数的应用、矩阵的分解、非负矩阵、矩阵的广义逆、Kronecker积。

2020-01-08

机器学习简答题笔记.docx

该文档是我在准备《机器学习》(周志华版)研究生期末考试过程中所作的笔记,里面包含一些可能考的点,同时加上了一些在复习过程中对于不理解知识点的补充,根据自己的自身情况所作的笔记,可能不全,还望海涵!

2019-12-31

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除