机器学习笔记
forever luckness
这个作者很懒,什么都没留下…
展开
-
计算生物学_01机器学习理论部分
计算生物学_01机器学习理论部分 1.1.1数据库的注释质量 如何发现数据中的错误和异常 机器学习技术能够有效的识别和发现错误的数据信息和错误的注释方法;在一批数据中,如果样本难以学习,那么他们很有可能是某些非正常情况,或者是注释不正确,在这种情况下,因该通过检测原始的数据质量,发现数据中的异常值,并除去这些异常数据,再进行分析。 机器学习能够识别真核生物基因内含子剪接位点的标识错误,也能...原创 2020-03-31 23:31:19 · 376 阅读 · 0 评论 -
机器学习_一条会说666的咸鱼
聚类对数据的要求 1.数据不能均匀分布 2.霍普金斯统计量,空间统计量,检验空间随机性,在给定的数据集D,它可以看作随机变量o的一个样本,我们想要确定o在多大的程度上,不同于数据空间中的均匀分布。 霍普金斯统计量的操作步骤 1.均匀的从D的空间中抽取n个点p1…pn,也就是说D中的每个样本点都以相同的概率包含在这个样本中,对于每个样本pi(1<=i<=n),我们找出pi在D中的最邻近,...原创 2020-03-17 10:18:12 · 710 阅读 · 0 评论 -
浙江大学_包家立计算生物学_神经网络
神经网络一般包括三层 输入层 隐匿层 输出层 每一个输入的数据,与相应的权重进行相乘,得到新的数值进入隐匿层,再隐匿层进行相应的数据变换(即经过激活函数的变换)新得到的数据是否到达激活函数的阈值,又称结果进行下一步的输出 。 a(i)是激活函数 o(i)是阈值函数 神经网络的三个要素 1.拓扑结构 分层结构 互联网结构 2.神经元的特性 即O(i)与neti之间的符合函数之间的关系 sig...原创 2020-03-16 09:43:22 · 1168 阅读 · 0 评论 -
浙江大学_包家立教授_计算生物学3_贝叶斯算法
贝叶斯算法 以上是一维变量,B条件下的A_K的概率,是条件概率闭上全概率 对于二维的连续变量 有以下的密度概率 在进行贝叶斯概率计算的时候,存在一个验前概率,也即经验概率,此处的经验概率是θ,此处的条件概率是在进行N次试验后,命中m次的概率 当g(θ)满足以下条件的时候 当先验概率为1的时候,上述的后验概率的式子 如下 在上述的这个式子里面,分母中的积分是一个β函数,他的积分值如...原创 2020-03-08 13:47:45 · 345 阅读 · 1 评论 -
浙江大学_包家立教授计算生物学2_信源编码理论
信源编码理论 信源编码理论 对于离散无记忆信源DMS 输入空间的字符是4位即A,A中的3个字符编码一个新的信号即氨基酸B,所以A的编码长度是3,B的解码长度是1,氨基酸的总数使20个,即B的字符数使20,若要使A编码的信息完全囊括输出信息B,则以上的不等式成立 N=1,D=20,K=4(此模型基于核苷酸编码氨基酸理论 ) DN>=KL 信道编码理论 从DNA向RNA转录的过程中,此个编码...原创 2020-03-08 12:47:32 · 373 阅读 · 0 评论 -
浙江大学-包家立计算生物学1
数据挖掘的过程 数据开采的目的 分类 聚类 相关性分析(自相关,互相关) 偏差分析 结果解释和评价 除无关模式 新选择算法 信息的传递 从信源出发,通过信道,传递给信宿 信息的编码,即从信源发出的信号,经过编码形成机器可以识别的信号,经过信道进行传播。 简单的如同,打电话,声音信号的传播,先经过编码,然后先通过信道(此处是电磁波)进行电信号的传播,通过电磁4信号干扰,可以影响信号的质量,这也就是...原创 2020-03-08 12:16:35 · 438 阅读 · 0 评论 -
机器学习算法-10贝叶斯信念网络、聚类算法、基于密度的方法DBSCAN
贝叶斯信念神经网络 bayes belief network (BNN), 朴素贝叶斯分类器需要特征之间相互独立的强条件,制约了模型的适用, 用有向无环图表达变量之间的依赖关系,变量用节点表示,依赖关系用边表示, 祖先,父母和后代节点。贝叶斯网络中的一个节点,如果他的父母节点已知,则它条件独立于他的所有非后代节点 每个节点附带一个条件概率表(CPT),表示该节点和父母节点的联系概率。 分类具有...原创 2020-03-03 10:17:26 · 632 阅读 · 0 评论 -
机器学习算法-09-深度学习、BP神经网络、Hopfield神经网络、基于数学原理的神经网络、径向基函数RBF(B站一条会说666的咸鱼)
Deep Learning 深度学习的概念源于人工神经网络的研究,含多隐层的多层感知器就是有一种深度学些的结构 ,深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征的表示。 概念于2006年由Hinton提出,基于深信度网DBN提出的非监督的贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络...原创 2020-02-24 11:59:03 · 1258 阅读 · 0 评论