机器学习&神经网络
文章平均质量分 63
不能为空
CQU_JIAKE
这个家伙不是很懒,只是最后依然也没有留下什么
展开
-
2.27线性模型
可以利用无监督学习解决的问题,大致分为两类:。在购物篮分析中被广泛地应用。如果发现买面包的客户有百分之八十的概率买鸡蛋,那么商家就会把鸡蛋和面包放在相邻的货架上。聚类问题维度约减:顾名思义,。特征选择是指选择原始变量的子集。特征提取是将数据从高纬度转换到低纬度。广为熟知的下面介绍的第六-第八(Apriori算法,K-means算法,PCA主成分分析)都属于无监督学习。3. 强化学习通过学习可以获得最大回报的行为,强化学习算法通过。这类算法在机器人学中被广泛应用。原创 2024-03-18 11:23:30 · 1051 阅读 · 0 评论 -
1.27CNN(输入层,特征提取(卷积,最大池化),输出),损失函数(KL散度,交叉熵推导),熵(物理、信息熵推导),点积矩阵运算(CPU,GPU,NPU)
B部分是训练集的真实实际值,是常数,C部分是训练结果,目的是要让这个损失最小化,与模型参数紧密相关,取出C(带负号),C非负就是更精简的损失函数。原创 2024-02-02 22:50:25 · 510 阅读 · 0 评论 -
1.27马尔科夫链,抽样蒙特卡洛模拟(逆转化方法,接受拒绝矩阵),马尔科夫链蒙特卡洛MCMC,隐马尔科夫(HMM(V算法剪枝优化),NLP)
1,如果a,b被采纳,就使横坐标a上对应的高度++,就是说第一步还是随机在定义域上选,然后在确定纵坐标时,上界不再是一个常数,而也是一个动态变化的天花板ZX,这样就能提高通过率。原创 2024-02-02 22:50:05 · 945 阅读 · 0 评论 -
1.26遗传算法
初始阶段就是一个随机的排列。原创 2024-01-31 12:18:57 · 545 阅读 · 0 评论 -
1.26布雷斯悖论(设计做减法,使效率更高,netlogo模拟),自组织映射神经网络SOM
红色的是普通道路,车越多通行时间越长假定条件是均衡状态就是两条路的通行时间相同纳什均衡并不一定是全局最优纳什均衡的关键就是单个个体做出改变时,只会使自己的利益受到损失,而不会使其他人发生改变在达到纳什平衡时,是每个个体都遵循使自己利益最大化的方式。原创 2024-01-31 12:18:28 · 833 阅读 · 0 评论 -
1.25GAN生成网络对抗模型,框架,损失函数
就是说识别器针对两种图片有两个损失函数,对于来自真实图片训练集中的图片,用的是概率越大损失越少的损失函数;对于假图片,即来自生成器的图片,用的是概率越大损失越大的损失函数。就是说图片的特征被分扁平化为一个一维向量,然后这个一维向量各个维度的特征按照各自权重参数给到神经网络进行处理,两个图片各自有一个一维向量,所以在录入时是9*2个参数设置。先是原始的图像,然后经过扁平化处理,变为9*1的一维向量,接着给神经网络,有9个权重参数。生成器的目的是骗过识别器,所以损失函数是用概率越大损失越少的损失函数。原创 2024-01-30 11:54:23 · 653 阅读 · 0 评论 -
1.24CNN(基本框架),RNN(简单RNN,LSTM,GRU简要)两个参考论文
H就是每层神经元所产生的一个输出信号,输出层产生的信号经过输出函数转化为最终输出。当遗忘门值为0时,意味着上期记忆完全遗忘;就是说简单的RNN模型容易导致梯度消失以及梯度爆炸的问题。在输出阶段可以使用sigmoid函数返回01值。整体框架类似于数电里的状态机、时序逻辑电路。S函数返回0到1,T函数返回-1到1。CNN是卷积神经网络。原创 2024-01-29 23:52:56 · 862 阅读 · 0 评论 -
1.24ANN神经网络(BP)(激活函数的类型,选择,构建不同的ANN网络(二分类,多分类,多标签,线性回归),实例)
sigmoid函数的导数值小于等于0.25。原创 2024-01-29 23:52:29 · 575 阅读 · 0 评论 -
1.23神经网络框架(sig函数),逆向参数调整法(梯度下降法,链式法则(理解,及处理多层神经网络的方式))
就是说,激励函数是确定每层神经元递归下去时所带的一项,就是描绘的输入与输出之间的递归变化关系,sig函数是x(1-x)w,(对应是里层输出x,以及参数w不变,输入边)每递归一层,就会多一个这样的形式,这样的形式由激励函数所确定,就是求导求出来的然后还有2(E-y),这个是由最外面的梯度下降的检验方式,即误差平方所决定的,每个表达式里都有,而且唯一。原创 2024-01-28 18:02:38 · 1424 阅读 · 0 评论 -
1.23聚类算法(kmeans(初始随机选k,迭代收敛),DBSCAN(dij选点),MEANSHIFT(质心收敛),AGENS(最小生成树)),蚁群算法(参数理解、过程理解、伪代码、代码)
聚类结果不变。原创 2024-01-28 18:02:06 · 900 阅读 · 0 评论 -
1.22SVM(对偶性,KKT条件,核函数(高斯核函数RBF,参数伽马),软间隔问题(对误差容忍,参数C),总结,例题),SVM流程,代码,划分指定类数
将原始空间中的向量作为输入向量,并返回特征空间(转换后的数据空间,可能是高维)中向量的点积的函数称为核函数。使用内核,不需要显式地将数据嵌入到空间中,因为许多算法只需要图像向量之间的内积(内积是标量);在特征空间不需要数据的坐标。这个核函数计算出来的结果,直接就是这两个向量之间的空间相似度;自变量是两个向量间的距离在面对非线性SVM划分,可以使用高斯核函数对于高斯核函数,伽马值越小,对距离的容忍度越大;就是说小伽马值更容易使两个相差不近的点被划分为同一类当中,导致预测精度的下降。原创 2024-01-26 10:23:02 · 1651 阅读 · 0 评论 -
1.21信息熵理解,一个好看的框架图,SVM
就是说,每个事件都会提供一些信息以确定情况事件发生的概率越大,意味着频率越大,就有越多的可能性,能缩减的查找范围就越少,所以信息熵就少;事件发生的概率越小,意味着频率越小,就有更少的情况会发生这样的事件,那么能缩减的查找范围就会增大,所以信息熵就大;所谓信息熵实际上就是事件发生后用来衡量能缩减多大的查找空间,能缩减多少的情况数。能缩减(2^信息熵)的情况数。原创 2024-01-26 10:22:31 · 866 阅读 · 0 评论