![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能学习
黄佳俊、
to be or not to be!
热爱生活!
执着学习!
展开
-
如何确定K-means算法中的k值?
最常用最简单的方法可视化数据,然后观察出聚类聚成几类比较合适 绘制出k-average with cluster distance to centroid的图表,观察随着k值的增加,曲线的下降情况,当曲线不再“急剧”下降时,就是合适的k值 计算不同k值下KMeans算法的BIC和AIC值,BIC或AIC值越小,选择该k值 使用 Canopy算法先进行粗略的聚类,产生的簇的个数,作为KMeans算法的k值 使用x-means方法结合BIC准则去判定簇的个数,也就是k值 使用Gap Statistic原创 2022-05-25 09:41:33 · 2590 阅读 · 0 评论 -
python使用numpy读取data文件
什么是DATA文件类型?.data扩展名普遍用于与通用数据文件(DATA)文件类型相关联。DATA文件类型被任意应用于包含某种可用的、通常只能由机器读取的数据的各种计算机文件。数据文件可以是简单的文本列表、数据库表转储、原始格式的重命名数据库文件、索引列表、二进制数据容器(可能是加密或数字签名的)或任何其他可以存储有意义("有效载荷")数据的文件。此外,.data文件在计算机编程中也经常遇到,它们作为内存转储或特定应用的数据容器出现。很多时候,data文件在MMORPG风格的游戏中是用来将游戏原创 2022-05-25 09:32:10 · 7680 阅读 · 0 评论 -
决策树、装袋、提升和随机森林的对比理解
决策树决策树是一种简单、常用的基础模型。之所以说它简单,不仅因为它的思想原理简单具体、贴近实际,它并不需要像线性回归模型一样用一个数学公式来表征,而是由规则来抽象。说它基础,是因为它是一系列复杂强大的模型的基础。决策树的基本思想是通过将数据不断划分,使原来混乱的数据信息逐渐清晰。举一个简单的例子:如果你去相亲,你可能以外貌为第一特征来决定是否继续往下考虑;如果外貌过关了,你可能还会考虑职位和收入水平;如果收入水平也过关了,再去考虑品质……这种层层筛选的过程就蕴含着决策树的朴素思想。决策树不局限于原创 2022-05-24 16:58:27 · 1619 阅读 · 0 评论 -
把cifar100的图片切割成一张张图片
把cifar100的图片切割成一张张图片(python代码):# -*- coding:utf-8 -*-import pickle as pimport numpy as npimport matplotlib.pyplot as pltimport matplotlib.image as plimgfrom PIL import Imagedef load_CIFAR_batch(filename): """ load single batch of cifar """原创 2022-05-22 16:22:10 · 168 阅读 · 0 评论 -
pytorch报错:Target is out of bounds
查看网络的最后输出的输出节点数是否等于所有的标签数原创 2022-05-21 20:32:04 · 2274 阅读 · 2 评论 -
神经网络(深度学习)常用的4种最优化方法——SGD、MOMENTUM、ADAGRAD、ADAM
、SGD描述随机梯度下降法(stochastic gradient descent),策略是朝着当前所在位置的坡度最大的方向前进。PYTHON类class SGD: def __init__(self, lr=0.01): self.lr = lr def update(self, params, grads): for key in params.keys(): params[key] -= self.lr * grads[key]二、MOM原创 2022-05-21 20:30:56 · 1895 阅读 · 0 评论 -
用 PyTorch 复现 LeNet-5 等神经网络资源
示例:我用 PyTorch 复现了 LeNet-5 神经网络(MNIST 手写数据集篇)!_红色石头Will的博客-CSDN博客资源:https://github.com/RedstoneWill/ObjectDetectionLearner/tree/main/LeNet-5原创 2022-05-21 19:52:37 · 167 阅读 · 0 评论 -
深度网络的过拟合问题讨论
1.问题背景最近在做深度学习实验的时候,遇到了一个棘手的问题,就是大家熟知的“过拟合”,直观的表现在图中。分析来说就是在拟合训练集的时候可以很好的实现深层网络,损失小,准确率高(我这里可以达到99.99%)。然而,测试集的损失非常大,准确性在相对较低的范围内波动(在我的情况下为70%-80%)。并非如文中所述,测试集的损失随着迭代次数的增加而减少,而是精度随着迭代次数的增加而增加。如果你看不出上图有什么问题,我就放一张理想状态下的结果图来对比一下(如下图粗线所示),不过大概意思在那里。随着迭代次原创 2022-05-21 19:31:28 · 1174 阅读 · 0 评论 -
A*算法学习博客推荐
参考文章:理解用:用A*算法解决十五数码问题(人工智能作业)_编程小白呀的博客-CSDN博客_十五数码难题怎么玩跟着做:【人工智能】实验报告及A*搜索方法走迷宫(基于曼哈顿距离) - 哔哩哔哩 (bilibili.com)...原创 2022-04-21 09:45:48 · 1118 阅读 · 0 评论