日攻一卒
balabalabiubuibiu
这个作者很懒,什么都没留下…
展开
-
实时数据可视化:使用 Flask, Socket.IO 和 Chart.js 创建动态更新的图表
socket.on('new_number', function(msg) { ... }): 定义一个事件监听器,当从服务器接收到 new_number 事件时触发。var myChart = new Chart(ctx, { ... }): 使用 ctx 和 data 创建一个新的图表实例。labels: 一个空数组,将用于存储X轴上的标签。data: 一个空数组,将用于存储Y轴上的数据点。原创 2023-10-10 17:37:21 · 595 阅读 · 0 评论 -
解析 神经网络中的 计算加权输入
计算输入数据self.X 和self.weights 的点积,矩阵乘法的结果, 得到加权的输入: z_a。举个例子, 整个神经网络就是一个菜谱, 而每个神经元又是烹饪过程的一个步骤。通过加权输入, 神经网络能自动学习输入数据的特征,并转化为更有意义的表示。具体来说, 在每个神经元中, 输入数据和对应的权重进行线性组合 即。中的一项计算, 他会对输入的数据进行处理 ,并将结果传递给下一层。这个 计算加权输入在神经网络中处于一个什么样的位置呢?主要作用是将输入数据和权重进行线性组合, 并。原创 2023-05-10 09:14:34 · 380 阅读 · 0 评论 -
加载cifar10和cifar100数据集
使用函数 ‘tf.keras.datasets.cifar10.load_data()’ 函数加载cifar10的训练(样本、标签) 测试(样本、标签),同理 cifar100。使用np.concatenate 拼接两个训练数据集, train_10 和train_100 , axis=0就是垂直方向拼接 ,对每个像素执行归一化, 将每个像素/255 , 缩放到【0,1】同理, 对标签进行合并。原创 2023-05-09 15:48:41 · 500 阅读 · 0 评论 -
SGD优化算法的更新步骤
使用梯度下降更新公式来更新参数的值:就像你需要不断地调整车座的高度和方向盘的位置一样,优化算法需要使用梯度下降的公式来更新神经网络中的参数。. .将参数的梯度清零:就像你不希望之前的车座高度和方向盘位置影响到当前的调整一样,优化算法需要在更新完参数之后将其梯度清零,以便下一次计算梯度不受之前的影响。遍历 params 中的所有参数:就像你需要调整自行车的各个部分一样,优化算法需要遍历神经网络中的所有参数,以便调整它们的值。上下文管理器来避免记录更新操作的计算图和梯度信息,以减少内存消耗和提高代码效率。原创 2023-05-08 14:37:50 · 467 阅读 · 2 评论 -
日攻一卒 --- batch_size 和 准确率的关系
为了找到适合您问题的最佳批量大小,您可以尝试这些常用值,并根据训练速度和准确率来确定合适的大小。收敛速度:较大的批量大小可以加速训练过程,因为每个批次处理的样本更多。较小的批量大小可能会导致模型收敛速度较慢,但由于噪声较大,有助于模型跳出局部最小值。准确率:在许多情况下,较小的批量大小可以提高模型的泛化能力。因此,选择合适的批量大小对于在训练速度和准确率之间实现平衡至关重要。计算资源:较大的批量大小需要更多的内存。较小的批量大小占用较少的内存,使得训练可以在具有有限资源的设备上进行。原创 2023-05-08 11:18:44 · 1635 阅读 · 0 评论 -
日攻一卒 ---机器学习中 标准化和归一化的区别?
在机器学习中,标准化是一种常用的数据预处理方法,与归一化不同,标准化是一种基于特征的统计量,例如均值和标准差, 来缩放数据的方法。具体来说,归一化的目的是将数据的值域缩放到一个固定的范围内, 通常是【0,1】或者【-1, 1】。在机器学习中, 归一化是一个重要的预处理步骤,归一化可以将所有的特征放到相同的尺度, 以确保他们具有相同的重要性。因为不同的特征之间的单位(量纲)可能不同,导致某些特征对模型的训练和预测产生更大的影响。他的目的是将数据缩放到相同的尺度,去除异常值的影响,以便于模型的训练和优化。原创 2023-04-25 15:01:48 · 154 阅读 · 0 评论 -
日攻一卒 ---正态分布
正态分布,也称高斯分布,是一种连续概率分布。在正态分布中,数据的大部分值集中在均值附近,并且符合“68-95-99.7规则”,即在一个标准差内的数据占据了约68%的比例,在两个标准差内的数据占据了约95%的比例,在三个标准差内的数据占据了约99.7%的比例。正态分布在自然界和社会科学中都有广泛的应用,因为许多现象,例如人类身高、智力、收入等都呈现出正态分布的特征。其中,μ是均值,σ是标准差,π是圆周率,e是自然常数。原创 2023-04-21 15:24:55 · 238 阅读 · 0 评论 -
随机梯度下降算法SGD(Stochastic gradient descent)
随机梯度下降SGD stochastic gradient descent原创 2023-03-14 14:46:49 · 8536 阅读 · 0 评论 -
基于核方法的测试实例 学习笔记
基于核方法的测试实例原创 2023-03-09 10:34:54 · 179 阅读 · 0 评论 -
均值、方差、标准差的理解
评价计算机性能的 数学基础知识原创 2023-04-20 22:16:36 · 1731 阅读 · 0 评论 -
日攻一卒 ---- SimCLR -自监督学习方法
对比学习(Contrastive Leaning): 学习如何将不同的样本区分开, 即学习将不同的样本映射到不同的空间位置上。通常通过比较两个样本的相似性来学习,将相似的样本映射到相近的空间位置上, 将不想死的样本映射到远离的空间位置上。自监督学习(Self - Supervised Learning): 在没有标注标签的情况下,通过利用数据的自身特点进行学习的一种机器学习方法。通过对图像进行数据增强和对比学习来学习到有用的特征表示,从而在没有标签的情况下实现了有监督学习的效果。原创 2023-04-21 11:15:59 · 538 阅读 · 0 评论