机器学习
文章平均质量分 79
小白顶呱呱
在校科研民工(黑奴不是、)
展开
-
0基础入门模型训练 ——【完整的模型训练套路】神经网络计算,tensorboard展示计算train_loss、test_loss、test_accuracy
本次模型训练采用CIFAR10数据集 ,数据集中一共有 50000 张训练图片和 10000 张测试图片,尺寸为 32×32。原创 2024-07-23 14:05:32 · 363 阅读 · 0 评论 -
激活函数——Sigmoid、tanh、ReLU、softmax激活函数
Sigmoid函数的图形是一个S形曲线,也称为逻辑曲线。当输入值 𝑥 非常大时,函数输出趋近于1;当输入值 𝑥 非常小时,函数输出趋近于0。当 𝑥 接近0时,函数的输出约为0.5。给定元素 x ,ReLU函数被定义为该元素与 0 对比中的最大值。在二分类任务时,经常使用sigmoid激活函数。而在处理多分类问题的时候,需要使用softmax函数。它的输出有两条规则。ReLU函数通过将相应的活性值设为0,仅保留正元素并丢弃所有负元素。如下为ReLU函数的曲线图。σ(x) 是Sigmoid函数的输出。原创 2024-07-26 10:20:29 · 1080 阅读 · 0 评论 -
python中的_xx、_ _xx、_ _xx_ _和__init__()、__new__()、__str__()、__del__()、__call__()等方法详解
_xxx "单下划线 " 开始的成员变量叫做保护变量,意思是只有类实例和子类实例能访问到这些变量,需通过类提供的接口进行访问;*不能用’frommodule import '导入。_ _xxx 类中的私有变量/方法名 (Python的函数也是对象,所以成员方法称为成员变量也行得通。)," 双下划线 " 开始的是私有成员,意思是只有类对象自己能访问,连子类对象也不能访问到这个数据。“_ xxx _ ”系统定义名字,前后均有一个“双下划线”, 代表python里特殊方法专用的标识,如 “_ _init原创 2024-07-31 09:28:32 · 752 阅读 · 0 评论 -
NLP经典论文阅读——Transformer、BERT、LSTM、Elmo
论文提取链接:链接: https://pan.baidu.com/s/1iN1SAjXCqqpycCtlp-ugrw 提取码: 6p5c。–来自百度网盘超级会员v6的分享。原创 2024-07-19 14:16:04 · 266 阅读 · 0 评论 -
监督学习、无监督学习、半监督学习、弱监督学习、强化学习 和 主动学习
弱监督学习通常指的是训练数据的标签质量不完全可靠,可能是不准确的、噪声较多的或是不完全的。例如,利用搜索引擎的结果为图像自动标注标签,这些标签可能不完全准确。原创 2024-08-01 14:15:12 · 1295 阅读 · 0 评论 -
一个最简单的模型验证套路——验证训练好的模型【附完整代码】
在这里将模型验证过程包裹在with torch.no_grad()中,在这个上下文中,所有操作都不会追踪梯度,即不会计算梯度信息,这有助于加快计算速度并减少内存使用。同理,本文采用的 CIFAR10数据集 中的图像数据大小为 32×32 ,所以我们这里也需要将图像处理成 32×32 的大小并将图像转换为张量的形式。任意加载一张照片 (上文模型训练CIFAR10数据集中十个分类中的一种,我这里加载的是修勾~)。这里由于我加载的是PNG图片,PNG图片为RGBA四个颜色通道,这里需要将他转换为RGB色彩。原创 2024-08-02 09:16:45 · 444 阅读 · 0 评论 -
准确率、精确率、召回率、F1-score 概念、计算原理
TP(True Positives):真正例,即正例预测为真(预测为正例而且实际上也是正例);FP(False Positives):假正例,即负例预测为真(预测为正例然而实际上却是负例);FN(false Negatives):假负例,即正例预测为假(预测为负例然而实际上却是正例);TN(True Negatives):真负例,即负例预测为假(预测为负例而且实际上也是负例)。原创 2024-07-25 09:55:39 · 891 阅读 · 0 评论 -
梯度下降概念图解——BGD批量梯度下降、SGD随机梯度下降、MBGD小批量梯度下降
求所有点误差的平均值:(其中x,y和样本数n都是已知数,用常量a,b.c分别代替)对于这个图来说:点p1的均方误差e1就为:e1=(y1-w*x1)^2。表示了学习所需要付出的代价,该函数也是样本点拟合过程的映射(如下图)。拓展到计算每一个点就可以算出无数的e1,e2,e2…SGD随机梯度下降,每下降一步只需要用一个样本进行计算。loss function: 得出的误差函数。BGD批量梯度下降是梯度下降最原始的方式,)重复直至找到最低点。原创 2024-08-07 13:52:02 · 332 阅读 · 0 评论 -
动手深度学习基础知识——张量、点积、Hadamard积
张量乘以或加上一个标量不会改变张量的形状,其中张量的每个元素都将与标量相加或相乘。给定两个向量X,Y,它们的点积(dot product)是相同位置按元素乘积的和。(Hadamard product)(数学符号见下图)。张量是描述具有任意数量轴的n维数组的通用方法。,其中第i行和第j列的元素是bij。两个矩阵的按元素乘法称为。(在1加法中定义)和。原创 2024-08-08 14:23:20 · 262 阅读 · 0 评论