基础概念
文章平均质量分 50
努力的小巴掌
zero to hero
展开
-
reshape函数
【代码】reshape函数。原创 2024-06-09 14:04:54 · 216 阅读 · 0 评论 -
从softmax分类问题看神经网络的核心
`.reshape((-1, W.shape[0]))` 这个操作将`X`调整形状,使得它能与权重矩阵`W`进行矩阵乘法。如果重塑后的`X`形状为`(batch_size * height * width, in_features)`,而`W`的形状为`(in_features, out_features)`,那么结果将会是一个形状为`(batch_size * height * width, out_features)`的张量,表示每个输入样本通过线性变换后得到的输出特征向量。原创 2024-06-09 11:44:06 · 702 阅读 · 2 评论 -
交叉熵损失
其中,yiy_iyi 是真实标签的第 i 个类别的概率,y^i\hat{y}_iy^i 是模型预测的第 i 个类别的概率,log\loglog 是自然对数。交叉熵越小,表示模型的预测结果与真实标签之间的差异性越小,模型的性能越好。其中,yyy 是真实的二分类标签(0或1),y^\hat{y}y^ 是模型预测的概率值。y_hat = torch.tensor([[0.2, 0.8], [0.6, 0.4], [0.4, 0.6]]) # 模型预测的概率分布,每个样本有两个类别的概率值。原创 2024-06-08 15:57:40 · 231 阅读 · 0 评论 -
Softmax函数
其中,eee 是自然对数的底数,ziz_izi 是向量 zzz 的第 iii 个元素,kkk 是向量 zzz 的长度。Softmax函数将向量 zzz 中的每个元素转换为一个概率值,使得所有概率值的和为1,可以用来表示多个类别的概率分布,常用于神经网络的输出层进行多类别分类。Softmax函数是一个常用的激活函数,通常用于多类别分类问题中的输出层。它将输入的实数向量转换为概率分布向量,使得每个元素都在0到1之间,并且所有元素的和为1。原创 2024-06-08 15:54:26 · 136 阅读 · 0 评论