人工智能
文章平均质量分 68
爱吃饭的我。
这个作者很懒,什么都没留下…
展开
-
张量维度变换
在神经网络运算过程中,维度变换是最核心的张量操作,通过维度变换可以将数据任意地切换形式,满足不同场合的运算需求。那么为什么需要维度变换?通过线性层的批量形式入手其中,假设X包含了2个样本,每个样本的特征长度为4,X的shape为[2,4]。线性层的输出为3个节点,即W的 shape 定义为[4,3],偏置b的shape 定义为[3]。那么X@W 的运算结果张量 shape 为[2,3],需要叠加上 shape 为[3]的偏置b。不同shape的2个张量怎么直接相加?原创 2024-08-08 15:04:14 · 757 阅读 · 0 评论 -
张量的典型应用
标量的一些典型用途是误差值的表示、各种测量指标的表示,例如准确度(Accuracy,简称acc)、精度(Precision)和召回率(Recall)等。图片数据是特征图的一种,对于含有RGB3个通道的彩色图片,每张图片包含了h行w列像素点,每个点需要3个数值表示RGB通道的颜色强度,因此一张图片可以表示为[h,w,3]。矩阵也是非常常见的张量类型,例如全连接层的批量输入张量X的形状为[b,d],其中b表示输人样本的个数,即 Batch Size,d表示输入特征的长度。分别表示特征图的高/宽,原创 2024-08-08 10:55:34 · 160 阅读 · 0 评论 -
Tensorflow数据类型
TensorFlow是一个面向深度学习算法的科学计算库,内部数据保存在张量(Tensor)对象上,所有的运算操作(Operation,简称OP)也都是基于张量对象进行的。复杂的神经网络算法本质上就是各种张量相乘、相加等基本运算操作的组合。TensorFlow中基本数据类型包含****原创 2024-08-07 20:27:31 · 668 阅读 · 0 评论 -
逻辑回归
逻辑回归:二分分类算法。原创 2024-08-02 10:08:51 · 100 阅读 · 0 评论 -
梯度下降算法
梯度下降原创 2024-08-01 21:58:48 · 230 阅读 · 0 评论 -
线性回归问题
高斯分布的概率密度函数在μ处达到最大值,并且关于μ对称。标准正态分布(均值为0,标准差为1的高斯分布)的概率密度函数形式为。数据需满足相互之间独立,故拿到数据后经常做一个打乱操作。似然函数:找寻一组参数能跟数据组后恰好是真实值。高斯分布(正态分布):数据大多分布在均值附近。σ 是标准差,决定了分布的宽度或变化程度。μ是分布的均值,即钟形曲线的中心位置。机器学习的基础和前提:误差项的定义。同分布:数据来源尽可能一致。e 是自然对数的底数。那现在的问题又转化为使得。现在开始对目标函数求解。原创 2024-08-01 15:58:40 · 669 阅读 · 0 评论 -
回归问题和误差项
回归问题和误差项原创 2024-07-31 23:26:00 · 420 阅读 · 0 评论