dwjf321
码龄10年
关注
提问 私信
  • 博客:116,925
    问答:5,971
    122,896
    总访问量
  • 156
    原创
  • 16,561
    排名
  • 287
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:河北省
  • 加入CSDN时间: 2014-08-26
博客简介:

dwjf321的博客

查看详细资料
  • 原力等级
    当前等级
    4
    当前总分
    518
    当月
    28
个人成就
  • 获得320次点赞
  • 内容获得18次评论
  • 获得429次收藏
  • 代码片获得1,386次分享
创作历程
  • 3篇
    2025年
  • 36篇
    2024年
  • 4篇
    2023年
  • 5篇
    2022年
  • 36篇
    2021年
  • 71篇
    2020年
  • 1篇
    2019年
成就勋章
TA的专栏
  • 深度学习
    12篇
  • 神经网络
    8篇
  • 人工智能
    8篇
  • 机器学习
    16篇
  • pytorch
    8篇
  • AI
    3篇
  • 大模型
    4篇
  • python
    2篇
  • 算法
    2篇
  • 运维
    3篇
  • 数据库
    10篇
  • docker
    1篇
  • 搜索引擎
    25篇
  • mysql
    9篇
  • 面试
    3篇
  • 大数据
    65篇
  • hadoop
    14篇
  • redis
    5篇
  • kafka
    8篇
  • spark
    16篇
  • hive
    9篇
  • sqoop
    1篇
  • flume
    4篇
  • Zookeeper
    5篇
  • hbase
    1篇
  • flink
    12篇
兴趣领域 设置
  • 数据结构与算法
    排序算法推荐算法
  • 大数据
    hadoophivesparkflinketl
  • 人工智能
    opencv计算机视觉机器学习caffe深度学习神经网络自然语言处理tensorflowmxnetpytorch图像处理nlp数据分析scikit-learn聚类集成学习迁移学习分类回归
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

神经网络基础-价格分类案例

所谓的训练函数,指的是输入数据读取、送入网络、计算损失、更新参数的流程,该流程较为固定。我们使用的是多分类交叉生损失函数、使用 SGD 优化方法。该数据为二手手机的各个性能的数据,最后根据这些性能得到4个价格区间,作为这些二手手机售出的价格区间。需要注意的是: 在这个问题中,我们不需要预测实际价格,而是一个价格范围,它的范围使用 0、1、2、3 来表示,所以该问题也是一个分类问题。我们可以使用机器学习的方法来解决这个问题,也可以构建一个全连接的网络。使用训练好的模型,对未知的样本的进行预测的过程。
原创
发布博客 2025.01.16 ·
686 阅读 ·
8 点赞 ·
0 评论 ·
14 收藏

神经网络基础-正则化方法

在设计机器学习算法时希望在新样本上的泛化能力强。许多机器学习算法都采用相关的策略来减小测试误差,这些策略被统称为正则化。神经网络的强大的表示能力经常遇到过拟合,所以需要使用不同形式的正则化策略。目前在深度学习中使用较多的策略有范数惩罚DropOut特殊的网络层等,接下来我们对其进行详细的介绍。
原创
发布博客 2025.01.16 ·
647 阅读 ·
5 点赞 ·
0 评论 ·
3 收藏

神经网络基础-网络优化方法

梯度下降法是一种寻找使损失函数最小化的方法。从数学上的角度来看,梯度的方向是函数增长速度最快的方向,那么梯度的反方向就是函数减少最快的方向,所以有:其中,η是学习率,如果学习率太小,那么每次训练之后得到的效果都太小,增大训练的时间成本。如果,学习率太大,那就有可能直接跳过最优解,进入无限的训练中。解决的方法就是,学习率也需要随着训练的进行而变化。前向传播:指的是数据输入的神经网络中,逐层向前传输,一直到运算到输出层为止。
原创
发布博客 2025.01.11 ·
1005 阅读 ·
30 点赞 ·
0 评论 ·
11 收藏

机器学习(四)-回归模型评估指标

线性回归评估指标
原创
发布博客 2024.12.22 ·
385 阅读 ·
4 点赞 ·
0 评论 ·
3 收藏

机器学习(三)-多项式线性回归

我们发现如果把人口数量当成自变量X,把房价当成因变量Y,此时,y与 X 并不是呈现简单线性关系,我们无法用一条直线来拟合真实的数据。但是我们发现 y 与 x 呈现一种二次函数的关系,那我们就可以使用一个二次多项式函数的关系表达人口与房价的关系。红色的点表示每个地区的实际人口与房价的对应关系。可以看到,拟合的二次多项式在测试集上的表现是相当不错了,说明我们训练的线性模型有很好的应用效果。可以很好的看到拟合的二次多项式可以很好的表示原始数据的人口和房价的走势。x 轴是人口数量,y轴是房价。
原创
发布博客 2024.12.22 ·
607 阅读 ·
3 点赞 ·
0 评论 ·
9 收藏

机器学习(二)-简单线性回归

从图中我们可以看出预测值与真实值之间存在误差,那么我们引入机器学习中的一个概念均方误差,它表示的是这些差值的平方和的平均数。在机器学习和统计学中,简单线性回归是一种基础而强大的工具,用于建立自变量与因变量之间的关系。可以看到,拟合的直线在测试集上的表现是相当不错了,说明我们训练的线性模型有很好的应用效果。可以很好的看到拟合的直线可以很好的表示原始数据的人口和房价的走势。我们的目标是求 w0和w1的值,来找到一条跟预测值相关的直线。w1是斜率(自变量变化一个单位时,因变量的变化量)。
原创
发布博客 2024.12.22 ·
1082 阅读 ·
12 点赞 ·
0 评论 ·
5 收藏

神经网络基础-损失函数

在深度学习中,损失函数是用来衡量模型参数质量的函数、衡量的方式是比较网络输出和真实输出的差异:损失函数在不同的文献中名称是不一样的,主要有以下几种命名方式:在多分类任务通常使用softmax将logits转换为概率的形式,所以多分类的交叉熵损失也叫做softmax损失,它的计算方法是:其中:上图中的交叉熵损失为:从概率角度理解,我们的目的是最小化正确类别所对应的预测概率的对数的负值(损失值最小),如下图所示:在pytorch中使用实现,如下所示:输出结果:2.3. 二分类任务损失函数在处理二
原创
发布博客 2024.12.16 ·
1131 阅读 ·
10 点赞 ·
0 评论 ·
16 收藏

机器学习(一)-数据预处理

常见的缺失值补全方法:平均值和中位数。平均值是对整体很好的估计,而中位数是对整体中心很好的估计。如果数据特征分布比较稳定,平均值的效率会更高。中位数的稳定更好,能避免异常数值的影响。由于样本数据分布正常,这里使用平均值插值处理。对于字符串特征,我们需要把类别转换成数值,简单的做法是直接转换为数字。如:France=0,Korea=1,Germany=2。这种做法由于数字是连续的容易给机器学习一个误导。因此处理类别特征常用的方法是。定义:将原数据转换为符合均值为0,标准差为1的标准正太分布的数据。
原创
发布博客 2024.12.15 ·
426 阅读 ·
5 点赞 ·
0 评论 ·
6 收藏

神经网络基础-神经网络搭建和参数计算

神经网络的输入数据是为[batch_size, in_features]的张量经过网络处理后获取了[batch_size, out_features]的输出张量。在 pytorch 中定义深度神经网络其实就是层堆叠的过程,继承自。
原创
发布博客 2024.12.13 ·
1138 阅读 ·
17 点赞 ·
0 评论 ·
12 收藏

神经网络基础-参数初始化

均匀分布的 xavier 初始化:[-limit,limit] 中的均匀分布中抽取样本, limit 是 sqrt(6 / (fan_in + fan_out))。一般我们在使用 PyTorch 构建网络模型时,每个网络层的参数都有默认的初始化方法,优先选择 kaming 的初始化,xavier 初始化方式。均匀分布的 HE 初始化:它从 [-limit,limit] 中的均匀分布中抽取样本, limit是 sqrt(6 / fan_in)的高斯分布中取样,使用一些很小的值对参数W进行初始化。
原创
发布博客 2024.12.13 ·
859 阅读 ·
12 点赞 ·
0 评论 ·
9 收藏

神经网络基础-激活函数

激活函数用于对每层的输出数据进行变换, 进而为整个网络注入了非线性因素。此时, 神经网络就可以拟合各种曲线。没有引入非线性因素的网络等价于使用一个线性模型来拟合。通过给网络输出增加激活函数, 实现引入非线性因素, 使得网络模型可以逼近任意函数, 提升网络对复杂问题的拟合能力。如果不使用激活函数,整个网络虽然看起来复杂,其本质还相当于一种线性模型,如下公式所示:sigmoidtanhReLUSoftMax。
原创
发布博客 2024.12.13 ·
925 阅读 ·
16 点赞 ·
0 评论 ·
17 收藏

神经网络基础-初识神经网络

这个过程就像,来源不同树突(树突都会有不同的权重)的信息, 进行的加权计算, 输入到细胞中做加和,再通过激活函数输出细胞值。神经网络中信息只向一个方向移动,即从输入节点向前移动,通过隐藏节点,再向输出节点移动。当电信号通过树突进入到细胞核时,会逐渐聚集电荷。达到一定的电位后,细胞就会被激活,通过轴突发出电信号。)也简称为神经网络(NN),是一种模仿生物神经网络结构和功能的。各个神经元传递复杂的电信号,树突接收到。人脑可以看做是一个生物神经网络,由众多的。,然后对信号进行处理,通过轴突。
原创
发布博客 2024.12.13 ·
555 阅读 ·
8 点赞 ·
0 评论 ·
7 收藏

PyTorch基本使用-线性回归案例

我们使用 PyTorch 的各个组件来构建线性回归的实现。学习目标:掌握PyTorch构建线性回归模型相关API。
原创
发布博客 2024.12.11 ·
452 阅读 ·
5 点赞 ·
0 评论 ·
4 收藏

PyTorch基本使用-自动微分模块

训练神经网络时,最常用的算法就是反向传播。在该算法中,参数(模型权重)会根据损失函数关于对应参数的梯度进行调整。为了计算这些梯度,PyTorch 内置了名为。接下来我们使用这个结构进行自动微分模块的介绍。我们使用 backward 方法、grad 属性来实现梯度的计算和访问。学习目的:掌握自动微分模块的使用。当X为多维张量时梯度计算。当X为标量时梯度的计算。
原创
发布博客 2024.12.10 ·
582 阅读 ·
5 点赞 ·
0 评论 ·
10 收藏

PyTorch基本使用-张量的拼接操作

torch.cat()函数可以将两个张量根据指定的维度拼接起来,不改变维度数。学习目标:掌握torch.cat()使用。
原创
发布博客 2024.12.09 ·
128 阅读 ·
3 点赞 ·
0 评论 ·
0 收藏

PyTorch基本使用-张量的形状操作

transpose 函数可以实现交换张量形状的指定维度, 例如: 一个张量的形状为 (2, 3, 4) 可以通过 transpose 函数把 3 和 4。块组成的,它们并没有存储在整块的内存中,view 函数无法对这样的张量进行变形处理,例如: 一个张量经过了。squeeze 函数删除形状为 1 的维度(降维),unsqueeze 函数添加形状为1的维度(升维)。学习目标:掌握reshape()、squeze()、unsqueeze()、transpose()permute 函数可以一次交换更多的维度。
原创
发布博客 2024.12.09 ·
747 阅读 ·
5 点赞 ·
0 评论 ·
17 收藏

PyTorch基本使用-张量的索引操作

在操作张量时,经常要去获取某些元素进行处理或者修改操作,在这里需要了解torch中的索引操作。
原创
发布博客 2024.12.08 ·
622 阅读 ·
4 点赞 ·
0 评论 ·
3 收藏

PyTorch基本使用-张量的基本运算及函数计算

张量的基本运算及函数
原创
发布博客 2024.12.08 ·
389 阅读 ·
6 点赞 ·
0 评论 ·
1 收藏

PyTorch基本使用-张量转换

使用torch.tensor()可以将ndarray数组转换为Tensor,不共享内存。函数可以将张量转换为ndarray数组,但是共享内存,可以使用。可以将ndarray数组转换为Tensor,共享内存。对于只有一个元素的张量,使用。函数将该值从张量中提取出来。
原创
发布博客 2024.12.08 ·
558 阅读 ·
5 点赞 ·
0 评论 ·
4 收藏

PyTorch基本使用-张量的创建

python的基本使用,创建张量
原创
发布博客 2024.12.08 ·
1061 阅读 ·
14 点赞 ·
0 评论 ·
17 收藏
加载更多