写在前面的话

之所以会开始写博客,一方面在于想梳理好每天的思想,一方面在于说不准会碰到一个两个能聊得来的有缘人。
爱好看书思考,知识是死的,看进去是否嚼碎了,就要看能不能表达得出来。

现代年轻人是轻浮的,被一个巨大信息的社会噪音不断诱惑。似乎永远无聊不下来,总有新鲜的刺激,也似乎永远是无聊的,是否真的能感受到自己的存在。

我也就是这么一个刚步入社会的年轻人,离开了象牙塔的生活,一切都既陌生又充满诱惑,似乎能干很多事,又总是什么事都干不了。

大概总结下以前,学习不温不火,热爱生活喜欢锻炼,爱好则是在一些小物件上,特别是计算机,所以职业选择在了软件。能去干一份喜欢的工作,至少每天都不会讨厌正在做的事。实习期跟着一个小团队做了一个小项目,也算是杀过猪的人了吧。毕业后因为单位原因,也有年轻独有的肆无忌惮,裸辞,在家边学习边寻找机会。

学习方向是IOS,本想找一份类此实习的工作边做边学习,不求任何待遇只求学习机会,奈何天不如人愿。现在的创新公司不愿意培养新人,这也和国情有关,人太多了就不值钱了。

也许前面的无奈也是为了等待一个机会,现在进入了一家互联网金融公司。公司刚起步,什么都在筹备中,特别适合新人来练级,也因为其得天独厚的后台,我个人是非常看好这个行业和这个公司的。

转折就在这里悄悄开始了,我本来想着自己就只是一个单纯的技术,单纯撸代码的程序员。而目前的要求,是必须要“软件+金融”相结合。这无疑是开启了一扇新鲜的大门。

从一个只注重原理的思维,加入一个去了解整个资本运作的思维,这种冲击不可谓不大。

目前刚刚起步,这也是我开始写博客的主要原因,我想记录好我的每一步。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在神经网络模型中,反向传播是指根据预测误差来调整模型中每个参数的值,以使模型的预测结果更加准确。反向传播的过程可以分为两个阶段:前向传播和反向传播。在前向传播阶段,模型接收输入数据并计算输出结果。在反向传播阶段,模型根据误差反向传播,计算每个参数对误差的贡献,并根据参数的贡献来更新参数的值。具体而言,反向传播阶段需要计算损失函数对每个参数的偏导数,然后利用链式法则逐层计算每个参数对损失函数的偏导数,最终得到每个参数的梯度。根据梯度下降算法,我们可以利用这些梯度来更新模型中的参数,以最小化损失函数。反向传播是神经网络模型训练的核心步骤之一,它能够使神经网络模型逐渐优化,提高预测准确率。 ### 回答2: 反向传播是神经网络中一种常用的训练算法,其任务是通过迭代的方式优化神经网络的权重和偏置,以使网络能够更好地拟合输入与输出之间的关系。在反向传播的过程中,我们需要完成以下几个任务。 首先,我们需要计算神经网络的输出值与期望输出之间的误差。通过比较网络输出与期望输出之间的差异,我们可以获得网络所产生的误差信号。接着,我们需要将这个误差信号传播到网络的每一层,以确定每个神经元对总误差的贡献程度。 在传播误差信号的过程中,我们需要计算每个神经元的梯度。这个梯度可以告诉我们,在当前权重和偏置下,误差函数对于该神经元的影响程度。为了计算梯度,我们需要使用链式法则将误差依次传递给神经网络的每一层。 在计算完每个神经元的梯度后,我们可以根据梯度的方向来调整网络的权重和偏置。通过将梯度乘以学习率,我们可以确定每个参数在每次迭代中的更新量。这样,网络的权重和偏置就会逐渐调整,以减小网络输出与期望输出之间的误差。 反向传播算法重复执行上述任务,直到网络的输出误差达到一个可接受的水平或达到预定的训练迭代次数为止。通过不断地迭代和调整网络的参数,我们可以使神经网络不断地优化自己的拟合能力,从而提高其在输入和输出之间的预测准确性。 ### 回答3: 在反向传播阶段,主要任务是计算神经网络中每个参数的梯度,以便更新参数以最小化损失函数。反向传播过程中,首先计算输出层的损失函数对权重和偏置的导数,然后利用链式法则逐层计算隐藏层的梯度。 具体来说,首先计算输出层的梯度。通过计算损失函数对输出层激活函数输入的导数,将该导数乘以损失函数对输出层输出的导数,即可得到输出层的梯度。然后,通过梯度和权重的乘积,计算损失函数对输出层前一层输入的导数。这个过程称为反向传播。 接下来,利用链式法则计算隐藏层的梯度。对于每一层,计算损失函数对该层输入的导数,然后将其乘以该层输入对该层的权重和偏置的导数,得到对应层的梯度。这个过程一直持续到输入层。 在计算梯度之后,可以利用梯度下降等优化算法来更新神经网络的参数。通过不断迭代反向传播和参数更新的过程,神经网络可以逐渐学习到适合数据的权重和偏置,从而提高模型的性能。 总之,反向传播阶段的主要任务是计算神经网络中每个参数的梯度,以便更新参数以优化模型性能。这个过程通过链式法则和梯度下降等算法进行,目的是使网络能够适应输入数据并得到准确的预测结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值