行为者网络理论(ANT,Actor Network Theory):一切皆是映射

问题模型

关键词:关系思维,过程思维

在计算机软件的世界里,一切都是虚拟的。一切皆是映射关系的存在。无论 OOP、FP。

在现实世界里,是不是也是这样?现实世界真的存在吗?为何人生如梦?

物质符号网络如何共同发挥整体作用?

参与创造意义的参与者 Actors 群体既是物质的又是符号学的。

如何将不同元素一起关联到网络中,以使它们形成表面上连贯的整体?

这些网络可能是瞬态的,存在于不断的制造和再制造中。这意味着需要反复“执行”关系,否则网络将解散。他们还假设关系网络在本质上并不协调,可能确实包含冲突。社会关系,换句话说,只有曾经在过程中,必须进行持续。

这个过程,跟大型复杂软件系统的架构构建道理也是相通的。

Actor 与 Actor 网络互动后,立即陷入关系网中,成为宇宙万物的一部分。在该网络中,没有所谓的中心,也没有主—客体的对立,每个结点都是一个主体,一个可以行动的行动者,彼此处于一种平权的地位。主体间是一种相互认同、相互承认、相互依存又相互影响的主体间性的相互关系。非人

  • 7
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
ADP(Actor-Critic算法中的Actor)网络是一种用于强化学习的神经网络模型,用于执行动作选择的策略网络。在训练过程中,需要不断更新ADP网络中的权重,以使其能够更好地预测并执行正确的动作。 首先,我们需要定义ADP网络的损失函数。损失函数通常是由两部分组成:一个是策略网络输出的动作概率向量,另一个是该动作的优势函数或者是由Critic网络输出的值函数。这样就可以通过奖惩来调整网络的权重。 然后,我们使用梯度下降法来最小化损失函数。梯度下降法是一种通过不断迭代来更新权重的优化方法。通过计算损失函数对权重的梯度,我们就可以沿着梯度的反方向来更新权重,使得损失函数逐渐减小。 接着,我们使用反向传播算法来计算损失函数对权重的梯度。反向传播算法通过将损失函数从输出层向输入层逐层传播,计算每一层的权重对损失函数的影响,从而得到最终的梯度。 最后,我们根据计算得到的梯度来更新ADP网络中的权重。通过乘上一个学习率来调整梯度的大小,然后将权重按照梯度的方向进行更新。这样就可以不断调整网络的权重,使其更好地适应环境,并且能够更准确地执行动作。 总之,通过损失函数的定义、梯度下降法的运用、反向传播算法的计算和权重的更新,可以对ADP网络中的权重进行有效的更新,从而提高网络的性能和效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

禅与计算机程序设计艺术

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值