为什么说社会形态影响着SOA面向服务架构思想?

产品将面对的社会形态

新研发的平台产品所面临的问题是:面对激烈的商业竞争形势,使大多数企业都面临着增长业绩、提高生产率和降低成本的压力,而产业的趋势是业务方法不断变化,特别表现在企业重构和解构这两个特征上。

企业重构:传统上的企业管理是一种层次化的垂直结构,打造了一个具有固定业务、确定交互、执行高效的模式。但是当竞争形势和市场需求发生变化的时候,它就与动态业务的趋势相冲突,阻碍了快速反应时间。这种外部压力迫使企业重新定位,向水平集成的业务流改变,这就形成了企业重构的趋势。

产业解构:在企业重构中,企业会根据自己的能力进行业务专业化。企业专注于自己的核心业务,业务以外的任务通常外包给第三方来提供实际的支援和交付,每个第三方再将重点放在提高自身的核心服务上,这就形成了产业的解构,以及新的产业链的形成。

这种业务不断变化的特征,对于以现代物流业为背景的仓库管理系统,同样有明显的表现。换句话说,所设计的仓库管理系统平台应该具有业务敏捷的变化特征。

面向服务的架构(SOA)的思想

软件是一种思维,而思维是受我们自己所处的社会形态影响的。

我们来观察社会形态的变化,随着社会需求趋向于复杂化和多样性,今天的社会形态逐步地向服务型社会转移。基于服务的企业诸如金融、交通、商店、法律等,它们本身有自己的工作流程,而流程的入口是用户需要,输出是用户需要的结果。
用户并不关心这些服务企业内部流程,他们需要的就是输入和输出。用户要做的事情,就是根据自己的需要,编排这些服务,以更方便、更快捷、更高的质量,来满足自己千变万化的需求。对这种基于服务的社会形态的理解,能给我们带来什么启示呢?如下图(A,C)所示。


如果在架构设计的时候也映射这种服务型社会的思想,把具备完整性和稳定性的业务做成一种托管服务,由上层应用业务去编排它们,如上图(B、D)所示。这样,当业务流程发生变化的时候,或者重新编排,或者加入新的服务,就可能使这种技术架构能够适应流程的变化。理解这一点很重要,它为我们的架构思想提供了基本的机制背景。

这就是面向服务的架构(SOA)的基本思想,它的特点是把软件部署为一种托管服务,可以通过网络访问,由客户按需定制和组合不同的服务完成既定的业务(业务敏捷)。还需要注意一点的是,与社会形态一样,服务必须强调规约,没有规约,服务本身也就不存在了。这些对于社会形态的考察,使我们对于软件架构形态与方法论的本源有了更深入的理解。

面向服务的架构(SOA)基本形式

综上所述,在实际产品设计中,技术架构可以分成服务提供、服务编排和服务消费三个层。为了避免点对点服务带来的问题(不能改变信息、难以跟踪服务使用状况、难以验证、安全隐患等),可以通过企业服务总线(Enterprise Service Bus,ESB)对服务进行集中管理。必要的时候,还可以应用云计算服务完成资源的合理配置。基本的面向服务架构如下图所示。



服务应该是无状态的,也就是服务不依赖于任何事先设定的条件和其它服务的状态,是状态无关的,所以它们可以被编排以执行商业逻辑。


深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值