学习《实站OO: 用例建模,鲁棒分析,交互建模,过程总结,部署与实施》

用例建模

从需求开始的过程结束,有了静态的模型,用例建模是动态的模型。

整理需求开始:

识别参与者,

合并需求获得用例:将特征分配给相应的参与者,进行合并操作,绘制成用例图

细化用例描述:搭框架,填血肉,补缺漏

用例的粒度

思辨“四轮马车”,整理用例的层次

鲁棒分析

从分析到设计,到底差了什么呢,是否完备呢,使用鲁棒分析技术

鲁棒分析的作用: 

正确性检查,完整性检查,持续发现对象,对象确定,初步设计。

鲁棒性分析的元素

实体对象,控制对象,边界对象,

各个对象的交互是有严格定义的。

进行鲁棒分析

从事件流开始,寻找边界对象,找出相关的实体对象,“站前”准备,绘制边界对象,逐渐引入控制及实体对象

鲁棒分析图画完之后

根据分析图,完善之前的类和用例模型

交互建模

鲁棒分析之后,帮助更好地理解业务,边界,控制,那么这时可以抽象交互的模型了。

浅析交互模型

寻找对象之前的交互关系,强调顺序,强调协作。

构建交互模型

深入分析用例中的事件流,

引入实体对象,引入边界对象和参与者,引入控制对象。

交互建模之后

添加各类的属性与方法,引入基础类,质量评审,用设计模式进行优化。

过程总结

整体观念完成软件设计。

模型的演化过程,

从需求开始,用例基础上进行鲁棒分析,查漏补缺,交互建模,质量评审

现代软件开发过程

RUP模式、XP模式、FDD模式,共同点,建模演化的描述

结合实例理解开发过程

第一次迭代

捕获需求,建立初始的领域模型,建立用例模型框架,制定开会计划

第二次迭代

关键用例的鲁棒分析与交互建模、体系结构设计、建立类模型、关键用例的开发与测试、完善用例模型

后面的迭代

完成所用的用例

最后的迭代

整体测试、部署与安装、产品化

部署与实施

全局观的实现

系统物理结构——构件图

什么是构件,实施构件,工作产品构件,执行构件

构件图及其作用

对源代码进行建模,对可执行体的发布建模,对物理数据库建模,对可调整的系统建模

使用构件

分层:用户界面层,业务逻辑层,数据分析层

进行编码

根据构件,有效分工,干。

系统部署结构图——部署图

部署图初步

在硬件上的部署。

节点和连接,构件和接口,

部署图的作用

对处理器和设备建模,对构件的分布建模

部署图的应用

各个节点所需的软件,硬件配置,安装部署和维护提供信息。

开启征程

剩余关键介绍介绍和开始使用OO吧

面向对象的流程图——活动图

活动图的形式与应用

基本活动图,实例说明,

带泳道的活动图:业务建模阶段,系统分析阶段

业务状态的迁徙——状态图

各个对象的可能状态,可能的状态转换

如何学以致用

建立正确的态度,导入OO的最佳点——建模分析,如何渐入佳境——循序渐进,过程定义与改进和重要。

最后,写给自己:匆匆几个小时的时间,读完了徐峰先生的《实站OO》,受益良多,对我现在手头的工作的分析,要开展的工作,逐步有了些想法,希望自己能在今后的工作中,能逐步实现OO设计的各个关键点。

 

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值