人事档案管理系统总结(二)---用文档和客户交流

          2013年8月21日,又有一次去人才市场给客户发布了人事档案管理系统,但是这一次去


不在是以前那样带着沉重和害怕的心情去了。这次去是带着轻松的心情去了,因为是带着开发


小组人员一个多月的辛劳汗水去的,而且这些辛劳汗水能够他们看见的。


         带着开发小组做好系统和客户打交道的时候,常常会出现以下几种情况:


         1. 客户把上一次提出的需求给忘记的,发现做出来的系统不是他想要的。虽然说客户是


上帝,但是客户也是人,对于头上说过的话,可能过了一会,客户就把自己刚说完的需求给忘


记了,特别是再一次去给客户发布系统的是,客户感觉某些功能不是他们想要的东西,而且


客户还感觉自己说得很清楚了,但是发现开发人员开发出来的系统确不是他们想要的东西,


然后客户感觉自己说了很多次了,这个时候客户的态度就会慢慢的有点不耐烦了,感觉自


己花了钱,却得不到自己想要的东西。


         2. 需求变更。在学习软工的时候,了解需求的变更是很正常的。但是客户的需求按着


他自己的想法来,无止境的变更,这样就是不好的了。有时候带着做好的系统给客户验收,


这是他们一拍脑门子又有了新的想法了,甚至这些想法会让已经开发好的系统大动,这时


候就等着回来翻工吧,翻工是一个特别痛苦的过程,看着开发小组辛辛苦苦做来的东西,


给客户看过之后不满意,又得推翻了重新做,那种感觉会让人对自己失去信心,怀疑自


己是不是很笨,客户提出的要求都不能满意;会让人对整个系统有一种厌倦感,想去逃


避整个系统;会让自己变成一个怨妇,抱怨着客户的需求怎么三天两头都在变啊,到底


客户想要的是一个怎么样的系统啊!甚至很多时候客户都是不知道自己真正需要的是一


个怎么样的软件。例如客户和你说“我要实现统计功能”,但是客户具体需要统计什么信息,


他自己都是说不清楚的。这时候不管是开发人员还是客户只能摸着石头过河了。


         3. 客户在抱怨开发系统的时间过长。客户感觉这些功能没有什么,就那么一点点功能,


怎么到开发人员那里花费的时间就那么长呢,客户在怀疑你是不是能力不够,你是不是没有


认真的在做他的系统,在做他的系统的同时又在给别人做系统,从而耽误做他们的系统。例


如我们做人事档案管理系统的时候,8月8号的时候去给客户发布了一次系统,但是8月8号的


时候给的需求变更得比较厉害,其中也有一部分原因是当初做需求的时候,对于客户的业务流


程不熟悉,在设计的时候,没有考虑到位。回来修改的时候,花费的时间有点长,8月21号去


的时候,客户就在抱怨我们修改的时间过于长了,不过时间确实有点点长,但是我们也是在马


不停蹄的做,都是边做边摸索。


         4. 去给客户部署了一个下午的系统,回来感觉没有什么成就感,倒是抱回来了一大堆系


统需要修改的地方,还有一大堆变更的需求,回来还得马不停蹄的给人家做系统,虽然说自己


在系统中可以学习到很多东西,但是看到自己劳动成果被否认,就感觉特别不是滋味。而且自


己还无法向上级领导交代。当系统做的时间长了,客户的领导人给自己的领导打电话说“你们


怎么还没有做系统,你们是怎么一回事啊?”那我们如何让领导有个好的回复,让对方知道我们


一直都是努力给他做系统呢。


         对于以上的四个问题,就是一样东西就可以很好的解决了,让以上的四个问题都不在是


问题了,那就是文档。在学习软工的时候,在做个人版机房收费系统的时候,在做合作开发机房


收费系统的时候,总是感觉不出来文档的好处,感觉有没有文档都一样,反正都能开发出来,那


是因为我们对机房收费系统的代码太熟悉了,对机房收费系统的业务太熟悉了,就算是闭着眼睛


就能够知道那个功能到底是做什么用的。但是做一个你完全陌生的系统的时候,就文档的好处就


提现出来了。


         在做人事档案管理系统的时候,前期去谈需求的时候,只是用手机录了音,但是由于本人


有点懒,没有整理成一份完整的文档,并让客户签字确认。就直接开始做了,本来对档案管理这


一部分的业务流程就不理解,做出来的系统有很多地方是不满足客户的需求的,每次去发布系统,


客户就会给挑出各种不是,需求各种变更,回来重复做着工作,那种很不爽的感觉让我对这个系


统产生了很强的厌倦感,已经无法静心把这个系统做下去了。后来听取老师的建议,把每次变更的


需求写成需求变更文档,并让客户确认好,签好字,我们就按照文档上面的变更需求修改,从那个


时候起,我们就很少再会在某个地方重复的修改了。


         这次去的时候,我把整理好的需求文档和概要文档整理好,并打印出来,一共80多页,拿给


客户的领导签字,领导看完了文档,说了一句:“看得出来你们很认真在做这个系统了,你们在这个


系统上花了不少心思!”那个时候感觉特别好,让客户肯定自己,让客户知道我们在为他努力的做系统。


而且有了文档,自己也可以向自己的领导交差,让自己的领导知道自己最近一段时间都在干什么了。


现在每次去给客户发布系统的时候,当场把需要变动的地方或者是需要添加的功能整理好让客户签字,


还有就是打印一份确认发布书让客户签字,而且每次的变更都会在回来的时候整理好放到需求文档,


概要文档和详细设计文档中,下次再去的时候,让客户的领导把这些需求文档,概要文档,详细设


计文档签字,让他知道我们在努力为他开发软件。而且回来的时候,看着客户签好字的文档 ,感觉


特别有成就感,感觉自己一个下午的时间是有所值的。


         而且这次去的时候,我真正体会到了需求文档,概要设计文档到底应该如何写,这次去的


时候,我主要是带了需求文档,概要设计文档去的,我观察了客户在看文档的时候,他比较关心


的是功能实现后达到一个怎么样的效果。在文档里面客户会去去看用例图和软件设计的界面,


大概会实现的是哪些功能,这些功能实现后是一个怎么样的效果。


         和客户的交流单单是口头上的交流和录音是远远不够的,要让客户说的每一句话都变成


文字,并且让客户为自己所说的话签字负责。这样减少了开发人员在某一个功能上不断翻工,


同时也让客户看到自己的劳动。而且与客户使用文档交流,可以让开发人员处于主动状态,


而不是被动状态!便于潜在用户了解系统的功能、性能等各项指标,为他们选购或制订符


合自己需要的系统提供依据。

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

弯_弯

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值