总结XX餐饮收银项目中的得与失

 

 

      今天上午在米老师和坤哥主持,丁老师、李老师旁听的形式下,我们六期全体对前一个项目—XX餐饮收银系统项目中的得与失进行总结、讨论。

 

      这个项目算是第一个在真实不确定需求的情况下进行的一次商业软件开发。

 

      项目合作开发同样是在摸索、迷茫中进行。

 

      这次总结会,共由两个组长并带各组组员总结报告各自对此次项目开发过程的心得感悟。

 

      大家围坐乒乓球桌,谈了各自对这个项目的感想、总结,整理如下:

 

ü 整体项目开发进度的把控不严是我们的缺点,不知道该如何去规划、控制研发进度。(这是“缺”,就需要我们多“补”,多看一些能引起自己“同感”的资料。)

 

ü 整体项目交流、管理,跨级现象严重,反倒一定程度上削减了组长的项目责任感。(我们要分清自己在整个研发团队中的位置,并且明了自己的职责所在,在公司真实的软件研发,项目经理是不会过多理会一个程序员的任何提问的。)

 

ü “忠实的记录现实世界”,这是由学宇她们组没有很好处理项目版本控制,以及发布后的源码备份问题导致软件在实际应用中出现问题而引发的一次讨论。(历史、版本,对于我们来说,很重要。)

 

ü 要重视概要设计的作用,严谨、细心地做好详细设计是确保编码过程中避免各层模块大规模改动的一个好方法。

 

ü 开发过程中,组员之间的交流共通十分重要,文字交流总也是比不上语言交流。但文字交流(文档化)也是(历史)记录开发过程不可缺少的一部分。

 

ü 严格规范每个人的职责,并且严格所有设计、改动文档化。(目前我们的校园支撑系统开发过程中就开始将开发规范化、文档化。)

 

ü 对于用户提出的需求改动,项目主管要善于引导用户,将自己的软件设计优点更好的展现出来。(用户每一步针对需求的改动,都会直接或间接地给程序带来或多或少的“漏洞”,所以尽量减少临时变动)。

 

 

   米老师还提出,我们要“顺便学习”,从身边常见的优秀的软件应用中学习,学习那些设计的独特、方便之处;更是鼓励我们要勇于面对这些莫名的问题,查资料、解决掉它。

 

     

 

     说来,这次我的最大收获便是米老师微笑着鼓励我,“不会的,就去查”、“经历过,也就知道自己缺少什么,要学习什么了”,在目前经历越多的错误,便会在走向社会、进入公司之后因犯错造成的损失压缩到最低。

 

 

     这个项目开发的整个管理过程中,真真切切的体验了一把项目管理流程,感触颇多,问题最多的便是整体的宏观把控和人员管理。

 

     我会在接下来的校园支撑系统开发中慢慢感悟、落实、改正。

 

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我是一道光_

1分也是爱,鼓励鼓励

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值