『设计』Slithice 分布式架构设计-支持一体式开发,分布式发布

项目原因:

参与过各种 分布式项目,有 Socket,Remoting,WCF,当然还有最常用的可以跨平台的 WebService。

 

分布式编码的时间浪费:

但是,无一例外的,开发分布式程序的开发遵循 如下规律:

>那就是 得先写服务端代码;

>然后 通过工具生成代理类;(特别浪费时间)

>客户端代码 调用代理类 完成业务;

 

这种编码规律,就有一个问题:

那就是 当我们调试程序时,得先以调试模式启动服务端,再以调试模式启动客户端——然后在调试中找到代码的BUG。 这种调试方式 调试一次 需要 5-10分钟(太浪费时间);

如果 服务端是 基于 WinService 的话,过程就更麻烦:你得先卸载已经安装的WinService,再安装新的WinService,然后 附加进程,再以调试模式启动客户端。这种调试方式 调试一次 需要 10-15分钟(更浪费时间)

 

于是,针对调试时间的浪费,就有了 一体式开发,分布式发布 的设计(直接右键 调试,就能找到 服务端,客户端 两者的 BUG,最终发布时,只要将编译的程序集 丢到 服务端的目录下,就能直接实现功能)——这种调试方式 调试一次 只需要 0.5-1分钟。

 

分布式通常解决的问题:

>分布式用于解决:让多台机器同时办事,三个臭皮匠,顶个诸葛亮——以实现运行速度的最快速;

>分布式的稳定:当分布式中,一台机器宕机,其他机器依然办事——不会因一台服务器的问题 而影响整个程序的稳定;

但是,如果有如下意外:

>写好的分布式程序,本来用的是 WinService 的 WCF 做服务端,但是最后客户 买不起服务器,只能买个空间——于是我们得将 WinService 改成 WebService,得费多少人力物力;

>分布式中,两台服务器 做同一个事情,调度均衡 也是一个问题:你得让 高配置的服务器多做事,配置低的服务器少做事;少出错的服务器多做事,多处错的服务器少做事——这种调度均衡 恐怕 非专业人士 还得费一番脑经吧;

 

于是,就想  能不能有一种设计:

>一体式开发 分布式发布 的节省编码时间;

>已经编译的程序集 可以轻易丢到 任何类型的 服务端宿主下,随意更换 Socket,Remoting,WCF,WebService;

>而且实现调度均衡,平衡利用服务器资源;

 

设计过程:

>本设计其实在 之前的文章  《『架构』2013需要完成的 架构》 中,有过记录;

>而实际编码 从 2013-02 开始,但是断断续续时间一直并不充分,没有更多业余时间;

>目前的过程,仅停留在 现行Demo阶段(2013-05月左右完成):实现主要功能,忽略所有细节;

 

相关手稿 和 设计图:

 

 

 

 

 

关于设计图:

>其中,我们看到 客户端>Slithice调度模块>服务端>Action插件调度类;

>于是,我们 基于 Slithice 的内核,只需要实现 插件 就行;

>调试的时候,我们 不用 走 如上的线路,我们只需要  客户端>Action插件调度类; 于是就能轻易实现 一体式开发;发布的时候,将编译程序集 丢到服务端目录,就能实现 分布式发布

 

 

先行Demo 和 正在进行的整合版:

先行版 的 内核功能已经基本实现:实现核心功能,完成理想主义的运行;

整合版 却还在 编码过程中:实现细节,开始适应各种实际情况,且 还需要一个 集群配置器 的UI界面;

 

最后的简结:

>参与大大小小各种项目;公司的,学校的,个人的;已经五年了;

>当初觉得很难的技术,在今天看来 都不过如此;新的技术总在前方;

>各种项目,各种问题,各种思考,各种灵感 —— 有如泉涌的灵感 在这五年,总是接踵而至;

>五年了,没有自己实现不了的功能;没有自己学不会的技术;没有自己写不了的算法;没有自己攻克不了的技术攻关;

>但这些  功能,技术,算法,技术攻关 也是 无尽的;

>我以为 完成了  《『架构』2013需要完成的 架构》  中的事情,我可以 完美的 停下自己的业务时间编码;

>但是,编程作为一种兴趣,占据了自己太多的 业余下班时间;我现在很想将更多的业余时间 用到 其他方面;

>于是,本文的设计 并不是 之后编码的前奏,只是一个思想的备份;本文的设计 我可能 找不到时间 或者 不想 完成了;

>更多的,我想我更愿意花点时间 写几首情诗,打几个电话,看几本书,一切都慢慢来——放下自己有如着魔的编程;

 

 

 

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值