python
文章平均质量分 80
justld
努力努力再努力
展开
-
二阶系统时域分析:二阶系统单位阶跃响应曲线
继上一篇博客 一阶系统时域分析,下面进行二阶系统时域分析,上篇链接:https://blog.csdn.net/qq_40035462/article/details/89350543前言在经典控制理论中,常用时域分析法、根轨迹法或频域分析法来分析线性控制系统的性能,不同的方法有不同的特点和适用范围,但是比较而言,时域分析法是一种直接在时间域中对系统进行分析的方法,具有直观、准确的优点,并且可...原创 2019-05-06 12:32:31 · 35437 阅读 · 1 评论 -
[Python入门教程]01 Python开发环境搭建
本文介绍python开发环境的安装,使用anaconda做环境管理,VS code写代码。搭建开发环境是学习的第一步,本文将详细介绍anaconda和vs code的安装过程,并测试安装结果。可以看到当前有一个base虚拟环境,这里新建一个名字为learning的虚拟环境,python版本为3.9,命令为 conda create -n learning python=3.9。鼠标右键->在终端中打开,输入命令 conda init,关闭终端。,说明环境已经搭建完成。原创 2023-10-07 21:14:51 · 331 阅读 · 0 评论 -
【模型部署】PaddleOCR模型openvino部署(二)
上一篇博客【模型部署】PaddleOCR模型openvino部署(一)介绍了PaddleOCR检测模型DBNet的部署方法,本篇将介绍文本方向分类、文本识别的 部署方法,同时将检测、方向分类、文本识别模型串联起来,给出完整的部署流程。原创 2022-04-26 20:59:11 · 3225 阅读 · 3 评论 -
【模型部署】PaddleOCR模型openvino部署(一)
本文将使用openvino部署PaddleOCR官方提供的检测模型,实现文本检测功能。原创 2022-04-09 12:24:25 · 5340 阅读 · 7 评论 -
【深度学习】学习率策略合集
深度学习中有各种学习率策略,本文统计了pytorch和paddlepaddle共16种学习率策略,给出示例代码及对应的学习率变化图,相信一定对你有所帮助。原创 2022-03-16 17:06:08 · 4739 阅读 · 0 评论 -
深度学习归一化方法
神经网络学习的本质就是学习数据的分布。如果没有对数据进行归一化处理,那么每一批次训练的数据的分布就有可能不一样。本文介绍了深度学习中常用的几种归一化方法,并且使用numpy实现了几种方法,相信一定能让你有所收获。原创 2022-03-09 20:59:56 · 6930 阅读 · 0 评论 -
深度学习梯度裁剪策略及numpy实现
神经网络是通过梯度下降来进行网络学习,随着网络层数的增加,"梯度爆炸"的问题可能会越来越明显。例如:在梯度反向传播中,如果每一层的输出相对输入的偏导 > 1,随着网络层数的增加,梯度会越来越大,则有可能发生 "梯度爆炸"。如果发生了 "梯度爆炸",在网络学习过程中会直接跳过最优解,所以有必要进行梯度裁剪,防止网络在学习过程中越过最优解。本文实现了3中梯度裁剪策略,并与pytorch/paddle实现的方法进行对比。一、clip by value设置梯度范围为[-value, value原创 2022-03-06 20:38:55 · 1074 阅读 · 0 评论 -
深度学习损失函数numpy实现并与torch对比
深度学习损失函数原理及numpy实现,并于torch对比。原创 2022-03-06 11:52:10 · 2857 阅读 · 0 评论 -
【深度学习目标检测】二、基于yolov3的人物摔倒检测
【深度学习目标检测】二、基于yolov3的人物摔倒检测本文的目标是使用yolov3目标检测算法实现任务摔倒检测,使用的深度学习框架为paddlepaddle,目标检测算法框架paddledetection。检测效果图如下:一、介绍基于YOLOv3模型实现跌倒检测,使用极少的代码实现。可以用于医院,疗养院等公共场合。本文的不会介绍算法原理和实现过程,提供最简单的已经训练好的权重,仅提供预测代码。二、算法原理yolov3算法原理可以参考以下:1、【论文解读】Yolo三部曲解读——Y原创 2022-02-25 17:07:44 · 3469 阅读 · 0 评论 -
【深度学习实战】一、Numpy手撸神经网络实现线性回归
使用python的Numpy从头实现神经网络,并以线性回归问题为例,检验模型效果。不管是刚刚入门的小白,还是深度学习的资深从业者,相信你都能有所收获。原创 2022-02-23 09:21:01 · 2046 阅读 · 0 评论