深度学习
文章平均质量分 68
凤枭香
从新兴技术的萌芽到经典难题的剖析,从算法迷宫的探索到数据结构森林的漫步,我与你一同遨游于技术的海洋。在这里,技术不再是冰冷的逻辑,而是充满温度的思考与感悟。
我以笔为媒,将复杂的技术知识转化为易于理解的文字,让每一位读者都能在技术的旅途中找到共鸣与启迪。欢迎加入我的博客,让我们在技术的世界里,共同追寻那份属于自己的诗意与远方。
展开
-
网络基础-4
在管理员设备上面的是SNMP Client,被管理设备上的是SNMP Server,管理信息是通过在SNMP Sever和SNMP Client之间进行SNMP报文的交互而实现的。配置了ACL的设备,接收到一个报文之后,会将该报文和ACL的规则进行逐条匹配,一旦报文匹配上某条规则,则设备会对该报文执行规则对应的处理动作,并且不在进行后续的匹配。聚合链路在工作中,由于帧的长度有长有短,于是帧的传输时间就有长有短,而不同的帧所经过的成员链路又可能不同,所以一般情况下总是会出现乱序现象。原创 2023-10-27 15:39:35 · 202 阅读 · 0 评论 -
网络基础-3
原理是一台路由的RIP路由表中的目的地/掩码为ZY的路由信息通过该路由的interface-x接口学习的,该路由器由interface-x接口发送响应消息时,响应消息仍然需要包含ZY这个路由信息,但这个路由项的Cost总设置为16。:原理是一台路由的RIP路由表中的目的地/掩码为ZY的路由信息通过该路由的interface-x接口学习的,该路由器由interface-x接口发送响应消息时,响应消息中一定不包含关于ZY这个路由的信息。一条路由的开销时指到达这条路由的目的地/掩码需要付出的带价值。原创 2023-10-27 15:32:07 · 238 阅读 · 0 评论 -
网络基础-2
IEEE制定了一个名为GARP的协议框架,该框架协议包含了两个具体协议,GMRP和GVRP。GVRP可以大大降低VLAN配置过程中的手工的工作量。IP本身是一个协议文件的名称,该协议主要定义阐释了IP报文的格式。子网掩码是由32个比特组成的,也可以看作是由4个字节组成,并且通常以点分十进制来表示。通常子网掩码中1的个数被称为这个子网掩码的长度。原创 2023-10-27 15:14:37 · 874 阅读 · 0 评论 -
网络基础笔记-1
指计算机/交换器/路由器等网络设备为了实现通信而必须遵从的,事先定义好的一系列规则和约定。比如:HTTP/FTP/TCP/IP v4/IEEE802.3等等,一类是各网络设备厂商自己定义的私有协议,另外一类是专门的标准机构定义的开放式协议(开放性协议或者开放协议),二者的关系有点像方言和普通话的关系。光和电信号,所用的传输介质主要有空间、金属导线和玻璃纤维三大类。主要是传递电磁波。主要传播电流和电压信号。主要是指光纤,用来传递光信号,光纤中的光的传播速度大约只有光速的2/3。原创 2023-10-27 14:54:21 · 213 阅读 · 0 评论 -
FASTAPI的简单理解
上面的示例中,路径中的{language_id}声明了一个路径参数language_id,对应的函数find_language(language_id)中通过定义同名的函数参数来接受数据值,但此处未对参数类型进行定义,所以在返回数据时采用int(language_id)对数据值进行了类型转换。查询参数 q 的类型是 Optional[str],即它的类型是 str,但也可以是 None(其实,是它的默认值为 None), q 是可选参数。如果把有默认值的参数置于无默认值的参数前,Python 会报错。转载 2022-10-28 17:35:35 · 861 阅读 · 0 评论 -
百度paddleocr检测训练
1.准备一个新的虚拟环境,安装下载的源码当中对应的requirements.txt文件,记住paddle的版本尽量和下载的代码版本一致,使用tensorrt需要的paddlepaddle版本也不一样,需要去官网查找。program.py调整ArgsParser下面的-c-config指定为.yml的配置文件路径(也就是你修改的配置文件路径)最后训练好可以在./output/db_mv3下面的yml中查看训练的配置文件。Label.txt保存的gt框的坐标(一般用的都是这个)2.准备自己的数据集。...转载 2022-07-26 16:21:13 · 1507 阅读 · 4 评论 -
paddleocr的加速和部署
一.代码准备下载2.0版本以上的paddleocr:paddleocr2.0以上的在训练自己模型的时候有参数: load_static_weights: True #是否将预训练模型保存在静态图形模式所以,只要安装好了tensorrt一般都可以直接使用,Serving也需要2.0版本以上的二.tensorrt的安装可以参照以下方法安装tensorrt:https://blog.csdn.net/zong596568821xp/article/details/8原创 2022-04-28 15:32:02 · 2236 阅读 · 6 评论 -
milvus-以图搜图-mian.py
milvus-以图搜图原创 2022-04-28 14:29:50 · 3147 阅读 · 0 评论 -
YOLOv5-标签转换
yolov5-标签数据转换代码原创 2022-04-28 08:48:45 · 553 阅读 · 0 评论 -
yolov5的tensorrt加速转换
YOLOv5的tensorrt加速原创 2022-04-25 15:43:09 · 3913 阅读 · 0 评论 -
FASTAPI
FASTAPI,MD5,返回图片,上传文件,多个文件上传,单文件上传原创 2022-04-24 11:30:36 · 667 阅读 · 0 评论 -
遇到的问题-python
查看指定gup进程: sudo fuser -v /dev/nvidia* *指全部gpu,可以用1,2,3,4指定GPU查看ps -ef | grep python3查看python3命令运行的进程后台运行:nohup python xxx.py &进行后台运行代码,可以直接关闭电脑关闭进程:kill -9 -9 后面空格加上进程号,即可关闭指定进程指定路径虚拟环境创建:conda create --prefix=D: python=3.5–p原创 2022-04-22 11:42:40 · 1320 阅读 · 0 评论 -
AI算法题--2
深度可分离卷积操作流程:正常卷积核是对3个通道同时做卷积。也就是说,3个通道,在一次卷积后,输出一个数。深度可分离卷积分为两步:第一步用三个卷积对三个通道分别做卷积,这样在一次卷积后,输出3个数。这输出的三个数,再通过一个1x1x3的卷积核(pointwise核),得到一个数。所以深度可分离卷积其实是通过两次卷积实现的。第一步,对三个通道分别做卷积,输出三个通道的属性:第二步,用卷积核1x1x3对三个通道再次做卷积,这个时候的输出就和正常卷积一样,是8x8x1:如果要提取更多的属性,则需原创 2021-09-29 09:56:26 · 312 阅读 · 0 评论 -
AI算法题-1
深度学习的常见的初始化:Pre-train初始化高斯分布初始化Xavier初始化:标准正态分布,均匀分布Kaiming初始化:标准正态分布,均匀分布Lecun正交矩阵初始化稀疏矩阵初始化单位矩阵初始化SVM损失函数:线性支持向量机SVM:在学习支持向量机的过程中,因为其损失函数的形状像一个合页,故命名合页损失函数。下图为合页损失函数的图像:横轴表示函数间隔,我们从两个方面来理解函数间隔:正负当样本被正确分类时,y(wx+b)>0;当样本被错误分类时,y(wx+b)<原创 2021-09-28 15:42:01 · 391 阅读 · 0 评论 -
浅谈基础神经网络-3
总结希望对大家有用,可以关注一下嘛!!!原创 2021-09-15 10:40:58 · 64 阅读 · 0 评论 -
浅谈基础神经网络-2
DenseNet:DenseNet核心思想在于建立了不同层之间的连接关系,充分利用了feature,进一步减轻了梯度消失问题,加深网络不是问题,而且训练效果非常好。相比ResNet,DenseNet提出了一个更激进的密集连接机制:即互相连接所有的层,具体来说就是每个层都会接受其前面所有层作为其额外的输入。由于密集连接方式,DenseNet提升了梯度的反向传播,使得网络更容易训练。DenseNet采用直接将所有输入连接到输出层。网络模型:DenseNet结构:DenseNet的整体结构主要包含稠密原创 2021-09-15 09:55:43 · 299 阅读 · 0 评论 -
浅谈常见的基础神经网络
LeNet:基本结构:INPUT输入层、C1卷积层、S2池化层、C3卷积层、S4池化层、C5卷积层、F6全连接层、Output全连接层。INPUT层,一般图像输入3232,本层不算LeNet-5的网络结构,传统上,不将输入层视为网络层次结构之一。卷积层C1,对输入图像进行第一次卷积运算(使用 6 个大小为 55 的卷积核),得到6个C1特征图(6个大小为2828的 feature maps, 32-5+1=28)。卷积核的大小为55,总共就有6*(55+1)=156个参数,其中+1是表示一个核有一个bi原创 2021-09-14 16:20:06 · 327 阅读 · 1 评论 -
常见的激活函数
Sigmoid函数:Sigmoid 是常用的非线性的激活函数,可以将全体实数映射到(0, 1)区间上,其采用非线性方法将数据进行归一化处理;sigmoid函数通常用在回归预测和二分类(即按照是否大于0.5进行分类)模型的输出层中。函数:求导:优点: Sigmoid的取值范围在(0, 1),而且是单调递增,比较容易优化、 Sigmoid求导比较容易,可以直接推导得出。**缺点:**Sigmoid函数收敛比较缓慢、由于Sigmoid是软饱和,容易产生梯度消失,对于深度网络训练不太适合(从图上si原创 2021-09-13 15:13:29 · 442 阅读 · 0 评论