自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

我是天才很好

只要你足够地努力,所有的美好终将如期而至。

  • 博客(17)
  • 资源 (2)
  • 收藏
  • 关注

转载 [python]树的前序、中序、后序遍历及深度优先算法DFS、广度优先算法BFS

树是一种的经典数据结构,它是典型递归思想来的,学习树有助于学习递归思想以及栈、队列,本文对树的结构、遍历算法以及Python实现做总结,以供复习拓展。树是连通的无环图,最常利用的有二叉树,即一个节点最多只有两个子节点,称为左子树和右子树。但是树都是相通的,无论是二叉树或者多个节点的树都能一般能用递归方法进行求解。二叉树节点之间的顺序一般不可调换,在数据结构定义时,左是左,右是右,不会说节点1,节点2。二叉排序树又叫二叉查找树或者二叉搜索树:1)若左子树不空,则左子树上所有结点的值均小于它的根节点的值;2

2020-08-30 11:16:42 570

原创 [python]动态规划

动态规划(英语:Dynamic programming,简称 DP)是一种在数学、管理科学、计算机科学、经济学和生物信息学中使用的,通过把原问题分解为相对简单的子问题的方式求解复杂问题的方法。动态规划常常适用于有重叠子问题和最优子结构性质的问题,动态规划方法所耗时间往往远少于朴素解法。动态规划背后的基本思想非常简单。大致上,若要解一个给定问题,我们需要解其不同部分(即子问题),再根据子问题的解以得出原问题的解。动态规划往往用于优化递归问题,例如斐波那契数列,如果运用递归的方式来求解会重复计算很多相同的子

2020-08-30 10:20:02 1163

原创 剑指offer(Python版本)

剑指 Offer 22. 链表中倒数第k个节点输入一个链表,输出该链表中倒数第k个节点。为了符合大多数人的习惯,本题从1开始计数,即链表的尾节点是倒数第1个节点。例如,一个链表有6个节点,从头节点开始,它们的值依次是1、2、3、4、5、6。这个链表的倒数第3个节点是值为4的节点。示例:给定一个链表: 1->2->3->4->5, 和 k = 2.返回链表 4->5.# Definition for singly-linked list.class ListNode(

2020-08-30 10:04:40 649

原创 牛客网OJ系统的常见输入输出(Python语言)

一、A+B(1)题目描述计算a+b输入描述:输入包括两个正整数a,b(1 <= a, b <= 10^9),输入数据包括多组。输出描述:输出a+b的结果示例1输入1 510 20输出630代码while True: try: A = list(map(int, input().split(" "))) print(sum(A)) except: break二、A+B(2)题目描述计算a+

2020-08-29 21:11:18 4737

原创 【赛码网 牛客网】输入输出总结(python版)

1. 单行输入n, m = map(int, sys.stdin.readline().strip().split())对该行中所有元素取整型后赋给等式左边若干参数2. 多行输入: 先获取第一行,再把剩余行合在一个列表中(适用于第一行告诉接下来有几行之类或者可以根据第一行得知接下来会有几行输入的题目:如【一共n个人,每个人有若干苹果,询问m次,输出拥有每次询问苹果数目的人数】输入:3 2 (3个人,2次询问)1 5 6 (3个人苹果数目)1 (第一次寻问)3 (第二次询问)输出:

2020-08-29 19:35:21 6991

原创 Pytorch保留验证集上最好的模型

方法一:验证集的作用就是在训练的过程中监测是否训练过度,即过拟合。一般可以默认验证集的损失函数值由下降转向上升(即最小值)处,模型的泛化能力最好。min_loss_val = 10 # 任取一个大数best_model = Nonemin_epoch = 100 # 训练至少需要的轮数for epoch in range(args.epochs): loss_val, loss_acc = train(epoch) if epoch > min_epoch and los

2020-08-23 10:37:45 15717 5

转载 python模块之函数组合(Function composition)

前言最近在yolo源码的utils.py文件中看到了一个函数compose. 里面给出了一个网址, 详细地介绍了复合函数的概念以及用法网址: https://mathieularose.com/function-composition-in-python/那么我们在python中构建复合函数就不得不先提一个很常见的python语法糖–lambda表达式。我们主要用到lambda表达式中的这种写法:def func(): return lambda x:x+1a = func()prin

2020-08-23 08:49:42 2022

原创 python类中的 __call__()方法运用

__call__()是一种magic method,在类中实现这一方法可以使该类的实例(对象)像函数一样被调用。默认情况下该方法在类中是没有被实现的。使用callable()方法可以判断某对象是否可以被调用。__call__()方法的作用其实是把一个类的实例化对象变成了可调用对象,也就是说把一个类的实例化对象变成了可调用对象,只要类里实现了__call__()方法就行。如当类里没有实现__call__()时,此时的对象p 只是个类的实例,不是一个可调用的对象,当调用它时会报错:‘Person’ objec

2020-08-22 21:11:43 15596 5

转载 基于PyTorch的目标检测数据增强

文章目录1. 简介2. 针对像素的数据增强3. 针对图像的数据增强3.1 随机镜像3.2 随机缩放3.3 随机裁剪4. 总结SSD 中的数据增强顺序如下(其中第 2 和 3 步以 0.5 的概率实施)数据类型和坐标转换ConvertFromInts(np.float32)ToAbsoluteCoords(bbox coordinates *width and *height accordingly),为下面的几何变换做准备像素内容变换(Photometric Distortions)随

2020-08-22 20:41:10 2300 3

转载 pytorch中GPU内存耗尽

Pytorch GPU运算过程中会出现:“cuda runtime error(2): out of memory”这样的错误。通常,这种错误是由于在循环中使用全局变量当做累加器,且累加梯度信息的缘故, 用官方的说法就是:"accumulate history across your training loop"。在默认情况下,开启梯度计算的Tensor变量是会在GPU保持他的历史数据的,所以在编程或者调试过程中应该尽力避免在循环中累加梯度信息。下面举个栗子:上代码:total_loss=0for

2020-08-22 18:00:36 3948 1

转载 Pytorch 张量维度

文章目录dim=0的标量dim=1的张量dim=2的张量dim=3的张量dim=4的张量计算Tensor中元素的数目Tensor类的成员函数dim() 可以返回张量的维度,shape属性与成员函数size() 返回张量的具体维度分量,如下代码定义了一个两行三列的张量:f = torch.randn(2, 3)print(f.dim())print(f.size())print(f.shape)输出结果:2torch.Size([2, 3])torch.Size([2, 3])dim=

2020-08-22 16:37:49 2414

原创 Pytorch实现Smooth L1 Loss(Huber)

简单版SSD网络中的SmoothL1LossLayer层借鉴于Fast R-CNN,用于计算smooth L1损失,其中的光滑L1函数如下:其导函数为:之所以称为光滑L1函数,是因为此函数处处可导,而原L1函数在x=0处是不可导的。smooth L1损失为:其中:yi=[yi1,yi2,....,yik]Ty_i = [y_{i1},y_{i2},....,y_{ik}]^Tyi​=[yi1​,yi2​,....,yik​]T为标签向量;y^i\hat{y}_iy^​i​为预测向量。带si

2020-08-22 11:21:33 10212 5

原创 caffe网络结构可视化

可视化网址http://dgschwend.github.io/netscope/#/editordeploy_vgg11_regression.prototxt# Enter your network definition here.# Use Shift+Enter to update the visualization.###----------------name: "vgg11_regression_posture"layer { name: "data" type:

2020-08-11 11:17:12 337

转载 深度卷积神经网络及各种改进

文章目录1、残差网络2、不同大小卷积核并行卷积3、利用(1,x),(x,1)卷积代替(x,x)卷积4、采用瓶颈(Bottleneck)结构5、深度可分离卷积6、改进版深度可分离卷积+残差网络7、倒转残差(Inverted residuals)结构8、并行空洞卷积1、残差网络这个网络主要源自于Resnet网络,其作用是:将靠前若干层的某一层数据输出直接跳过多层引入到后面数据层的输入部分。意味着后面的特征层的内容会有一部分由其前面的某一层线性贡献。实验表明,残差网络更容易优化,并且能够通过增加相当的深

2020-08-09 13:26:50 7594 1

转载 CV数据预处理

文章目录1. 学习前言2. 处理长宽不同的图片3. 数据增强3.1、在数据集内进行数据增强3.2、在读取图片的时候数据增强3.3、目标检测中的数据增强1. 学习前言进行训练的话,如果直接用原图进行训练,也是可以的(就如我们最喜欢Mnist手写体),但是大部分图片长和宽不一样,直接resize的话容易出问题。除去resize的问题外,有些时候数据不足该怎么办呢,当然要用到数据增强啦。2. 处理长宽不同的图片对于很多分类、目标检测算法,输入的图片长宽是一样的,如224∗224224*224224∗22

2020-08-09 12:50:20 1680

转载 一个 Pillow 实现的图像填充函数

Pillow,即PIL,Python Imaging Library,中文是“枕头”。Pillow是Python平台中图像处理的标准库,功能非常强大,API简单易用。本文分享一个Pillow实现的图像填充函数 pad_image ,用于预处理图像数据集。在目标检测算法中,需要把输入图像转换为模型所需尺寸的图像,同时,保持比例不变,其余部分用灰色填充。函数的具体实现,如下:计算图像缩放之后的宽高,等比例缩小或扩大;调用resize(),改变图像的尺寸;新建new()目标尺寸target_size的

2020-08-09 12:26:22 893

转载 caffe 网络结构参数介绍及可视化

caffe/examples/mnist/lenet_train_test.prototxtname: "LeNet" //网络的名称layer { //定义一个层(Layer) name: "mnist" //层名称 type: "Data" //层类型:数据层 top: "data" //层输出 :data和label top: "label" include { phase: TRAIN //本层只在训练阶段有效 } transform_par

2020-08-06 19:45:34 372

Python深度学习___美弗朗索瓦肖莱.pdf

Python深度学习___美弗朗索瓦肖莱.pdf

2019-06-16

[MATLAB智能算法30个案例分析].史峰等.扫描版.pdf

[MATLAB智能算法30个案例分析].史峰等.扫描版.pdf

2019-05-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除