- 博客(13)
- 资源 (1)
- 收藏
- 关注
转载 【HTTP详解(2)】HTTP、SSL/TSL、HTTPS、TCP、UDP
HTTPHTTP 是一个网络协议,是专门用来传输 Web 内容,明文传输。HTTP 和 TCP 之间的关系简单地说,TCP 协议是 HTTP 协议的基石——HTTP 协议需要依靠 TCP 协议来传输数据。TCP 被称为“传输层协议”,而 HTTP 被称为“应用层协议”。传输层主要有两个协议,分别是 TCP 和 UDP。TCP 比 UDP 更可靠。HTTP 协议如何使用 TCP 连接HTTP 对 TCP 连接的使用,分为两种方式:俗称“短连接”和“长连接”(“长连接”又称“持久连接”,英文叫做“Ke
2021-05-31 09:17:56 1377 1
转载 推理框架runtime的动态输入、输出思路
对input进行resize如果在我的网络内部,先是定义了一个resize操作,让输入插值到固定尺寸,然后再编码/解码、得到结果,最后我还想让这个输出跟我的输入一致,即如下操作:input -> resized_input -> inference -> output -> resized_output使用layer对最后输出特征进行IResizeLayer 操作Runtime的中如果是动态输入
2021-05-27 09:26:08 322
转载 CNN中的卷积、1x1卷积及在pytorch中的验证
转载请注明处处:http://www.cnblogs.com/darkknightzh/p/9017854.html参考网址:https://pytorch.org/docs/stable/nn.html?highlight=conv2d#torch.nn.Conv2dhttps://www.cnblogs.com/chuantingSDU/p/8120065.htmlhttps://blog.csdn.net/chaolei3/article/details/793745631x1卷积htt
2021-05-20 10:45:20 574
原创 Pytorch和caffe对maxpool模式ceil比较
背景:pytorch转caffe ,有层不支持,设计层需要求同存异。首先看看pytorch中max pooling的定义如下:class torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)pytorchclass Net(nn.Module): def __init__(self): super(Net, sel
2021-05-20 10:43:48 1265
原创 智能驾驶的深度神经网络模型嵌入式部署的线路思考
介绍一下TensorRT的流程, 首先输入是一个预先训练好的FP32的模型和网络,将模型通过parser等方式输入到TensorRT中,TensorRT可以生成一个Serialization,也就是说将输入串流到内存或文件中,形成一个优化好的engine,执行的时候可以调取它来执行推断(Inference)。用户需要做的是如何将网络输入到TensorRT中。目前TensorRT支持两种输入方式:一种是Parser的方式,即模型解析器,输入一个caffe的模型,可以解析出其中的网络层及网络层之间的连
2021-05-20 10:42:02 1787
转载 【Jetson TX2(6)】TX2系统备份与恢复
tx2系统备份与恢复对我们以后长期开发与产品批量生产是非常有帮助的,能快速的对已经开发好的系统进行备份,复制,节约大量的安装时间。在操作过程在需要手动操作,执行命令也不多,安装以下步骤即可,所以在这就不写脚本文件了,免得过程中有些错误。文章目录(0) tx2 准备(ready):(1)tx2 系统备份(system backups):(2)tx2 系统恢复(system recovery):As an example, you should be in ~/TX2/64_TX2/Linux_for_Teg
2021-05-20 10:37:47 654
转载 【Epoch, Batch(batchsize), Iteration,num_workers(1)】batchsize大小对训练速度的影响
2.batchsize大了,是不是结果会变好?收集资料发现,确实是这样的,但是也不能太大了。
2021-05-20 10:36:36 1631
转载 PyTorch 中,nn 与 nn.functional 有什么区别?
https://www.zhihu.com/question/66782101两者的相同之处:nn.Xxx和nn.functional.xxx的实际功能是相同的,即nn.Conv2d和nn.functional.conv2d 都是进行卷积,nn.Dropout 和nn.functional.dropout都是进行dropout,。。。。。;运行效率也是近乎相同。nn.functional.xxx是函数接口,而nn.Xxx是nn.functional.xxx的类封装,并且nn.Xxx都继承于一个共同祖
2021-05-19 14:27:13 347
转载 【Caffe】caffe框架讲解,解析修改caffemodel与prototxt
背景pytorch转onnx后,onnx转tensorRT 各种问题。主要是TX2安装的tensorRT版本较低,也没有去刷机升级的想法。尝试了 onnx-tensorRT 以及torch2trt 项目,完全没心思搞了。还是按照标准流程 转caffe 然后部署到tensorRT ,TX2也有官方支持的caffe的脚本。参考1、Pytorch模型转Caffe模型小记https://zhuanlan.zhihu.com/p/352750171得到了pytorch2caffe工具: github.c
2021-05-19 10:08:52 5135
转载 权重尺寸的计算,张量(图像)的尺寸,以及卷积神经网络(CNN)中层参数的计算,以及FC的维度卷积替代方案
文章目录背景:权重层的概念Input 尺寸大小卷积层(Conv Layer)的输出张量(图像)的大小池化层(MaxPool Layer)的输出张量(图像)的大小全连接层(Fully Connected Layer)的输出张量(图像)的大小对 1 * 1 卷积可以减少参数进行举例 :Conv Layer参数数量MaxPool Layer参数数量Fully Connected (FC) Layer参数数量权重的权值共享机制参考:背景:设计某网络,cfg = { 'A' : [64, 64, 'M'],}
2021-05-18 15:25:43 3350
翻译 【tensorRT文档翻译】7. Working With Dynamic Shapes
https://docs.nvidia.com/deeplearning/tensorrt/developer-guide/index.html#work_dynamic_shapes文章目录7.处理动态形状7.1. Specifying Runtime Dimensions7.2. Optimization Profiles7.2.1。 多个优化配置文件的绑定7.3. Layer Extensions For Dynamic Shapes7.4. Restrictions For Dynamic Sha
2021-05-11 13:22:52 840
转载 GitLab CI/CD 快速开始
https://zhuanlan.zhihu.com/p/136843588.gitlab-ci.yml文件告诉GitLab Runner要做什么。一个简单的管道通常包括三个阶段:build、test、deploy管道在 CI/CD > Pipelines 页面2.1. 创建一个 .gitlab-ci.yml 文件通过配置.gitlab-ci.yml文件来告诉CI要对你的项目做什么。它位于仓库的根目录下。仓库一旦收到任何推送,GitLab将立即查找.gitlab-ci.yml文件,并根据文件
2021-05-07 16:24:01 113
翻译 【损失函数】Focal Loss for Dense Object Detection And RetinaNet
https://arxiv.org/pdf/1708.02002.pdfRetinaNet是继SSD和YOLO V2公布后,YOLO V3诞生前的一款目标检测模型,何恺明密集物体检测的焦点损失Abstracttwo-stage approach最高精度的对象检测器基于R-CNN推广的 two-stage approach其中将分类器应用于稀疏的候选对象位置集sparse set of candidate 稀疏的候选对象第一阶段生成卷积的候选对象位置,第二阶段使用卷积神经网络将每个候选位
2021-05-07 15:03:30 209
翻译把STL容器放入共享内存
2024-06-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人