深度学习
文章平均质量分 50
非正经研究生
实际上是正经研究生,小镇青年,IT农民工,不偷井盖的老实人
展开
-
libtorch问题:Unsupported value kind: Tensor
原因是你训练用的pytorch 可能是 1.2 ,后来运行测试在libtorch 上,libtorch 太新了terminate called after throwing an instance of 'std::runtime_error' what(): The following operation failed in the TorchScript interpreter.Traceback of TorchScript (most recent call last):RuntimeE原创 2022-02-10 18:08:30 · 3189 阅读 · 1 评论 -
理解precision 和 recall
https://www.notion.so/precision-recall-mAP-52cc3e0f72234dcdbc079e5f8ebaf815原创 2021-12-13 16:59:47 · 1353 阅读 · 0 评论 -
目标检测:学习yolo版本一
笔记论文地址https://pjreddie.com/media/files/papers/yolo_1.pdf原创 2021-10-18 14:57:41 · 667 阅读 · 0 评论 -
tf.concat; monodepth源码阅读
用来拼接张量原型:tf.concat([tensor1, tensor2, tensor3,...], axis)原创 2021-09-17 18:31:16 · 83 阅读 · 0 评论 -
upconv上卷积是什么? monodepth源码阅读
可见,使用了上采样什么是 上采样:放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是:放大原图像,从而可以显示在更高分辨率的显示设备上 ;; (from)结论upconv 是让被 conv 的 feature map 变得大一些...原创 2021-09-17 18:21:51 · 3545 阅读 · 0 评论 -
slim 模块; monodepth源码阅读
一句话: 简化你的网络搭建过程TF-Slim是Tensorflow中一个轻量级的库,用于定义、训练评估复杂的模型。TF-Slim中的组件可以与Tensorflow中原生的函数一起使用,与其他的框架,比如与tf.contrib.learn也可以一起使用。...原创 2021-09-17 18:17:35 · 154 阅读 · 0 评论 -
tensor 到底是什么; monodepth源码阅读
Tensor,中文叫张量,是深度学习的一个基础,不然TensorFlow也不会叫Tensor和Flow了。Tensor实际上就是一个多维数组(multidimensional array),其目的是能够创造更高维度的矩阵、向量;; (来源zhihu)...原创 2021-09-17 18:04:14 · 117 阅读 · 0 评论 -
tf.reduce_mean学习; monodepth源码阅读
计算张量tensor沿着指定的数轴(tensor的某一维度)上的平均值,主要用作降维或者计算tensor(图像)的平均值 。 来源示范:import tensorflow as tfx = [[1,2,3], [4,5,6]]y = tf.cast(x, tf.float32)mean_all = tf.reduce_mean(y)mean_0 = tf.reduce_mean(y, axis=0) # 天天 第一个维度,竖着,列 维度mean_1 = tf.reduce..原创 2021-09-17 17:57:30 · 67 阅读 · 0 评论 -
tf.variable_scope学习; monodepth源码阅读
TF中有两种作用域类型:命名域 (name scope),通过tf.name_scope 或 tf.op_scope创建;变量域 (variable scope),通过tf.variable_scope 或 tf.variable_op_scope创建;参考:知乎 https://zhuanlan.zhihu.com/p/52055580原创 2021-09-17 17:07:52 · 92 阅读 · 0 评论 -
3)处理数据;生成简单的数据为了后续使用;keras:deeplizard;
数据 很重要mode.fit()输入的 数据 ,x,可以 有 多种类型:数据 可以 来自于 很多传感器,图片,无穷无尽;我们要 自己 生成 data完整 代码:deepLizardKerasC2.ipynbhttps://colab.research.google.com/drive/1gAHgc_UoAAh9m25BuqZ2OoMtPEqIVGZE#scrollTo=AB9HEIFjCJcu代码运行时 截图经历 了 scale 的 数据:参考:https://www.yo原创 2021-09-06 15:38:40 · 65 阅读 · 0 评论 -
2)GPU支持,win安装指南;keras:deeplizard;
前言大部分时间,我们只需要 跟 keras 打交道;而不需要 跟 tensorFlow 打交道nivdia gpu ; cuda;winlinux: docker:在 windows 平台 的安装 keras 环境 的 教程pip install tensorflownvidia driver download cuda toolkit vs cuDNN 我使用 colab如果 你的 colab 没有 开启 gpu(我一开始就是)那么请 123:参考h原创 2021-09-06 15:18:11 · 51 阅读 · 0 评论 -
1)keras和 tensorFlow的前置要求;keras:deeplizard;
参考:https://www.youtube.com/watch?v=tDaGT4N4aCA&list=PLZbbT5o_s2xrwRnXk_yCPtnqqo4_u2YGL&index=1原创 2021-09-06 14:55:35 · 72 阅读 · 0 评论 -
什么是sgd;深度学习,视频笔记;DL: codebasics
先说说 batch gradient descent你有 一批数据,不算多;假定我们在训练 一个 房价预测 器这个 预测器,这个模型,就是个 线性的,有个 线性的 函数 来表达 我们的这个机器学习 模型:上图 展示 了 用 这一批 的第二个 数据 进行 error 计算 的 样子6 个数据 一旦 都计算完了,就叫做 end of one epoch好了,在这个 epoch 的结束 那一瞬间,我们要计算 权重的更新:好了,权重如上进行了更新然后 下一个 epoch 再计算 这 6 个数据原创 2021-09-06 14:32:21 · 758 阅读 · 0 评论 -
batch-normalization:批的正则化;深度学习,视频笔记;DL:deeplizard
目的,起源在输出的阶段,解决不同维度特征尺度不同的问题(??)和标准化对比:为何需要 normaliztion特征之间的 尺度不同比如 car 的 里程特征 : 1000 to 100,000司机的年龄:0 到 100;这样的话,里程这个特征,就会导致梯度爆炸所以我们需要 normalization这样的话,尺度就想通了batch normalization 让层与层之间更稳定另外一个问题在某一层,某一个权重特别大的时候,还是 会导致 我们模型的不稳定。这时候,就需要原创 2021-09-06 14:05:21 · 210 阅读 · 0 评论 -
微调:fune-tuning; 深度学习,视频笔记;DL:deeplizard
什么 是 fune-tuning很像 transfer learing,从 一个 已知的模型,迁移学习 到另外 一个模型:从 轿车 到 卡车:为什么 需要 微调你可以复用 之前 已经训练好的模型,只需要 稍微 修改, 会节省你的时间从头开始不容易所以我们需要 fune tuning要求 : 两个 模型对应 的 任务 ,要 类似辨别 car --> truck 就是个 可行的冻结 weights仅仅调节其他层参考https://www.youtube.com/watch原创 2021-09-06 12:02:03 · 289 阅读 · 0 评论 -
批的尺寸; 深度学习,视频笔记;DL:deeplizard
什么 是 batch size也即是: 一次性 穿过 网络的 样本 数量也叫做: 迷你批和 epoch 并不同举个例子:batch 和 epoch 有啥差别我有 1000 个 狗 的图片用10个当作一个 batch-size所以我有100个 batch每个 epoch 我们有 这 100 个 批次扔到网络里面做训练为啥需要batch为啥需要 group 那么 多 sample 为 一个 batch第一点,我们的机器 可以 并行,我们的计算资源如果足够,在同一个时刻应付多个s原创 2021-09-06 11:51:12 · 89 阅读 · 0 评论 -
正则化; 深度学习,视频笔记;DL:deeplizard
todo 2021-09-03 17:41:53参考:https://www.youtube.com/watch?v=iuJgyiS7BKM&list=PLZbbT5o_s2xq7LwI2y8_QtvuXZedL6tQU&index=35原创 2021-09-06 11:28:37 · 88 阅读 · 0 评论 -
CNN里面的可学习参数; 深度学习,视频笔记;DL:deeplizard
文章目录在普通 的 fully connect layers在 cnn 中计算的例子最后的参数参考:本视频 内容:cnn 里面 的 可学习参数是啥如何 计算 cnn 里面 的可学习 参数 的个数计算 的示范在普通 的 fully connect layersweights 的计算方式如下:在 cnn 中首先:filterl == kernel把三个 部分 的 参数 加起来吧,就行了计算的例子第一个hidden layer3∗(2∗3∗3)+2=563* (2*3*3原创 2021-09-03 17:39:59 · 318 阅读 · 0 评论 -
可学习参数; 深度学习,视频笔记;DL:deeplizard
文章目录用 fully conncected layer 的例 子 ,来 数一下 我们有多少 可学习 参数:来 讲一下 ,为啥 是 0 9 8 ;hidden layer 和 output layer 有 bias ,weights 的数量 就是 input * output汇总一下问:什么 是可学习 参数 ?答: 那些能在 训练过程中,经过 网络 训练 的 参数weights, bias 是被 学习的 by sgd用 fully conncected layer 的例 子 ,来 数一下 我们原创 2021-09-03 17:13:10 · 380 阅读 · 0 评论 -
bias; 深度学习,视频笔记;DL:deeplizard
文章目录在网络中 的 bias结论参考:本文包括:什么 是 bias如何实现在网络中 bias 的例子在网络中 的 bias每个 node 都有 bias(bias 是什么: 在 前一层的 nodes 的输出 一起 被 导入 下一层 的某个 节点 ,之前, 会 加上 一个 bias)(如果不加 bias 的情况 ,relu 将会 直接将上一层 的 输入,变成0)如果 我们加上 bias :结论bias 可以 理解 为 给 一个 node 进行点火 的阈值,例子 就是原创 2021-09-03 17:01:33 · 176 阅读 · 0 评论 -
权重初始化;深度学习,视频笔记;DL:deeplizard
文章目录权重 是如何 初始化 的一个例子,有关于 一个 node 的激励输入如果 是这样 就好了:流行的 初始化 器: xaviercode in keras参考视频:本文涉及三个话题:权重 是如何 初始化 的,以及 有什么 影响我们能改变权重初始化的发生过程吗?我们如何在keras 里面 指定 权重的初始化权重 是如何 初始化 的随机的初始化每个权重 都是 随机 的你有个巨大的网络而 weight 是 在 0,1 的正太分布 随机选择但是这样不好 , 继续看一个例子,有关于原创 2021-09-03 16:38:15 · 59 阅读 · 0 评论 -
梯度爆炸和梯度消失, 深度学习,视频笔记;DL:deeplizard
文章目录参考notes包含3个内容:什么是梯度消失,以及他会导致什么?梯度消失如何发生的?梯度爆炸他们都称为: 不稳定 的 gradientend参考https://www.youtube.com/watch?v=qO_NLVjD6zE&list=PLZbbT5o_s2xq7LwI2y8_QtvuXZedL6tQU&index=30notes包含3个内容:什么是梯度消失,以及他会导致什么?梯度消失 会导致 网络 无法更新,因为 梯度太小了,权重每次 变的 很小,几乎等于没变。原创 2021-09-03 16:17:24 · 67 阅读 · 0 评论 -
Deep Ordinal Regression Network for Monocular Depth Estimation 单目深度估计,论文阅读,DORN;视频笔记
tags: 单目深度估计,论文阅读,DORN文章目录@[toc]我们提出一些方法来针对上述问题方法1: SID我们的模型包含什么特征提取模块全面的图片编码器场景理解模块ASPP有序回归 模块如何完成学习和推断学习阶段推断阶段DORN 的表现很好备注: 指标 解释原始论文是:Deep Ordinal Regression Network for Monocular Depth Estimation Deep Ordinal Regression Network for Monocular Depth E原创 2021-09-03 15:24:20 · 824 阅读 · 0 评论 -
立体 3d 视觉; computerphile 视频笔记
立体 3d 视觉 (如何避免成为狼的晚餐) computerphilesrcYoutbueVid故事 是这样的:我的一个朋友,去了墨西哥 做某种 野生作物 的审查,他使用 laser scanner 在一个 帐篷里面进行扫描;但是一个问题是,到了白天,激光雷达就不好用了,因为阳光对 它有影响??,但是 他也可 使用 相机,但这个时候就遇到 stereo matching 的 问题总之,雷达 和 相机,都有利弊。所以,今天 的建议是: 使用 立体 的相机,你可不被 狼吃掉。正文开始单原创 2021-09-02 10:47:38 · 69 阅读 · 0 评论 -
深度学习:无监督深度测距:《Unsupervised Monocular Depth Estimation With Left-Right Consistency》论文笔记,视频笔记monodepth
2017 年的 CVPRfrom youtubeLink是啥东西然后我们的工作能: 给出 一个 深度 图like this:为啥 depth 有用导航,机器人拿东西,虚拟现实,桌子有多远,多大为啥用 monocular:单目相机?贫穷和普适monocular 能行吗?既然 探测器 和 海盗头子 都能 ,我们也能以前的方法ground truth 值很难获得kitti 数据集 本身 也有误差或者说 遗漏: 见图片:那咱么 可以用 双目 立体 几何 的手段原创 2021-09-01 17:54:22 · 1912 阅读 · 1 评论