自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(148)
  • 收藏
  • 关注

原创 SegFormer

取消位置编码,使用简单的解码器

2022-05-14 09:26:27 5344 2

原创 跑ORB-SLAM2踩的坑

orb-slam2编译安装过程里 安装pangolin遇到的问题

2022-05-07 20:33:37 742

原创 记录在mmsegmentation框架里写代码跑实验时出现的bug

ValueError: size shape must match input shape. Input is 2D, size is 1KeyError: 'layers.0.blocks.0.attn.relative_position_bias_table'KeyError: 'data_time'RuntimeError: element 0 of tensors does not require grad and does not have a grad_fnAttributeError:

2022-05-07 08:51:24 4479 9

原创 解决zsh: command not found问题

踩坑了,.zhsrc 和 . bash_profile我在zsh终端下,把需要的新环境变量加到了bash_profile里,然后用了source .bash_profile,后出现了所有命令找不到的错误。先使用如下指令PATH=/bin:/usr/bin:/usr/local/bin:${PATH}export PATH再用vim .zshrc加入export PATH=/bin:/usr/bin:/usr/local/bin:$PATH 最后使用,source .zshrc还有种解决方

2022-04-30 22:55:54 16506

原创 Self-supervised Augmentation Consistency for Adapting Semantic Segmentation

我们提出了一种既实用又高精度的语义分割领域自适应方法。与以前的工作相比,我们放弃使用计算涉及的对话主要的目标,网络的集成和风格的转移。相反,我们使用了标准的数据增强技术——光度噪声、翻转和缩放——并确保语义预测的一致性跨这些图像转换。我们在一个在协同进化的伪标签上训练的轻量级自监督框架中开发了这一原则,而不需要繁琐的额外训练回合s.从从业者的角度来看,训练很简单,我们的方法是非常有效的。我们实现了最先进的分割精度的适应,包括两者都可以跨越不同的主干架构和自适应场景的选择

2022-04-24 17:08:39 315

原创 剑指offer刷题笔记

思路

2022-04-24 09:17:29 136

原创 动态规划notebook

动态规划

2022-03-29 18:14:24 228

原创 单调栈notebook

文章目录[739. 每日温度](https://leetcode-cn.com/problems/daily-temperatures/)小结739. 每日温度class Solution {public: vector<int> dailyTemperatures(vector<int>& temperatures) { // 分三种情况,温度 // 1. 小于栈顶,入栈 // 2. 等于栈顶,入栈

2022-03-04 22:49:59 120

原创 data parallel, model parallel,GPU显存不足怎么办?动态图显存优化

gpu 模型并行、数据并行、显存优化、gpu显存不足

2022-01-06 19:50:07 1003

原创 目标检测、语义分割的术语

1.Backbone提取特征2.neck更好的提取特征3.head利用提取好的特征,完成任务(分类等)4.bottleneck将特征维度减少5.gapRef.https://blog.csdn.net/weixin_43332715/article/details/118541648

2021-12-09 20:11:26 2140

原创 贪心解题notebook

贪心的本质是选择每一阶段的局部最优,从而达到全局最优。文章目录[455. 分发饼干](https://leetcode-cn.com/problems/assign-cookies/)小结455. 分发饼干class Solution {public: int findContentChildren(vector<int>& g, vector<int>& s) { // 从小到大的排序,一一对应 // wrong.

2021-12-09 11:30:23 321

原创 Mathpix Snipping 的替代工具

在线图片转latex公式公式后面加上 # (1) ,可以生成靠右的序号空格是 \quad

2021-12-08 21:50:32 1244

原创 OpenMMLab mmcv、mmdet、mmseg使用教程

商汤公开课课程总结 | OpenMMLab开源体系揭秘OpenMMLab开源工具使用教学(一)注册器的使用OpenMMLab开源工具使用教学(二)

2021-12-08 21:46:45 1315

原创 语义分割、域适应相关论文

2021语义分割、域适应、无监督

2021-12-02 21:35:03 1773

原创 PixMatch:怎么加上maxsquare loss

怎么加上maxsquare loss模仿maxsquare loss对照着target loss 加到了PixMatch里面加maxsquare loss的时候出现了pytorch unsupported operand type(s) for *: 'MaxSquareloss' and 'float'# wrong:MaxSquareloss(pred_1, prob_1)# right:MaxSquareloss()(pred_1, prob_1)函数cpu().item()

2021-11-30 22:05:27 2388

原创 回溯notebook

回溯模板for循环可以理解是横向遍历,backtracking(递归)就是纵向遍历,这样就把这棵树全遍历完了,一般来说,搜索叶子节点就是找的其中一个结果了。回溯和递归是相辅相成的。回溯法的效率,回溯法其实就是暴力查找,并不是什么高效的算法。回溯法解决的问题都可以抽象为树形结构(N叉树)回溯法可以解决几类问题,可以看出每一类问题都不简单。组合问题:N个数里面按一定规则找出k个数的集合切割问题:一个字符串按一定规则有几种切割方式子集问题:一个N个数的集合里有多少符合条件的子集排列问题:N个数按

2021-11-17 15:45:26 357

原创 创建软连接

https://chinese.freecodecamp.org/news/linux-symbolic-link/

2021-11-09 18:53:27 712

原创 ubuntu 18.04 文件夹打不开了

# 查询pidps aux | grep nautilus# kill查到的sudo kill 查到的pid# 重启nautilus -q

2021-11-09 18:39:48 3859

原创 深度可分离卷积、空洞卷积、反卷积、感受野计算、上采样

Depthwise卷积和Pointwise运算成本比较低[1] https://zhuanlan.zhihu.com/p/92134485

2021-10-21 11:53:53 2089 1

原创 python路径和argparse

路径import osfile = 'user/local/test.py'path = 'usr/local'os.path.dirname(file) # 输出fileos.path.basename(file) # 输出文件名os.path.abspath(file) # 输出绝对路径os.path.exists(file) # 判断文件路径是否存在os.path.listdir(path) # 获得指定文件夹下的所有文件os.path.splitext(file) #

2021-10-20 15:35:27 625

原创 cityscapesScripts的evalPixelLevelSemanticLabeling使用的参数问题

sys.argv[]global argsglob.glob()*args**kwargs

2021-10-19 14:26:46 382 1

原创 39. 组合总和

题目链接class Solution {public: vector<vector<int>> result; vector<int> path; //int sum = 0; void backtracking1(vector<int> candidates, int target, int sum, int startIndex) { if (sum >= target) {

2021-10-13 22:37:55 63

原创 GPU内存溢出,以及forward() missing 1 required positional argument: ‘x‘;设置GPU

问题在实验过程里,总是遇到GPU内存溢出的问题,怎么改batchsize都不行表面原因设置gpu的代码有问题。究其原因,还是因为穷。import os os.environ['CUDA_VISIBLE_DEVICES'] = "0,1,2" 清理gpunvidia-smi --gpu-reset -i [gpu_id]# 或者杀掉进程kill -9 [pid]...

2021-10-13 19:08:57 1325

原创 216. 组合总和 III(回溯)

题目链接class Solution { vector<vector<int>> result; vector<int> path; int sum = 0; void backtracking(int n, int k, int startIndex) { if (sum > n) { // 剪枝操作 return; // 如果path.size() == k 但sum != target

2021-10-12 19:38:53 73

原创 77. 组合(回溯)

题目链接class Solution { vector<vector<int>> result; vector<int> path; void backtracking(int n, int k, int startIndex) { // 终止条件 if (path.size() == k) { result.push_back(path); return;

2021-10-12 18:34:57 67

原创 2021-10-10

题目链接class Solution {public: int numSquares(int n) { // 下标 dp[j] 和为j的最少完全平方数个数 // 初始化 0 // dp[j] = min(dp[j - i * i] + 1, dp[j]) // 顺序无关 vector<int> dp(n + 1, INT_MAX); // !!! dp[0] = 0;

2021-10-10 20:03:11 61

原创 322. 零钱兑换(完全背包问题)

题目链接class Solution {public: int coinChange(vector<int>& coins, int amount) { // 下标 dp[j] 组成j的最小硬币数 // 初始化 dp(amount + 1, INT_MAX) dp[0] = 1 // -1的情况 // 递推公式 dp[j] = min(dp[j - conis[i]], dp[j]) // 顺序

2021-10-10 19:19:08 86

原创 70. 爬楼梯

题目链接class Solution {public: int climbStairs(int n) { // 下标 dp[j] ,到j层台阶需要的方法 // 初始化 dp[0]=1 // 递推 dp[j] += dp[j-nums[i]] // 顺序 外层背包,内存物品 // int nums[2] = {1, 2}; vector<int> dp(n+1, 0); d

2021-10-10 18:56:07 53

原创 Self-supervised Augmentation Consistency for Adapting Semantic Segmentation

Self-supervised Augmentation Consistency for Adapting Semantic SegmentationAbstract目的pratical and highly accurate;实用并且高精度之前的方法adversarial objectives,networkensemblesstyle transfer我们的方法标准的数据增强 – photometric noise, flipping and scaling并且确保在这些图

2021-10-09 20:16:15 1059

原创 focal loss、importance sampling、 adaptive batch normlization

focal lossFocal Loss for Dense Object Detection,ICCV 2017, RBG和Kaiming大神作者提出focal loss的出发点是:希望one-stage detector可以达到two-stage detector的准确率,同时不影响原有的速度。one-stage detector的准确率不如two-stage detector的原因,作者认为原因是:样本的类别不均衡导致的。不平衡导致的后果:负样本数量太大,占总的loss的大部分,而且多是容易

2021-10-09 19:52:26 126

原创 377. 组合总和 Ⅳ(完全背包问题)

题目链接class Solution {public: int combinationSum4(vector<int>& nums, int target) { vector<int> dp(target + 1, 0); dp[0] = 1; for (int j = 0; j <= target; j++) { for (int i = 0; i < nu

2021-10-07 22:32:05 86

原创 一致性正则化, KL散度

一致性正则Consistency Regularization 的主要思想是:对于一个输入,即使受到微小干扰,其预测都应该是一致的。机器学习模型也应该对这种扰动具有鲁棒性。这通常通过最小化对原始输入的预测与对该输入的扰动版本的预测之间的差异来实现。可以是均方误差或KL散度或任何其他距离度量。[1]这些随机性或扰动分类如下[2]:常规的数据增强, 如图像翻转,加随机噪音基于GAN时序移动平均同一模型多次预测时,Dropout层随机舍弃多模型对抗样本扰动Adversarial Examp

2021-10-07 16:01:20 2214

原创 518. 零钱兑换 II(完全背包问题)

题目链接class Solution {public: int change(int amount, vector<int>& coins) { // 完全背包问题 // 组合数问题,不需考虑顺序 // 凑成总金额j的货币组合数为dp[j] // dp[j] += dp[j - coins[i]] vector<int> dp(amount + 1, 0); //

2021-10-06 15:18:08 85

原创 474. 一和零(0,1背包)

题目链接class Solution {public: int findMaxForm(vector<string>& strs, int m, int n) { // 初始化 vector<vector<int>> dp(m + 1, vector<int>(n + 1, 0)); // 先获取每个元素有的0,1数目 for (string str : strs) {

2021-10-06 15:03:10 102

原创 Learning Calibrated Medical Image Segmentation via Multi-rater Agreement Modeling

2021-10-05 12:08:33 189 1

原创 494. 目标和

题目链接class Solution {public: int findTargetSumWays(vector<int>& nums, int target) { int sum = 0; for (int i = 0; i < nums.size(); i++) { sum += nums[i]; } // left - (sum - left) = target

2021-10-04 23:32:58 85

原创 semi-supervised learning

半监督学习[1]当根据手头仅有的标注数据,会将一些虽然没有标注但可被观测到的数据进行一些合理的推测,其中推测主要基于两个假设:聚类假设cluster assumption:假设数据间具有相同的聚类结构,同一类数据会落入同一个聚类类别内。流形假设manifold assumption:假设数据分布在一个流形上,相近的样本具有相似的预测结果。主要方式:生成式方法(generative methods): self-training基于图的方法(graph-based methods):标签传播

2021-10-04 23:01:38 168

原创 1049. 最后一块石头的重量 II

题目链接class Solution {public: int lastStoneWeightII(vector<int>& stones) { // 使用01背包解决,分两堆石头,装一半的石头,让两边的石头重量尽可能的接近 // 最后背包装下的就是一半可以抵消的质量 vector<int> dp(1501, 0); int sum = 0; for (int i = 0; i &l

2021-10-03 20:42:12 94

原创 指数滑动平均EMA

定义指数移动平均(Exponential Moving Average)也叫权重移动平均(Weighted Moving Average),是一种给予近期数据更高权重的平均方法。有数据θ1,...,θn\theta_1,...,\theta_nθ1​,...,θn​,EMA:vt=β⋅vt−1+(1−β)⋅θtEMA : v_t= \beta \cdot v_{t-1} + (1-\beta) \cdot \theta_tEMA:vt​=β⋅vt−1​+(1−β)⋅θt​,其中, vtv_tvt​

2021-10-03 19:38:32 540

原创 self training

What is self-training?在监督学习中,模型都是需要有一个大量的有标签的数据集进行拟合,通常数据成本、人力成本都很高。而现实生活中,无标签的样本的收集相对就很容易很多。因此,近年来,利用大量的无标签样本和少量的有标签样本的半监督学习备受关注。Self-training 是最简单的半监督方法之一,其主要思想是找到一种方法,用未标记的数据集来扩充已标记的数据集。ICML 2013:The Simple and EfficientSemi-Supervised Learning Met

2021-10-02 20:09:35 890

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除