自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 leetcode 567.字符串排列

给你两个字符串 s1 和 s2 ,写一个函数来判断 s2 是否包含 s1 的排列。如果是,返回 true;否则,返回 false。输入:s1 = “ab” s2 = “eidbaooo”输入:s1= “ab” s2 = “eidboaoo”解释:s2 包含 s1 的排列之一 (“ba”).换句话说,s1 的排列之一是 s2 的 子串。s1 和 s2 仅包含小写字母。

2024-04-18 20:04:25 213 1

原创 nn.Linear和nn.Conv2d_1x1等效验证

这样的话,写出来的transformer block中,self-attention=non-loca,mlp=conv_1x1 Group。现在视觉transformer中,有些会把单个像素点视为一个token,在这样的粒度下进行transformer block的计算,其中一个比较重要的操作是nn.Linear,其和nn.Conv2d_1x1是等价的。图像的卷积本质上也是矩阵相乘,验证结果是符合预期的。

2024-01-17 14:00:55 632 1

原创 AI比赛汇总

持续更新中…

2023-10-30 13:56:05 475

原创 Leetcode 769. 最多能完成排序的块

1

2022-10-13 10:09:37 141

原创 Leetcode617合并二叉树

1

2022-10-11 10:06:55 114

原创 Leetcode647 回文子串

回文子串

2022-10-10 20:23:21 375

原创 Leetcode739 每日温度

leetcode739 每日温度

2022-10-10 19:44:17 280

原创 Leetcode575 分糖果

题目链接给定一个偶数长度的数组,其中不同的数字代表着不同种类的糖果,每一个数字代表一个糖果。你需要把这些糖果平均分给一个弟弟和一个妹妹。返回妹妹可以获得的最大糖果的种类数。示例 1:输入: candies = [1,1,2,2,3,3]输出: 3解析: 一共有三种种类的糖果,每一种都有两个。最优分配方案:妹妹获得[1,2,3],弟弟也获得[1,2,3]。这样使妹妹获得糖果的种类数最多。示例 2 :输入: candies = [1,1,2,3]输出: 2解析: 妹妹获得糖果[2,3],弟弟

2021-11-01 16:58:32 79

原创 Leetcode496 下一个更大元素 I

题目链接给你两个 没有重复元素 的数组 nums1 和 nums2 ,其中nums1 是 nums2 的子集。请你找出 nums1 中每个元素在 nums2 中的下一个比其大的值。nums1 中数字 x 的下一个更大元素是指 x 在 nums2 中对应位置的右边的第一个比 x 大的元素。如果不存在,对应位置输出 -1 。代码class Solution: def nextGreaterElement(self, nums1: List[int], nums2: List[int]) -&

2021-10-26 11:20:19 3388

原创 Leetcode237 删除链表中的节点

题目连接编写一个高效的算法来搜索 m x n 矩阵 matrix 中的一个目标值 target 。该矩阵具有以下特性:每行的元素从左到右升序排列。每列的元素从上到下升序排列。代码:class Solution: def searchMatrix(self, matrix: List[List[int]], target: int) -> bool: row, column = len(matrix), len(matrix[0]) i,j = 0,

2021-10-25 20:58:13 67

原创 torch.bmm()验证

官网的说明torch.bmm(input, mat2, out=None) → Tensorbmm的输入必须是3维的。其他维度会出错:import torcha = torch.Tensor(4,2,2,3)b = torch.Tensor(4,2,3,5)c = torch.bmm(a,b)Traceback (most recent call last): File "/Users/XXX/Desktop/MyCode/xxx.py", line 1436, in <modu

2021-08-24 16:07:26 855

原创 ICCV2021:Spatially-Adaptive Image Restoration using Distortion-Guided Networks

论文代码(应该还没放出来)摘要我们提出了一种基于学习的通用解决方案,用于恢复遭受空间变化的退化图像。先前的方法通常是特定于退化的,并且在不同的图像和图像中的不同像素上采用相同的处理。然而,我们假设这样的空间刚性处理对于同时恢复退化像素以及重建图像的干净区域而言是次优的。为了克服这一局限性,我们提出了SPAIR,这是一种网络设计,它包含退化定位信息,并根据图像中的困难区域动态调整计算。SPAIR由两个部分组成,(1)一个用于识别退化像素的定位网络,以及(2)一个恢复网络,该网络利用来自filter和.

2021-08-23 16:12:45 1077

原创 ICCV2021:AdaAttN: Revisit Attention Mechanism in Arbitrary Neural Style Transfer

论文代码摘要快速、任意的风格转换引起了学术界、工业界和艺术界的广泛关注,因为它支持各种应用的灵活性。现有的解决方案要么专注于不考虑特征分布地将风格特征融入到深层内容特征,或根据风格特征自适应地规范化深层内容特征使得他们的全局统计量是匹配的。虽然有效,但留下的浅层特征没经过探索,且不考虑局部特征统计量,这样容易产生不自然的的局部扭曲。为了缓解这个问题,在本文中,我们提出了一个新的注意和规范化模块,名为自适应注意规范化(AdaAttN),以自适应的方式在每个点的上进行标准化。具体来说,spatial .

2021-08-20 13:21:39 3286 4

原创 ICCV2021:Focal Frequency Loss for Image Reconstruction and Synthesis

论文代码摘要由于生成模型的发展,图像重建和合成技术取得了显著的进步。尽管如此,生成图像和真实世界图像之间仍可能存在差距,特别是在频域。在这项研究中,我们发现缩小频率差距域可以改善图像重建和合成质量。We propose a novel focal frequency loss, which allows a model to adaptively focus on frequency components that are hard to synthesize by down-weighting t.

2021-08-19 19:10:36 2217 1

原创 CVPR2021:Towards Real-World Blind Face Restoration with Generative Facial Prior

单位:腾讯PCG论文代码Xintao Wang大佬(ESRGAN、EDVR作者)的力作,这篇论文和他们另一篇CVPR2021论文《GLEAN: Generative Latent Bank for Large-Factor Image Super-Resolution》想法相近,但是做的是两个不同的恢复任务。摘要人脸盲恢复通常依赖于人脸先验信息,如人脸几何先验信息或参考先验信息来恢复真实可信的细节。然而,极低质量的输入无法提供精确的几何先验,而高质量的参考通常难以得到,从而限制了在现实场景中的

2021-08-18 13:33:43 1801

原创 ICCV2021:Structure-Preserving Deraining with Residue Channel Prior Guidance

摘要论文代码这个题目有点像CVPR2020的论文名称:《Structure-Preserving Super Resolution With Gradient Guidance》要解决的问题是:虽然现有的CNN-based方法可以去除部分雨纹,但它们很难适应真实场景,并恢复出清晰准确的结构、高质量的无雨图像。本文为了解决这一问题,提出了一个Structure- Preserving Deraining Network (SPDNet) with RCP guidance。SPDNet在RCP的指

2021-08-17 16:40:48 1509

原创 ICCV2021:Rethinking Coarse-to-Fine Approach in Single Image Deblurring

摘要单位:Korea University论文代码(未放出)传统方法通常使用多尺度输入图像堆叠子网络,并通过从底部子网络到顶部子网络逐渐提升图像的sharpess,这样做不可避免地产生较高的计算成本。本文重新审视了粗粒度到细粒度的策略,提出一个multi-input multi-output U-net (MIMO-UNet). 单个编码器可以接受多个尺度的输入,缓解训练难度;单个解码器可以输出多个尺度的结果;非对称特征融合技术的引入,有效地融合多尺度特征。结果SOTA。方法Coarse-to

2021-08-16 18:47:17 2442

原创 ICCV21 Mutual Affine Network for Spatially Variant Kernel Estimation in Blind Image Super-Resolution

摘要ETH 的ICCV2021的论文。论文代码(还未放出)现有的盲图像超分辨率(SR)方法大多数情况下,假设模糊核在空间上是不变的。但在真实场景中,一些图像往往是不通位置的模糊核不同,比如运动物体以及失焦。为了解决这个问题,本文提出了一种互仿射算法用于空间各异核估计的网络(MANet)。具体来说,MANet有两个显著的特点。首先是它具有中等的感受野,以保持局部退化,其次,在不增加感受野、模型尺寸和计算负担的情况下,它采用一个新的互仿射卷积(MAConv)层,该层增强了特征的表达能力。在合成和

2021-08-16 13:53:30 1545 7

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除