自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(33)
  • 收藏
  • 关注

原创 【无监督学习之聚类】

聚类:针对给定的样本,依据他们的属性的相似度或距离,将其归并到若干个“簇”或“类”的数据分析问题。类:样本的子集。直观上,相似的样本聚集在同类,不相似的样本分散在不同类。

2023-09-07 12:20:20 449

原创 【继RNN之后的一项技术】Transfomer 学习笔记

注意力自主性:有目的的搜索某样东西(键)非自住性:无目的的关注某样东西(值)

2023-09-06 17:40:26 773

原创 【Two Stream network (Tsn)】(二) 阅读笔记

所谓two-stream是指空间stream和时间stream,视频可以分成空间与时间两个部分,空间部分指独立帧的表面信息,关于物体、场景等;而时间部分信息指帧间的光流,携带着帧之间的运动信息。相应的,所提出的网络结构由两个深度网络组成,分别处理时间与空间的维度。

2023-09-06 16:52:18 526

原创 【ViT(Vision Transformer)】(二) 阅读笔记

ViT是2020年Google团队提出的将Transformer应用在图像分类的模型,虽然不是第一篇将transformer应用在视觉任务的论文,但是因为其模型“简单”且效果好,可扩展性强(scalable,模型越大效果越好),成为了transformer在CV领域应用的里程碑著作,也引爆了后续相关研究。把最重要的说在最前面,ViT原论文中最核心的结论是,当拥有足够多的数据进行预训练的时候,ViT的表现就会超过CNN,突破transformer缺少归纳偏置的限制,可以在下游任务中获得较好的迁移效果。

2023-09-06 16:42:21 487

原创 【ViT(Vision Transformer)】(一) 中英双语

虽然Transformer体系结构已成为自然语言处理任务的事实标准,但其在计算机视觉中的应用仍然有限。在视觉中,注意力要么与卷积网络结合使用,要么用于替换卷积网络的某些组件,同时保持其整体结构。我们表明,这种对细胞神经网络的依赖是不必要的,并且直接应用于图像补丁序列的纯变换器可以在图像分类任务中表现得很好。

2023-09-06 16:28:13 351

原创 【TSN】(一)中英译文

我们研究了用于视频动作识别的判别训练深度卷积网络(ConvNets)的体系结构。挑战在于从静止帧和帧之间的运动捕获关于外观的补充信息。我们还致力于在数据驱动的学习框架内推广性能最佳的手工制作功能。我们的贡献是三倍的。首先,我们提出了一种包含空间和时间网络的双流ConvNet架构。其次,我们证明了在多帧密集光流上训练的ConvNet能够在训练数据有限的情况下获得非常好的性能。最后,我们证明了应用于两个不同动作分类数据集的多任务学习可以用来增加训练数据量并提高两者的性能。

2023-09-06 14:24:16 323

原创 【卷积神经网络】(六)ResNet

残差神经网络(ResNet)是由微软研究院的何恺明、张祥雨、任少卿、孙剑等人提出的。ResNet 在2015 年的ILSVRC(ImageNet Large Scale Visual Recognition Challenge)中取得了冠军。在2012年的ILSVRC挑战赛中,AlexNet取得了冠军,并且大幅度领先于第二名。由此引发了对AlexNet广泛研究,并让大家树立了一个信念——“越深网络准确率越高”。

2023-08-24 08:42:04 60

原创 【卷积神经网络】(五)GoogLeNet

在2014年的ImageNet图像识别挑战赛中,⼀个名叫GoogLeNet (Szegedy et al., 2015)的⽹络架构⼤放异彩。GoogLeNet吸收了NiN中串联⽹络的思想,并在此基础上做了改进。这篇论⽂的⼀个重点是解决了什么样⼤⼩的卷积核最合适的问题。毕竟,以前流⾏的⽹络使⽤⼩到1 × 1,⼤到11 × 11的卷积核。GoogLeNet的网络结构如下图所示。图中的矩形表示卷积层,池化层等。GoogLeNet的特征是,网络不仅在纵向上有深度,在横向上也有深度(广度)。

2023-08-02 18:57:00 58

原创 【卷积神经网络】(四)NiN

NiN 亦称为 网络中的网络。LeNet、AlexNet和VGG都有一个共同的设计模式:通过一系列的卷积层与汇聚层来提取空间结构特征;然后通过全连接层对特征的表征进行处理。AlexNet和VGG对LeNet的改进主要在于如何扩大和加深这两个模块。或者,可以想象在这个过程的早期使用全连接层。然而,如果使用了全连接层,可能会完全放弃表征的空间结构。网络中的网络NiN)提供了一个非常简单的解决方案:在每个像素的通道上分别使用多层感知机NiN块以一个普通卷积层开始,后面是两个1×1。

2023-08-02 18:36:01 63

原创 【卷积神经网络】(三)VGG

VGG 是由卷积层和池化层构成的基础CNN。不过,如下图所示,它的特点在于将有权重的层(卷积层或者全连接层)叠加到16层(或者19层),具备了深度。VGG中需要注意:(1)基于3×3的小型滤波器的卷积层的运算是连续进行的。如上图所示,重复进行“卷积层叠加2次到4次,再通过池化层将大小减半”的处理,最后经由全连接层输出结果。AlexNet 与 VGG 的网络结构比较:同:本质上都是块设计。

2023-08-02 18:21:55 50

原创 【卷积神经网络】(二)AlexNet

在LeNet问世20多年后,AlexNet被发布出来。它⾸次证明了学习到的特征可以超越⼿⼯设计的特征。AlexNet使⽤了8层卷积神经⽹络,其网络结构类似于LeNet,如下所示:AlexNet 叠有多个卷积层和池化层,最后经过由全连接层输出结果。

2023-08-02 18:08:37 29

原创 【线性神经网络】(二)softmax回归

在我们的例子中,由于我们有4个特征和3个可能的输出类别,我们将需要12个标量来表示权重(带下标的。尽管softmax是一个非线性函数,但softmax回归的输出仍然由输入特征的仿射变换决定。为了估计所有可能类别的条件概率,我们需要一个有多个输出的模型,每个类别对应一个输出。在训练softmax回归模型后,给出任何样本特征,我们可以预测每个输出类别的概率。举一个极端的例子,假如数据流中的每个数据完全相同,这会是一个非常无聊的数据流。当我们赋予一个事件较低的概率时,我们的惊异会更大,该事件的信息量也就更大。

2023-08-02 16:12:54 56

原创 【卷积神经网络】(一)LeNet

Fashion-MNIST数据集。本案例中的模型的训练和测试的数据集来自于del函数库中提供的Fashion-MNIST数据集。Label0T恤(T-shirt/top)1裤子(Trouser)2套头衫(Pullover)3连衣裙(Dress)4外套(Coat)5凉鞋(Sandal)6衬衫(Shirt)7运动鞋(Sneaker)8包(Bag)9靴子(Ankle boot)使用Python加载数据(需要NumPy)

2023-08-02 14:36:19 55

原创 【卷积神经网络】(零 )卷积层,池化层

输入数据得形状为(C,H,W),C为通道数,H为高,W为长。滤波器的高为FH,长为FW,通道数和输入数据相同,为C。以3通道的数据为例,展示了卷积运算的结果。通道方向存在多个特征图,即按通道进行输入数据和滤波器的卷积运算,再将结果相加,得到输出。假设输入大小为(H,W),滤波器大小为(FH,FW),输出大小为(OH,OW),填充为P,步幅为S。在上图中,输入数据大小为(4,4),滤波器大小为(3,3),输出大小为(2,2)。填充即是在卷积层处理输入数据前,向输入数据的周围填入固定的数据(一般为‘0’)。

2023-08-02 13:32:14 375 1

原创 【线性神经网络】(一) 线性回归 linear regression

经典统计学习方法中的线性回归和softmax回归可以视为线性神经网络。

2023-07-31 17:32:06 121 1

原创 【机器学习】什么是熵?

其中 S 是熵,k 是 玻尔兹曼常数,ln 是 自然对数,W 是系统的微观态数的总和(即当前状态下微观粒子的排列组合数)。A状态下的微观态数可视为当前状态下的微观粒子的排列组合数,即选取全部N个蓝分子放入左侧空间,再放入全部N个红分子。(在这里,简化了计算的情况,只将孤立空间分为2个部分,其实我们可以分成更多的部分,以增加W的数量,提高准确性)B状态下的微观态数可视为当前状态下的微观粒子的排列组合数,即从。所以我们可以得知,从状态A到状态B,孤立空间的熵在增加。个放入左侧空间,剩下的。

2023-07-31 15:29:48 83

原创 【leetcode 每日一题】 2500. 删除每行中的最大值 时间:O(mn + nlog(n)) 空间:O(1)

排序每一行的时间复杂度为 O(nlog(n)),因为每一行最多有 n 个元素需要排序。找到每一列的最大值的时间复杂度为 O(mn),因为需要遍历每一列,并找到其中的最大值。总体时间复杂度为 O(mn + nlog(n))。优化后的代码只使用了常数额外空间存储最大值,没有创建新的数组。因此,空间复杂度为 O(1)。如果存在多个这样的值,删除其中任何一个。给你一个 m x n 大小的矩阵 grid ,由若干正整数组成。注意 每执行一次操作,矩阵中列的数据就会减 1。假设矩阵的行数为 m,列数为 n。

2023-07-27 17:03:29 47 1

原创 【MLP】多层感知机

神经网络是当前机器学习领域普遍所应用的,例如可利用神经网络进行图像识别、语音识别等,从而将其拓展应用于自动驾驶汽车。它是一种高度并行的信息处理系统,具有很强的自适应学习能力,不依赖于研究对象的数学模型,对被控对象的的系统参数变化及外界干扰有很好的鲁棒性,能处理复杂的多输入、多输出非线性系统,神经网络要解决的基本问题是分类问题。真正的深度⽹络从MLP开始。最简单的深度⽹络称为多层感知机。多层感知机由多层神经元组成,每⼀层与它的上⼀层相连,从上一层接收输⼊;每一层与它的下一层相连,受到下一层的反馈(影响)。

2023-07-26 18:30:16 231 1

原创 python基础

本篇文章是作者为了学习深度学习而写的关于python的笔记,比较简单,偏向科学计算。

2023-07-26 16:05:10 59 1

原创 【leetcode天天练】2569. 更新数组后处理求和查询

操作类型 1 为 queries[i] = [1, l, r]。对于 0

2023-07-26 16:01:43 49 1

原创 pytorch 2.0.1 版本 [gpu] 安装

我们下载anaconda的目的主要是为了下一步的python环境管理,所以不考虑anaconda与已有的python的版本是否匹配的问题。所以在这里我们就需要建立不同的环境,在不同的需要的时候去使用。深度学习中很多项目,由于其依赖包的各种各样,也导致了会出现多个项目使用的python版本不一致的情况。注意,在安装pytorch前最好安装你想下载的pytorch版本对应的cuda版本,以及cudnn。右上角的CUDA Version:为显卡支持的最高的CUDA版本。

2023-07-25 15:39:19 10287 6

原创 leetcode 每日一题 2208. 将数组和减半的最少操作次数

给你一个正整数数组 nums。每一次操作中,你可以从 nums 中选择 任意 一个数并将它减小到 恰好 一半。(注意,在后续操作中你可以对减半过的数继续执行操作)请你返回将 nums 数组和 至少 减少一半的 最少 操作数。2.通过小顶堆的push,pop操作,实现快速取最大值。1.我们每次都减少数组中最大的数字的一半。

2023-07-25 11:28:23 78

原创 (每天一题 )宝石与石头

给你一个字符串 jewels 代表石头中宝石的类型,另有一个字符串 stones 代表你拥有的石头。stones 中每个字符代表了一种你拥有的石头的类型,你想知道你拥有的石头中有多少是宝石。字母区分大小写,因此 “a” 和 “A” 是不同类型的石头。

2023-07-24 10:56:04 39

原创 满足不等式的最大值(困难)

也就是说 points[i] = [xi, yi] ,并且在 1 <= i < j <= points.length 的前提下, xi < xj 总成立。请你找出 yi + yj + |xi - xj| 的 最大值,其中 |xi - xj| <= k 且 1 <= i < j <= points.length。3.每次遍历完一个坐标后,对队列进行更新,从队尾开始,将y-x必当前值小的都弹出,保证在队列中,元素按y-x的值的大小降序排列。所以我们需要一个数据结构来存储满足xj-xi<=k的坐标的y-x。

2023-07-21 17:18:19 50 1

原创 动态规划解‘环形子数组的最大和’

意味着数组的末端将会与开头相连呈环状。最多只能包含固定缓冲区。

2023-07-20 14:06:10 158

原创 week3

给你一个按照非递减顺序排列的整数数组 nums,和一个目标值 target。请你找出给定目标值在数组中的开始位置和结束位置。如果数组中不存在目标值 target,返回 [-1, -1]。你必须设计并实现时间复杂度为 O(log n) 的算法解决此问题。给你一个字符串 s,由若干单词组成,单词前后用一些空格字符隔开。返回字符串中 最后一个 单词的长度。单词 是指仅由字母组成、不包含任何空格字符的最大子字符串。

2023-07-18 18:31:20 57 1

原创 学习是什么?我们要怎么学习?

第一,遇到难题时,要先分析目的,清楚问题相关的已知的信息(输入)有哪些和想要得到的未知信息是什么(输出),然后尝试着将其划分为多个有联系的,相对独立的,简单的小问题,然后一步步来,解决一个问题。第二,在学习和复习一个知识时,要明确学习内容,然后拆分学习内容,有针对性地分配精力到某些重要的子问题上,避免重复学习,低效学习。

2023-07-14 13:15:36 168 1

原创 最长子回文串的三种解法

给定一个字符串,求其中包括的,返回最长回文串。

2023-07-13 16:33:56 74 1

原创 最长回文子串

​ 对于一个子串而言,如果它是回文串,并且长度大于 2,那么将它首尾的两个字母去除之后,它仍然是个回文串。例如对于字符串 “ababa”,如果我们已经知道 “bab” 是回文串,那么“ababa” 一定是回文串,这是因为它的首尾两个字母都是 “a”。每填一个true,都更新max_len = max(max_len,j-i+1) ,以及 begin。

2023-07-12 19:16:30 180 1

原创 第二周leetcode刷题打卡

有两个非空链表,分别表示两个非负整数(num>=0)。表内数字元素逆序存储,并且每个节点只能存储一位数字。要求将两数相加,并以相同形式返回一个表示和的链表。提示:可假设除数字 0 之外,这两个数都不会以 0 开头。

2023-07-12 13:47:13 184 1

原创 深度学习笔记

深度学习笔记1.简单的二输入单层感知机模型的实现结构如图所属:由图可知:输入信号(input):X[x1,x2] 也就是样本集合权重:[w1,w2],用来体现对应输入的重要性在这里我们设定,这个神经元(感知机)会计算接收到的信号的总和H。只有当这个总和H超过某个阈值之后,才会输出1,否则为0。该行为我们称为”神经元被激活“。激活函数(阶跃函数)如图所示:2.小demo实现在这里我们用感知机的思想,来实现一个数字逻辑上的“与门”代码实现:import numpy as np

2022-03-08 22:28:16 350

原创 PTA7-2 冒泡 (10分)

鸿鸿哥最近学习了指针,感觉这个知识点有点难以理解,于是想要通过编程实践来掌握它。鸿鸿哥以前学习数组(第7章)的时候已经掌握了冒泡排序的一般写法,现在他想用指针来实现排序的功能函数。但是他遇到了困难,你能帮帮他吗?指针实现冒泡排序函数,函数名统一用void bubbleSort(int *p,int c)。具体方法自己实现。输入格式:一组输入,第一行是待排数据个数n, 第二行是数据的具体值。...

2020-02-23 14:45:36 5293

原创 PTA 7-1 利用指针返回多个函数值 (30分)(部分正确)

读入n个整数,调用max_min()函数求这n个数中的最大值和最小值。输入格式:输入有两行:第一行是n值;第二行是n个数。输出格式:输出最大值和最小值。输入样例:在这里给出一组输入。例如:58 9 12 0 3输出样例:在这里给出相应的输出。例如:max = 12min = 0方法一:#include <stdio.h>void max_min(int...

2020-02-23 12:58:57 6399 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除