自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 【动力节点】javaSE-advance

1. IDEA常用快捷键快速生成main方法:psvm快速生成System.out.println():sout删除一行:ctrl+y任何新增/新建/添加的快捷键:alt+insertJava程序切换:alt+右箭头/左箭头窗口切换:alt+数字标号(打开/关闭)提示方法参数:ctrl+p注释单行注释:选中+ctrl+/多行注释:选中+ctrl+shift+/定位方法/属性/变量:ctrl+光标点击纠正错误:光标点中+alt+回车2. 面向对象2.1. final关键字

2022-02-14 20:46:16 232

原创 【动力节点】javaSE-basics

1. 环境搭建1.1. 常用DOS命令mkdr 文件名:创建目录exit:退出当前DOS命令窗口cls:清屏`DOS窗口内容复制:选中内容+右键(win10)dir:列出当前目录下所有子文件/子目录cd命令:改变目录假设当前目录为:C:\Users\Administrator相对路径 :如cd Desktop绝对路径:如 cd C:\Users\Administrator\Desktopcd … :回到上级目录**cd \ ** :直接回到根目录

2022-02-14 20:45:05 195

原创 【论文笔记】Video Transformer Network

论文地址:https://arxiv.org/abs/2102.007191 VTN的作用1.1 提出问题视频识别任务过度依赖卷积网络处理时间维度的基本方法是使用3D卷积网络存在计算量过大的问题基于transformer的模型在处理长视频序列时受到限制,因为自我注意操作每层复杂度为O(n2)O(n^{2})O(n2)(n为序列长度)1.2 解决方法抛弃3D网络。使用最先进的2D架构来学习空间特征表示,并在随后的数据流中添加时间信息,在结果特征之上使用注意机制。并且输入只有R

2021-12-09 14:49:06 3983

原创 矩阵求导总结

符号与布局(Layout) 的规定几个重要的向量对向量求导结论标量求导的迹方法(Trace Method)乘法法则(Product Rule)链式法则(Chain Rule)一些常见技巧实例

2021-12-02 20:01:55 838

原创 初步理解 Graph Convolutional Network(GCN)

先说问题的本质:图中的每个结点无时无刻不因为邻居和更远的点的影响而在改变着自己的状态直到最终的平衡,关系越亲近的邻居影响越大。要想理解GCN以及其后面一系列工作的实质,最重要的是理解其中的精髓Laplacian矩阵在干什么。知道了Laplacian矩阵在干什么后,剩下的只是解法的不同——所谓的Fourier变换只是将问题从空域变换到频域去解,所以也有直接在空域解的(例如GraphSage)。为了让问题简单便于理解,先让我们忘记时域、频域这些复杂的概念,从一个最简单的物理学现象——热传导出发。1. 图(

2021-11-05 19:48:30 295

原创 transformer知识汇总

transformer结构是google在2017年的《Attention Is All You Need》论文中提出,在NLP的多个任务上取得了非常好的效果。其最大特点是抛弃了传统的CNN和RNN,整个网络结构完全是由Attention机制组成。《Attention Is All You Need》论文地址:https://arxiv.org/abs/1706.037621. Transformer模型的思想1.1. RNN的缺陷在没有Transformer以前,大家做神经机器翻译用的最多的是基于

2021-10-29 20:33:15 1183

原创 【论文笔记】Non-local Neural Networks

论文链接:https://arxiv.org/abs/1711.079711.论文的目的1.1. 背景捕获远程依赖关系(long-range dependencies在深度神经网络中至关重要。卷积和循环运算在空间或时间上处理局部邻域;因此,只有在重复应用这些操作、通过数据逐步传播信号时,才能捕获远程依赖关系。重复局部操作的限制:(1)计算低效(2)优化困难(3)使多跳依赖关系建模变得困难例如,当消息需要在遥远的位置之间来回传递时。1.2.论文的方法论文提出非局部(no

2021-10-22 16:44:48 947

原创 【论文笔记】Learning Actor Relation Graphs for Group Activity Recognition

论文地址:https://arxiv.org/abs/1904.101171. ARG的作用Actor Relation Graph(ARG) 是论文提出的一种用于多人场景中识别群体活动的灵活高效的深度模型。ARG通过对多人场景中各个角色之间的关系进行建模,能够同时捕获角色之间的外观和位置关系。借助于图卷积网络(Graph Convolutional Network),ARG中的连接可以从群体活动视频中以端到端的方式自动学习,并且可以通过标准矩阵运算高效地在ARG上进行推理。2.

2021-10-15 16:46:50 1056

原创 TSN论文笔记

1.TSN的含义Temporal Segment Networks(TSN) 是一种用于视频中动作识别的框架。TSN通过一种基于分段的采样和聚合模块对长程时间结构进行建模,从而能够使用整个动作视频有效地学习动作模型。通过简单的平均池和多尺度时间窗集成,学习的模型可以很容易地分别适用于修剪和未修剪视频中的动作识别。2.TSN的作用2.1.背景对于视频中的动作识别,有两个关键且互补的线索:外观和时间动态。识别系统的性能在很大程度上取决于它是否能够从中提取和利用相关信息。卷积神经网络(ConvNet

2021-08-26 15:41:41 837

原创 cs231n学习笔记(二)

文章目录卷积神经网络卷积层池化层全连接层与卷积层之间的转化层的排列规律循环神经网络网络结构案例分析长短期记忆网络(LSTM)识别和分割语义分割(Semantic Segmentation)分类和定位(Classification + Localization)目标检测(Object Detection)实例分割(Instance Segmentation)可视化和理解卷积网络的可视化生成模型生成模型PixelRNN和PixelCNN自动编码器(Autoencoders)变化自编码器生成对抗网络(GANs)深

2021-08-13 18:17:40 284

原创 cs231n学习笔记(一)

文章目录图像分类Nearest Neighbor分类器k-Nearest Neighbor(KNN)分类器超参数的选择KNN分类器的劣势线性分类线性评分函数线性分类器损失函数反向传播中的梯度计算简单表达式和理解梯度使用链式法则计算复合表达式模块化:Sigmoid例子反向传播实践:分段计算回传流中的模式神经网络单个神经元建模作为线性分类器的单个神经元常用激活函数神经网络结构设置数据和模型梯度检查学习之前合理性检查检查学习过程参数更新超参数调优评价总结图像分类图像分类中的任务是预测给定图像的单个标签(或

2021-08-06 17:04:22 562

原创 《动手学深度学习》笔记总结

正向传播和反向传播正向传播正向传播(forward propagation或forward pass)指的是:按顺序(从输入层到输出层)计算和存储 神经网络中每层的结果。计算图反向传播反向传播指的是计算神经网络参数梯度的方法。该方法根据微积分中的链式规则,按相反的顺序从输出层到输入层遍历网络。该算法存储了计算某些参数梯度时所需的任何中间变量(偏导数)。在正向传播的计算图中单隐藏层简单网络的参数是W(1)W^{(1)}W(1)​ 和W(2)W^{(2)}W(2)​ 。反向传

2021-07-30 16:27:31 570

原创 交叉熵损失函数

交叉熵损失函数1.表达式(1)二分类在二分的情况下,模型最后需要预测的结果只有两种情况,对于每个类别我们的预测得到的概率为p和 1-p ,此时表达式为:(2)多分类多分类的情况实际上就是对二分类的扩展:2.函数性质可以看出,该函数是凸函数,求导时能够得到全局最优值。3.学习过程交叉熵损失函数经常用于分类问题中,特别是在神经网络做分类问题时,也经常使用交叉熵作为损失函数,此外,由于交叉熵涉及到计算每个类别的概率,所以交叉熵几乎每次都和sigmoid(或softmax)函数一起出现。整

2021-07-19 16:19:52 551

原创 吴恩达深度学习笔记(三)

吴恩达深度学习笔记(三)二、神经网络的编程基础(Basics of Neural Network programming)5.逻辑回归中的梯度下降( Logistic Regression Gradient Descent)假设样本只有两个特征????1和 ????2,为了计算 ????,我们需要输入参数 ????1、 ????2 和 ????,除此之外还有特征值 ????1和 ????2。因此 ????的计算公式为: ????=????1????1+????2????2+????。第一步:计算d

2021-07-17 18:26:23 148

原创 python基础知识

python基础知识

2021-07-17 17:01:48 72

原创 数据结构之图的基础知识整理

数据结构之图的基础知识整理1.图的基本概念图(graph),它表明了物件与物件之间的“多对多”的一种复杂关系。图包含了两个基本元素:顶点(vertex, 简称V)和边(edge,简称E)。有向图与无向图 如果给图的每条边规定一个方向,那么得到的图称为有向图。在有向图中,从一个顶点出发的边数称为该点的出度,而指向一个顶点的边数称为该点的入度。相反,边没有方向的图称为无向图。有权图与无权图 如果图中的边有各自的权重,得到的图是有权图。比如地铁路线图,连接两站的边的权重可以是距离,也可以是价格,或者

2021-07-10 09:49:05 507

原创 关于学习观的总结(二)

关于学习观的总结(二)八、感知与真实1. 感知源于模型,尽管不是真实,却是生存唯一感知不是真实,感知源于模型模型是我们赖以生存的唯一工具,我们演化出的感知系统不是求真,而是求存2.为什么要学习有些模型是无法支持生物生存,直接被淘汰掉了。我们才要构建可以依赖的、可以维持生存的模型学习是为了构建模型,看清世界,更好的生存感知层面靠自然选择认知层面大部分人可以依靠科学观念层面,选择众多3.判断模型好坏验证是知识的唯一标准所有的价值、原则、决策都源于模型谁塑造了你的模型,谁就塑

2021-06-07 09:36:43 323

原创 吴恩达深度学习笔记(二)

吴恩达深度学习笔记(二)二、神经网络的编程基础(Basics of Neural Network programming)1.二分类 (Binary Classification)二分类的输出为1(是)和0(不是)。二分类问题中数据的保存方法:对于一张彩色图片,需要保存三个矩阵,它们分别对应图片中的红、绿、蓝三种颜色通道。如果图片的大小为 64x64像素,为了把这些像素值放到一个特征向量中,我们需要把这些像素值提取出来,然后放入一个特征向量 ????。那么向量 ???? 的总维度=64×64×

2021-04-29 16:43:01 122

原创 吴恩达深度学习笔记(一)

吴恩达深度学习笔记(一)一、神经网络和深度学习 (Neural Networks and Deep Learning)1.什么是神经网络? (What is a Neural Network)举例一:假设有一个数据集,它包含了六栋房子的信息。所以,知道房屋的面积是多少平方英尺或者平方米,并且知道房屋价格。这时,拟合一个根据房屋面积预测房价的函数。我们把房屋的面积作为神经网络的输入( ????),通过一个节点(一个小圆圈),最终输出了价格(????)。这个小圆圈就是一个单独的神经元。接着这个网络实

2021-04-28 22:20:32 92

原创 研究生面试注意事项

研究生面试注意事项一、细节仪表整洁、得体、朴素,不要穿奇装异服礼仪进入面试室之前,不论门关着还是开着,应该首先轻轻敲门,并向老师鞠躬问好,然后轻轻坐下等待回答问题。态度要谦虚诚恳,不可跟老师言语冲突。回答完毕之后再次向老师问好鞠躬,说一句谢谢老师。谈吐说话的时候语言简洁,口齿清楚,表达委婉流畅。态度要保持自然、友善、亲切、随和。充满信心,要敢于正视对方的双眼,保持微笑,显得胸有成竹,从容不迫。回答老师问题时,不要急于回答,一定要想好了,组织好语言再回答。而且声音一定要洪亮

2021-03-03 15:27:49 277 1

原创 关于学习观的总结(一)

关于学习观的总结和感想一、学习的含义记忆:存储有限例子,对内容的再现特点:容量有限,难以集齐,记忆的是信息学习:从有限例子中总结输入和输出的规律,从而塑造大脑链接的过程特点:举一反三,学习的是知识感悟学习是通过例子来提取规律,从而解决问题的过程。我们学的东西是记忆的简化和技巧。从小学到大学以来,我感觉自己的学习越来越吃力,成绩也越来越低于预期,归根结底在与以记忆的方法代替学习,没有总结出规律。二、正确的学习步骤第一步:明确问题(输入)和答案(输出)学习不是但单纯地记住

2021-02-28 20:29:58 588

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除