自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 Hugging Face 预训练模型的快速下载方法

Hugging Face 中的预训练模型可以通过两种方式获取和使用:(1)在Hugging Face网站上下载对应的预训练模型的文件,本地加载;(2)在代码中指定预训练模型名进行加载。由于网络问题,使用第(2)中方式获取预训练模型时,通常速度会非常慢,容易timeout。解决方案:使用清华镜像(https://mirrors.tuna.tsinghua.edu.cn/help/hugging-face-models/)下载速度非常快, 快去试试吧!!...

2021-03-29 23:52:31 5397 3

原创 数据结构——树

前言:很多高级的数据结构通常都是对常用数据结构增加限制而来。树作为重要的数据结构之一,经常出现在很多算法题的应用中。本文将介绍基础的树理论及其延伸出的数据结构。话不多说,直接上图。图1 二叉树家族我们顺着图1的箭头,从上至下,从左到右依次看。单链表链表由多个节点组成,在经典的单链表结构中,每个节点都其相应的前驱节点和后继节点(例外:头节点只有后继节点;尾结点只有前驱节点)单链表的结构如图2所示。图2 单链表如图2所示,单链表中的每个节点存储有节点值和指向后继节点的Nex..

2021-03-01 00:18:02 184

原创 卷积神经网络——全连接+网络训练

全连接首先我们回顾下LeNet网络结构:图 1如图1中红色方框所示,在经过多次卷积——池化——卷积——池化操作后,接着是两次全连接操作。全连接层是传统的多层感知器,在输出层中使用Softmax激活功能(也可以使用其他分类器,例如SVM)。术语“全连接”表示上一层中的每个神经元都连接到下一层中的每个神经元。卷积和池化层的输出代表输入图像的高级特征。全连接层的目的是使用这些特征根据训练数据集将输入图像分类为各种类别。例如,图1展示的是图像分类任务具有四个可能的输出(狗,猫,船,鸟)。除了分类之

2021-02-06 15:56:58 1357

原创 非常实用的论文查找网站

写在前面这篇文章主要介绍一下,我在写论文的时候,查找参考文献经常访问的几个网站,如果觉得不错,建议收藏!ACM Digital Library首页网址:https://dl.acm.org/不止是论文,还有非常丰富的其它资源。Springer首页网址:https://link.springer.com/为研究人员提供来自期刊,书籍,系列,协议,参考著作和议事录的数百万份科学文献的访问权。ScienceDirect首页网址:https://www...

2021-02-01 23:08:10 1758

原创 卷积神经网络——池化操作

卷积神经网络——池化操作图1 LeNet网络结构卷积神经网络中还有一个重要的操作——池化操作(Pooling)。池化操作有不同的类型,包括:最大值池化,平均值池化等。在实践中,最大值池化(Max Pooling)有更好的效果。最大值池化的操作过程如图2所示:图2 最大值池化在使用池化前,我们需要人为确定池化窗口的大小以及步长(stride),在图2中,池化窗口大小为2x2,步长为2。在最大值池化的情况下,池化窗口会从特征图中获取/保留最大的元素。池化操作在降低特征图维度的同时也保留了最.

2021-01-23 17:19:48 6500

原创 并查集模板

并查集模板具体的细节可以看https://zhuanlan.zhihu.com/p/93647900,非常干货!Python版并查集模板,结合了路径压缩和按秩合并:class UnionFind: def __init__(self, n: int): self.parents = list(range(n)) self.size = [1] * n self.n = n # 当前连通分量数目 self.s

2021-01-21 12:00:00 107

原创 图解快速排序(Quicksort)附Python代码实现

图解快速排序快速排序算法因其较高的排序效率,被广泛使用。本文使用图画,将快排的思路给大家解释清楚。假设,我们有一个数组a = [3,2,3,4,2,4,1,2,5,6],我们使用快速排序进行排序。首先我们选定一个基数,经过一趟快排后,基数左边的数都小于等于基数,基数右边的数都大于基数。图1展示的是一趟快排的过程。图 1 快速排序一趟快排的流程:一般地,我们选择数组的第一个数作为基数,然后设置两个索引(i 和 j),令i = 0,j = len(a) - 1。 查看 a[ j ] 是.

2021-01-20 17:22:08 539 1

原创 代码块缩进

代码块缩进1、缩进选择代码块,敲击Tab键盘,即可进行整块缩进。2、回退选择代码块,按住Shift键,敲击Tab键,即可进行整块回退。在Pycharm,IDEA上测试有效,网页LeetCode也没问题,快去在你的IDE上试试吧。...

2021-01-20 11:26:44 849

原创 卷积神经网络——非线性激活

卷积神经网络——非线性激活

2021-01-19 11:50:08 2330 1

原创 卷积神经网络——卷积操作

卷积神经网络——卷积操作在上一篇《卷积神经网络简介》里我们介绍了卷积神经网络包含四个主要的操作,其中最重要的就是本文要讲述的“卷积”操作。对于CNN,卷积操作的主要目的是从输入图像中提取特征。卷积通过使用输入数据的小方块学习图像特征来保留像素之间的空间关系。图 1卷积操作就是卷积核(过滤器 / Filter)在原始图片中进行滑动得到特征图(Feature Map)的过程。假设我们现在有一个单通道的原始图片和一个卷积核,卷积的过程如图2所示:图 2卷积得到的特征图的每一个像素值..

2021-01-16 23:01:14 12313 3

原创 卷积神经网络简介

​​​​​​卷积神经网络(CNN)——简介一、简介卷积神经网络(ConvNets或CNN)是神经网络的一种,已被证明在图像识别和分类等领域非常有效。 除机器人和自动驾驶汽车的视野增强外,ConvNets还在识别面部,物体和交通标志上获得成功。LeNet是最早推动深度学习领域的卷积神经网络之一。 自1988年以来,Yann LeCun的这项开创性工作在经过多次成功的迭代之后,于1998年被命名为LeNet5。 当时LeNet架构主要用于字符识别任务,例如读取邮政编码,数字等。二、Le.

2021-01-16 16:48:48 638 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除